DE202013012304U1 - Mobiles Endgerät - Google Patents

Mobiles Endgerät Download PDF

Info

Publication number
DE202013012304U1
DE202013012304U1 DE202013012304.4U DE202013012304U DE202013012304U1 DE 202013012304 U1 DE202013012304 U1 DE 202013012304U1 DE 202013012304 U DE202013012304 U DE 202013012304U DE 202013012304 U1 DE202013012304 U1 DE 202013012304U1
Authority
DE
Germany
Prior art keywords
touch
screen
mobile terminal
displayed
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202013012304.4U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of DE202013012304U1 publication Critical patent/DE202013012304U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Abstract

Mobiles Endgerät (100), das umfasst: einen Berührungsbildschirm, der dafür konfiguriert ist, Berührungseingaben zu empfangen und Informationen anzuzeigen, wobei der Berührungsbildschirm mehrere Ränder aufweist; und einen Controller (180), der mit dem Berührungsbildschirm funktional gekoppelt ist und der konfiguriert ist zum: Anzeigen eines ersten Bildschirms, der ein Objekt enthält, auf dem Berührungsbildschirm, wobei der erste Bildschirm in dem gesamten Bereich des Berührungsbildschirms angezeigt wird, Anzeigen eines zweiten Bildschirms (W), der das Objekt auf dem ersten Bildschirm enthält, in Ansprechen auf den Empfang einer Berührungsaktion auf dem Berührungsbildschirm, wobei eine Größe des zweiten Bildschirms (W) kleiner als eine Größe des ersten Bildschirms ist, und wobei die Berührungsaktion eine Berührungs- und Zieheingabe auf einem Randgebiet enthält, das wenigstens einen der mehreren Ränder des Berührungsbildschirms enthält, wobei der zweite Bildschirm (W) dieselben Objekte anzeigt, wie sie auf dem ersten Bildschirm angezeigt sind, und wobei die Berührungsaktion eine Trajektorie (TR) der Berührungs- und Zieheingabe enthält und wobei wenigstens ein Anfangspunkt und ein Endpunkt der Trajektorie (TR) in dem Randgebiet, das wenigstens einen der mehreren Ränder des Berührungsbildschirms enthält, enthalten sind.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht den Vorteil des früheren Einreichungsdatums und des Prioritätsrechts der koreanischen Patentanmeldung Nr. 10-2012-0023978 , eingereicht am 8. März 2012, deren Inhalt hier in seiner Gesamtheit durch Literaturhinweis eingefügt ist.
  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf ein mobiles Endgerät und insbesondere auf ein mobiles Endgerät, das durch Anzeigen eines Steuerfensters zum Ausführen von Manipulationen an Inhalt, der auf einen Berührungsbildschirm angezeigt wird, auf der Grundlage der Position und/oder der Spur einer Berührungsaktion leichter manipuliert werden kann.
  • DISKUSSION DES VERWANDTEN GEBIETS
  • Als Funktionen von Endgeräten wie etwa Personal Computer, Laptop-Computern, einer Vielfalt von Mobiltelephonen, werden die Endgeräte zu Multimediaspielern, die mehrere Funktionen aufweisen, um Bilder oder Bewegtbilder zu erfassen, Musik- und Bewegtbilddateien abzuspielen, Spiele zu spielen und Rundfunkprogramme zu empfangen.
  • Endgeräte können als mobile Endgeräte und feststehende Endgeräte klassifiziert werden. Die mobilen Endgeräte können in Übereinstimmung damit, ob Nutzer die Endgeräte persönlich tragen können, ferner Handendgeräte und in ein Fahrzeug eingebaute Endgeräte umfassen. Herkömmliche Endgeräte einschließlich mobiler Endgeräte stellen eine zunehmende Anzahl komplexer und verschiedener Funktionen bereit.
  • Zur Unterstützung und Verbesserung der zunehmenden Anzahl von Funktionen in einem Endgerät wäre die Verbesserung eines strukturellen Teils und/oder eines Softwareteils des Endgeräts erwünscht.
  • In den letzten Jahren zeigen Anzeigen für mobile Endgeräte den Trend, immer größer zu werden, um verschiedene Informationen darzustellen.
  • ZUSAMMENFASSUNG
  • Die vorliegende Erfindung bezieht sich auf ein mobiles Endgerät, das durch das Anzeigen eines Steuerfensters zum Ausführen von Manipulationen an auf einem Berührungsbildschirm angezeigtem Inhalt auf der Grundlage der Position und/oder der Spur einer Berührungsaktion leichter manipuliert werden kann, und auf ein Steuerverfahren dafür.
  • In Übereinstimmung mit einem Aspekt der vorliegenden Erfindung enthält ein mobiles Endgerät: eine Anzeige; und einen Controller, der einen ersten Bildschirms anzeigt, der auf der Anzeige wenigstens ein Objekt enthält, einen zweiten Bildschirm mit einer gegenüber dem ersten Bildschirm verringerten Skale auf dem ersten Bildschirm überlappt, wenn er über die Anzeige eine vorgegebene Eingabe empfängt, und der das Anzeigen des ersten Bildschirms auf der Grundlage einer Eingabe über den zweiten Bildschirm steuert.
  • Dabei ist die Berührungseingabe eine Zieheingabe, die innerhalb eines Randgebiets vorgenommen wird, das wenigstens einen von mehreren Rändern des Berührungsbildschirms enthält.
  • Dabei sind sowohl ein Anfangspunkt als auch ein Endpunkt der Berührungstrajektorie in einem Randgebiet, das wenigstens einen von mehreren Rändern des Berührungsbildschirms enthält, enthalten.
  • Dabei stellt der Controller die Reichweite innerhalb einer durch einen Finger der Hand, die den Körper des Endgeräts hält, eingegebenen Berührungstrajektorie oder einer vorgegebenen Reichweite, die die Berührungstrajektorie enthält, als das Steuergebiet ein.
  • Dabei hängt die Größe des Steuergebiets von der Reichweite der Berührungstrajektorie ab.
  • Dabei hängt das Steuergebiet von einer bogenförmigen Berührungstrajektorie ab, die durch einen Finger der Hand, die den Körper des mobilen Endgeräts hält, eingegeben wird.
  • Dabei zeigt der Controller in dem Steuergebiet Anwendungen, die in Ausführung sind, oder ausführbare Anwendungen in dem mobilen Endgerät an, wenn die Länge der Berührungstrajektorie, die von einem spezifischen Punkt auf dem Berührungsbildschirm beginnt, größer als eine vorgegebene kritische Länge ist, wobei der Controller die durch die verlaufende Berührungstrajektorie ausgewählte Anwendung in einem Vordergrund ausführt, wenn die Berührungstrajektorie zu einer der angezeigten Anwendungen verläuft.
  • Dabei zeigt der Controller ferner auf dem zweiten Bildschirm eine Navigationsnutzerschnittstelle an und steuert er in Ansprechen auf eine Berührungseingabe über die Navigationsnutzerschnittstelle wenigstens ein auf dem ersten Bildschirm angezeigtes Objekt.
  • Wenn eine vorgegebene Eingabe für das Steuergebiet empfangen wird, wird die Größe des Steuergebiets geändert und wird der zweite Bildschirm dem Steuergebiet mit der geänderten Größe entsprechend angezeigt.
  • Dabei umfasst das mobile Endgerät ferner einen Lagesensor, wobei der Controller mittels des Lagesensors eine Neigung des mobilen Endgeräts erkennt und auf der Grundlage der Neigungsrichtung des mobilen Endgeräts eine Position zum Anzeigen des Steuergebiets bestimmt.
  • Dabei enthält die Anzeige einen Berührungsbildschirm und zeigt der Controller den zweiten Bildschirm auf der Grundlage des Berührungspunkts und der Berührungstrajektorie einer Berührungseingabe über den Berührungsbildschirm an.
  • Dabei enthält die Anzeige einen Berührungsbildschirm und zeigt der Controller den zweiten Bildschirm an, wenn er über den ersten Bildschirm eine lange Berührungseingabe empfängt.
  • Dabei führt der Controller eine Anwendung zum Steuern des Anzeigens des ersten Bildschirms aus und zeigt er im Ergebnis der Ausführung der Anwendung den zweiten Bildschirm auf der Anzeige an.
  • Dabei zeigt der Controller auf dem ersten Bildschirm ein Steuerobjekt zum Steuern des Anzeigens des ersten Bildschirms an und zeigt er den zweiten Bildschirm an, wenn er eine Eingabe, die das Steuerobjekt auswählt, empfängt.
  • Ferner umfasst das mobile Endgerät einen Hard Key, der an dem Körper des mobilen Endgeräts angebracht ist, um das Anzeigen des ersten Bildschirms zu steuern.
  • In Übereinstimmung mit einem anderen Aspekt der vorliegenden Erfindung enthält ein mobiles Endgerät: einen Berührungsbildschirm, der wenigstens ein Objekt anzeigt; einen Körper, der den Berührungsbildschirm stützt; wenigstens einen Sensor, der an dem Körper angeordnet ist, um das Halten eines Nutzers zu erfassen; und einen Controller, der aus dem Erfassungssignal von dem Sensor eine Halteposition des mobilen Endgeräts detektiert und der ein Steuerfenster zum Steuern wenigstens eines auf dem Berührungsbildschirm angezeigten Objekts auf dem Berührungsbildschirm unter Berücksichtigung der Halteposition des mobilen Endgeräts und des Berührungspunkts einer Berührungseingabe anzeigt, wenn die Berührungseingabe über den Berührungsbildschirm empfangen wird.
  • Dabei zeigt der Berührungsbildschirm in dem Steuerfenster wenigstens eines von wenigstens einem auf dem Berührungsbildschirm in dem Steuerfenster angezeigten Objekten an und steuert er das auf dem Berührungsbildschirm angezeigte Objekt in Ansprechen auf eine Berührungseingabe über das Steuerfenster.
  • Dabei zeigt der Controller das Steuerfenster innerhalb des Einsatzradius eines Fingers eines Nutzers, der das mobile Endgerät hält, an.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die beigefügten Zeichnungen, die enthalten sind, um ein weiteres Verständnis der Erfindung zu schaffen, und die in diese Anmeldung integriert sind und einen Bestandteil von ihr bilden, stellen eine oder mehrere Ausführungsformen der Erfindung dar und dienen zusammen mit der Beschreibung zur Erläuterung des Prinzips der Erfindung.
  • 1 ist ein Blockschaltplan eines mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform;
  • 2 ist eine perspektivische Vorderansicht des mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform;
  • 3 ist eine perspektivische Rückansicht des mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform;
  • 4 ist eine perspektivische Vorderansicht eines mobilen Endgeräts in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung.
  • 5 ist ein Ablaufplan, der eine Bedienprozedur des mobilen Endgeräts aus 1 zeigt;
  • 6 und 7 sind Ansichten, die eine Berührungsaktion an dem mobilen Endgerät aus 1 zeigen;
  • 8 und 9 sind Ansichten, die Bereiche des mobilen Endgeräts aus 1 zeigen;
  • 10 bis 13 sind Ansichten, die eine Berührungsaktion an dem mobilen Endgerät aus 1 zeigen;
  • 14 bis 16 sind Ansichten, die ein Steuerfenster zeigen, das durch eine Berührungsaktion an dem mobilen Endgerät aus 1 angezeigt wird.
  • 17 ist eine Ansicht, die eine Änderung der Position des Steuerfensters in Ansprechen auf eine Berührungsaktion an dem mobilen Endgerät aus 1 zeigt;
  • 18 bis 21 sind Ansichten, die ein Verfahren zum Manipulieren des Steuerfensters des mobilen Endgeräts aus 1 zeigen;
  • 22 ist eine Ansicht, die ein Verfahren zum Manipulieren eines Telephonbuchs des mobilen Endgeräts aus 1 zeigt;
  • 23 ist eine Ansicht, die ein Videobedienverfahren für das mobile Endgerät aus 1 zeigt;
  • 24 und 25 sind eine Ansicht, die ein Anwendungsauswahlverfahren für das mobile Endgerät aus 1 zeigt;
  • 26 und 27 sind Ansichten, die ein Hintergrundbedienverfahren für das mobile Endgerät aus 1 zeigen;
  • 28 ist eine Ansicht, die ein mobiles Endgerät in Übereinstimmung mit einer abermals anderen Ausführungsform der vorliegenden Erfindung zeigt;
  • 29 ist eine Ansicht, die das mobile Endgerät aus 28 zeigt, das in einer Hand gehalten ist;
  • 30 ist eine Ansicht, die ein mobiles Endgerät in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt;
  • 31 ist eine Ansicht, die eine Operation eines mobilen Endgeräts in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt; und
  • 32 ist eine Ansicht, die eine Operation des mobilen Endgeräts in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Anhand der beigefügten Zeichnungen, in denen beispielhafte Ausführungsformen gezeigt sein können, können nun Anordnungen und Ausführungsformen umfassender beschrieben werden. Allerdings können die Ausführungsformen in vielen verschiedenen Formen verkörpert werden und sollen sie nicht als auf die hier dargestellten Ausführungsformen beschränkt verstanden werden; vielmehr können Ausführungsformen gegeben sein, damit diese Offenbarung gründlich und vollständig ist und dem Fachmann auf dem Gebiet das Konzept umfassend vermittelt.
  • Im Folgenden kann anhand der beigefügten Zeichnungen ein mobiles Endgerät beschrieben sein. In der folgenden Beschreibung können Komponenten des mobilen Endgeräts die Nachsilben ”-modul” und ”-einheit” nur angesichts der Erleichterung der Beschreibung gegeben sein und besitzen sie keine voneinander verschiedenen Bedeutungen oder Funktionen.
  • Das mobile Endgerät kann ein Mobiltelephon, ein Smartphone, einen Laptop-Computer, ein digitales Rundfunkendgerät, Personal Digital Assistants (PDA), einen tragbaren Multimediaspieler (PMP), ein Navigationssystem und/oder so weiter enthalten.
  • 1 ist ein Blockschaltplan eines mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform. Andere Ausführungsformen, Konfigurationen und Anordnungen können ebenfalls bereitgestellt werden.
  • Wie gezeigt ist, kann das mobile Endgerät 100 eine drahtlose Kommunikationseinheit 110 (oder Funkkommunikationseinheit), eine Audio/Video-Eingabeeinheit (A/V-Eingabeeinheit) 120, eine Nutzereingabeeinheit 130, eine Erfassungseinheit 140, eine Ausgabeeinheit 150, einen Speicher 160, eine Schnittstelle 170, einen Controller 180 und eine Leistungsversorgung 190 enthalten. Die in 1 gezeigten Komponenten können wesentliche Teile sein und/oder eine Anzahl von in dem mobilen Endgerät 100 enthaltenen Komponenten kann variieren. Es können nun Komponenten des mobilen Endgeräts 100 beschrieben werden.
  • Die drahtlose Kommunikationseinheit 110 kann wenigstens ein Modul enthalten, das zwischen dem mobilen Endgerät 100 und einem Funkkommunikationssystem oder zwischen dem mobilen Endgerät 100 und einem Netz, in dem sich das mobile Endgerät 100 befindet, die Funkkommunikation ermöglicht. Die drahtlose Kommunikationseinheit 110 kann z. B. ein Rundfunkempfangsmodul 111, ein Mobilkommunikationsmodul 112, ein drahtloses Internet-Modul 113, ein Modul 114 für die kurzreichweitige Kommunikation (oder Modul für die lokale Kommunikation) und ein Ortsinformationsmodul 115 (oder Positionsinformationsmodul) enthalten.
  • Das Rundfunkempfangsmodul 111 kann über einen Rundfunkkanal Rundfunksignale und/oder auf Rundfunk bezogene Informationen von einem externen Rundfunkmanagementserver empfangen. Der Rundfunkkanal kann einen Satellitenkanal und einen terrestrischen Kanal enthalten und der Rundfunkmanagementserver kann ein Server, der Rundfunksignale und/oder auf Rundfunk bezogene Informationen erzeugt und sendet, oder ein Server, der zuvor erzeugte Rundfunksignale und/oder auf Rundfunk bezogene Informationen empfängt und die Rundfunksignale und/oder auf Rundfunk bezogenen Informationen an ein Endgerät sendet, sein.
  • Die Rundfunksignale können nicht nur Fernsehrundfunksignale, Hörfunksignale und Datenrundfunksignale, sondern auch Signale in Form einer Kombination eines Fernsehrundfunksignals und eines Hörfunkrundfunksignals enthalten. Die auf Rundfunk bezogenen Informationen können Informationen über einen Rundfunkkanal, über ein Rundfunkprogramm oder über einen Rundfunkdienstanbieter sein und können sogar über ein Mobilkommunikationsnetz bereitgestellt werden. Im letzteren Fall können die auf Rundfunk bezogenen Informationen durch das Mobilkommunikationsmodul 112 empfangen werden.
  • Die auf Rundfunk bezogenen Informationen können in verschiedenen Formen vorhanden sein. Die auf Rundfunk bezogenen Informationen können z. B. in Form eines elektronischen Programmführers (EPG) eines digitalen Multimediarundfunksystems (DMB-Systems) oder in Form eines elektronischen Diensteführers (ESG) eines Digitalfernsehrundfunk-Hand-Systems (DVB-H-Systems) vorhanden sein.
  • Das Rundfunkempfangsmodul 111 kann Rundfunksignale unter Verwendung verschiedener Rundfunksysteme empfangen. Insbesondere kann das Rundfunkempfangsmodul 111 digitale Rundfunksignale unter Verwendung digitaler Rundfunksysteme wie etwa eines Digitalmultimediarundfunk-terrestrisch-Systems (DMB-T-Systems), eines Digitalmultimediarundfunk-Satellit-Systems (DMB-S-Systems), eines reinen Medienabwärtsstreckensystems (MediaFLO-Systems), eines DVB-H und Diensteintegrierender Digitalrundfunk-terrestrisch-Systeme (ISDB-T-Systeme) empfangen. Das Rundfunkempfangsmodul 111 kann Signale von Rundfunksystemen empfangen, die andere Rundfunksignale als die oben beschriebenen Digitalrundfunksysteme bereitstellen.
  • Die über das Rundfunkempfangsmodul 111 empfangenen Rundfunksignale und/oder auf Rundfunk bezogenen Informationen können in dem Speicher 160 gespeichert werden. Das Mobilkommunikationsmodul 112 kann ein Funksignal zu/von einer Basisstation und/oder einem externen Endgerät und/oder einem Server in einem Mobilkommunikationsnetz senden/empfangen. Das Funksignal kann ein Fernsprechrufsignal, ein Videotelephonierufsignal oder Daten in verschiedenen Formen in Übereinstimmung mit der Sendung und dem Empfang von Text-/Multimedianachrichten enthalten.
  • Das drahtlose Internetmodul 113 kann einem Modul für den drahtlosen Internetzugang entsprechen und kann in dem mobilen Endgerät 100 enthalten sein oder kann extern an dem mobilen Endgerät 100 angebracht sein. Als eine drahtlose Internettechnik können drahtloses LAN (WLAN oder WiFi), drahtloses Breitband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA) usw. verwendet werden.
  • Das Modul 114 für die kurzreichweitige Kommunikation kann einem Modul für die kurzreichweitige Kommunikation entsprechen. Ferner können als eine Technik für die kurzreichweitige Kommunikation Bluetooth®, Hochfrequenzidentifizierung (RFID), Infrarotdatenassoziation (IrDA), Ultrabreitband (UWB) und/oder ZigBee® verwendet werden.
  • Das Ortsinformationsmodul 115 kann einen Ort oder eine Position des mobilen Endgeräts 100 bestätigen oder erhalten. Das Ortsinformationsmodul 115 kann Positionsinformationen unter Verwendung eines globalen Navigationssatellitensystems (GNSS) erhalten. Das GNSS ist eine Terminologie, die ein Funknavigationssatellitensystem beschreibt, das um die Erde umläuft und Referenzsignale an vorgegebene Typen von Funknavigationsempfängern sendet, so dass die Funknavigationsempfänger ihre Positionen auf der Erdoberfläche oder in der Nähe der Erdoberfläche bestimmen können. Das GNSS kann z. B. ein globales Positionsbestimmungssystem (GPS) der Vereinigten Staaten, Galileo aus Europa, ein globales System umlaufender Navigationssatelliten (GLONASS) aus Russland, COMPASS aus China und ein Quasi-Zenit-Satellitensystem (QZSS) aus Japan enthalten.
  • Ein Modul eines globalen Positionsbestimmungssystems (GPS-Modul) ist ein repräsentatives Beispiel für das Ortsinformationsmodul 115. Das GPS-Modul kann Informationen über Entfernungen zwischen einem Punkt oder Gegenstand und wenigstens drei Satelliten und Informationen über einen Zeitpunkt, zu dem die Entfernungsinformationen gemessen werden, berechnen und auf die erhaltenen Entfernungsinformationen die Trigonometrie anwenden, um in Übereinstimmung mit der geographischen Breite, mit der geographischen Länge und mit der Höhe zu einem vorgegebenen Zeitpunkt dreidimensionale Positionsinformationen über den Punkt oder Gegenstand zu erhalten.
  • Außerdem kann ein Verfahren zum Berechnen von Positions- und Zeitinformationen unter Verwendung dreier Satelliten und zum Korrigieren der berechneten Positions- und Zeitinformationen unter Verwendung eines weiteren Satelliten verwendet werden. Außerdem kann das GPS-Modul ununterbrochen eine aktuelle Position in Echtzeit berechnen und unter Verwendung der Orts- oder Positionsinformationen Geschwindigkeitsinformationen berechnen.
  • Die A/V-Eingabeeinheit 120 kann ein Audiosignal und/oder ein Videosignal eingeben (oder empfangen). Die A/V-Eingabeeinheit 120 kann eine Kamera 121 und ein Mikrofon 122 enthalten. Die Kamera 121 kann Einzelbilder von Standbildern oder Bewegtbildern verarbeiten, die durch einen Bildsensor in einer Videotelephoniebetriebsart oder in einer Photographierbetriebsart erhalten werden. Die verarbeiteten Einzelbilder können auf einer Anzeige 151, die ein Berührungsbildschirm sein kann, angezeigt werden.
  • Die durch die Kamera 121 verarbeiteten Einzelbilder können in dem Speicher 160 gespeichert werden oder können über die drahtlose Kommunikationseinheit 110 an eine externe Vorrichtung gesendet werden. Außerdem kann das mobile Endgerät 100 wenigstens zwei Kameras 121 enthalten.
  • Das Mikrofon 122 kann in einer Anrufbetriebsart, in einer Aufzeichnungsbetriebsart und/oder in einer Sprecherkennungsbetriebsart ein externes Audiosignal empfangen und das Mikrofon 122 kann das empfangene Audiosignal zu elektrischen Audiodaten verarbeiten. Die Audiodaten können daraufhin in ein Format umgesetzt werden, das über das Mobilkommunikationsmodul 112 an eine Mobilkommunikationsbasisstation gesendet werden kann und in der Anrufbetriebsart ausgegeben werden kann. Das Mikrofon 122 kann verschiedene Rauschentfernungsalgorithmen (oder einen Rauschkompensationsalgorithmus) nutzen, um Rauschen, das erzeugt wird, wenn das externe Audiosignal empfangen wird, zu entfernen oder zu verringern.
  • Die Nutzereingabeeinheit 130 kann von einem Nutzer Eingabedaten empfangen, um den Betrieb des mobilen Endgeräts 100 zu steuern. Die Nutzereingabeeinheit 130 kann ein Tastenfeld, einen Hat-Switch, ein Touchpad (konstante Spannung/Kapazität), ein Jog-Rad, einen Jog-Schalter und/oder so weiter enthalten.
  • Die Erfassungseinheit 140 kann einen aktuellen Zustand des mobilen Endgeräts 100 wie etwa einen Öffnungs-/Schließzustand des mobilen Endgeräts 100, eine Position des mobilen Endgeräts 100, ob ein Nutzer das mobile Endgerät 100 berührt, eine Richtung des mobilen Endgeräts 100 und eine Beschleunigung/Verzögerung des mobilen Endgeräts 100 erfassen, wobei die Erfassungseinheit 140 ein Erfassungssignal erzeugen kann, um den Betrieb des mobilen Endgeräts 100 zu steuern. Zum Beispiel kann die Erfassungseinheit 140 in einem Beispiel eines Schiebetelephons erfassen, ob das Schiebetelephon geöffnet oder geschlossen ist. Ferner kann die Erfassungseinheit 140 erfassen, ob die Leistungsversorgung 190 Leistung zuführt und/oder ob die Schnittstelle 170 mit einer externen Vorrichtung verbunden ist. Außerdem kann die Erfassungseinheit 140 einen Näherungssensor 141 enthalten. Die Erfassungseinheit 140 kann eine Bewegung des mobilen Endgeräts 100 erfassen.
  • Die Ausgabeeinheit 150 kann eine visuelle, eine hörbare und/oder eine tastbare Ausgabe erzeugen, wobei die Ausgabeeinheit 150 die Anzeige 151, das Audioausgabemodul 152, eine Alarmeinrichtung 153 und ein Haptikmodul 154 enthalten kann. Die Anzeige 151 kann Informationen anzeigen, die durch das mobile Endgerät 100 verarbeitet werden. Wenn das mobile Endgerät 100 in der Anrufbetriebsart ist, kann die Anzeige 151 eine Nutzerschnittstelle (UI) und/oder eine graphische Nutzerschnittstelle (GUI), die sich auf einen Telephonanruf bezieht, anzeigen. Außerdem kann die Anzeige 151 ein erfasstes und/oder empfangenes Bild, eine UI oder eine GUI anzeigen, wenn das mobile Endgerät 100 in der Videotelephoniebetriebsart oder in der Photographierbetriebsart ist.
  • Die Anzeige 151 kann eine Flüssigkristallanzeige und/oder eine Dünnfilmtransistor-Flüssigkristallanzeige und/oder eine Anzeige organischer Lichtemitterdioden und/oder eine biegsame Anzeige und/oder eine dreidimensionale Anzeige enthalten. Die Anzeige 151 kann von einem durchsichtigen Typ oder von einem lichtdurchlässigen Typ sein. Das heißt, die Anzeige 151 kann eine durchsichtige Anzeige enthalten.
  • Die durchsichtige Anzeige kann eine durchsichtige Flüssigkristallanzeige sein. Eine hintere Struktur der Anzeige 151 kann ebenfalls von einem lichtdurchlässigen Typ sein. Dementsprechend kann ein Nutzer einen Gegenstand, der sich hinter dem Körper (des mobilen Endgeräts 100) befindet, durch den durchsichtigen Bereich des Körpers des mobilen Endgeräts 100, der von der Anzeige 151 eingenommen ist, sehen.
  • Außerdem kann das mobile Endgerät 100 wenigstens zwei Anzeigen 151 enthalten. Zum Beispiel kann das mobile Endgerät 100 mehrere Anzeigen 151, die in einer einzelnen Fläche in einer vorgegebenen Entfernung angeordnet sind, oder integrierte Anzeigen enthalten. Die mehreren Anzeigen 151 können ebenfalls auf verschiedenen Seiten angeordnet sein.
  • Wenn die Anzeige 151 und ein Sensor, der eine Berührung erfasst, (im Folgenden als ein Berührungssensor bezeichnet) eine Schichtstruktur bilden, die als ein Berührungsbildschirm bezeichnet wird, kann die Anzeige 151 außer als Ausgabevorrichtung als eine Eingabevorrichtung verwendet werden. Der Berührungssensor kann z. B. die Form eines Berührungsfilms, einer Berührungsplatte und/oder eines Touchpads aufweisen.
  • Der Berührungssensor kann eine Änderung des auf einen spezifischen Abschnitt der Anzeige 151 ausgeübten Drucks oder eine Änderung der in einem spezifischen Abschnitt der Anzeige 151 erzeugten Kapazität in ein elektrisches Eingangssignal umsetzen. Der Berührungssensor kann den Druck der Berührung sowie die Position und den Bereich der Berührung erfassen.
  • Wenn der Nutzer eine Berührungseingabe auf den Berührungssensor anwendet, kann ein der Berührungseingabe entsprechendes Signal an einen Berührungscontroller gesendet werden. Der Berührungssensor kann das Signal daraufhin verarbeiten und dem verarbeiteten Signal entsprechende Daten an den Controller 180 senden. Dementsprechend kann der Controller 180 einen berührten Abschnitt der Anzeige 151 detektieren.
  • Der Näherungssensor 141 (der Erfassungseinheit 140) kann sich in einem Innengebiet des mobilen Endgeräts 100, das von dem Berührungsbildschirm umgeben ist, und/oder in der Nähe des Berührungsbildschirms befinden. Der Näherungssensor 141 kann unter Verwendung einer elektromagnetischen Kraft oder von Infrarotstrahlen einen Gegenstand, der sich einer vorgegebenen Erfassungsfläche annähert, oder einen Gegenstand, der sich in der Nähe des Näherungssensors 141 befindet, ohne einen mechanischen Kontakt aufzuweisen, erfassen. Der Näherungssensor 141 kann eine längere Lebensdauer als ein Kontaktsensor aufweisen und kann somit in dem mobilen Endgerät 100 eine umfassende Anwendung besitzen.
  • Der Näherungssensor 141 kann einen photoelektrischen Sensor vom Transmissionstyp, einen photoelektrischen Sensor vom Typ mit regelmäßiger Reflexion, einen photoelektrischen Sensor vom Spiegelreflexionstyp, einen Hochfrequenzoszillations-Näherungssensor, einen kapazitiven Näherungssensor, einen magnetischen Näherungssensor und/oder einen Infrarotnäherungssensor enthalten. Ein kapazitiver Berührungsbildschirm kann so konstruiert sein, dass die Annäherung eines Zeigers durch eine Änderung eines elektrischen Felds in Übereinstimmung mit der Nähe des Zeigers detektiert wird. Der Berührungsbildschirm (Berührungssensor) kann als ein Näherungssensor 141 klassifiziert werden.
  • Zur leichten Erläuterung kann eine Aktion, dass sich der Zeiger dem Berührungsbildschirm annähert, ohne den Berührungsbildschirm tatsächlich zu berühren, als eine Näherungsberührung bezeichnet werden, und kann eine Aktion, dass der Zeiger mit dem Berührungsbildschirm in Kontakt gebracht wird, als eine Kontaktberührung bezeichnet werden. Der Näherungsberührungspunkt des Zeigers auf dem Berührungsbildschirm kann einem Punkt des Berührungsbildschirms entsprechen, an dem der Zeiger senkrecht zu dem Berührungsbildschirm ist.
  • Der Näherungssensor 141 kann die Näherungsberührung und ein Näherungsberührungsmuster (z. B. eine Näherungsberührungsentfernung, eine Näherungsberührungsrichtung, eine Näherungsberührungsgeschwindigkeit, einen Näherungsberührungszeitpunkt, eine Näherungsberührungsposition, einen Näherungsberührungsbewegungszustand usw.) erfassen. Daraufhin können der erfassten Näherungsberührungsaktion und dem erfassten Näherungsberührungsmuster entsprechende Informationen auf dem Berührungsbildschirm angezeigt werden.
  • Das Audioausgabemodul 152 kann in einer Rufsignalempfangsbetriebsart, in einer Telephonanrufbetriebsart oder in einer Aufzeichnungsbetriebsart, in einer Spracherkennungsbetriebsart und in einer Rundfunkempfangsbetriebsart von der drahtlosen Kommunikationseinheit 110 empfangene oder in dem Speicher 160 gespeicherte Audiodaten ausgeben. Das Audioausgabemodul 152 kann Audiosignale, die sich auf in dem mobilen Endgerät 100 ausgeführte Funktionen beziehen, wie etwa einen Rufsignaleingangston und einen Nachrichteneingangston ausgeben. Das Audioausgabemodul 152 kann einen Empfänger, einen Lautsprecher, einen Summer und/oder dergleichen enthalten. Das Audioausgabemodul 152 kann über eine Ohrhörerbuchse Klänge ausgeben. Der Nutzer kann die Klänge durch Verbinden eines Ohrhörers mit der Ohrhörerbuchse hören.
  • Die Alarmeinrichtung 153 kann ein Signal ausgeben, um die Erzeugung eines Ereignisses des mobilen Endgeräts 100 anzugeben. Zum Beispiel kann ein Alarm erzeugt werden, wenn ein Rufsignal empfangen wird, wenn eine Nachricht empfangen wird, wenn ein Tastensignal eingegeben wird und/oder wenn eine Berührung eingegeben wird. Außerdem kann die Alarmeinrichtung 153 Signale in anderen Formen als Videosignale oder Audiosignale, z. B. ein Signal, um durch Vibration die Erzeugung eines Ereignisses anzugeben, ausgeben. Die Videosignale und/oder die Audiosignale können außerdem über die Anzeige 151 oder über das Audioausgabemodul 152 ausgegeben werden.
  • Das Haptikmodul 154 kann verschiedene Haptikeffekte erzeugen, die der Nutzer fühlen kann. Ein Beispiel der Haptikeffekte ist die Vibration. Eine Stärke und/oder ein Muster der durch das Haptikmodul 154 erzeugten Vibration kann ebenfalls gesteuert werden. Zum Beispiel können verschiedene Vibrationen kombiniert und ausgegeben werden oder nacheinander ausgegeben werden.
  • Das Haptikmodul 154 kann eine Vielzahl von Haptikeffekten, einschließlich eines Effekts eines Stimulus in Übereinstimmung mit einer Anordnung von Stiften, die sich vertikal gegen eine Hautkontaktoberfläche bewegen, eines Effekts eines Stimulus in Übereinstimmung mit einer Strahlkraft oder Saugkraft von Luft durch ein Strahlloch oder durch ein Saugloch, eines Effekts eines Stimulus des Reibens der Haut, eines Effekts eines Stimulus in Übereinstimmung mit einem Kontakt einer Elektrode, eines Effekts eines Stimulus unter Verwendung einer elektrostatischen Kraft und eines Effekts in Übereinstimmung mit einer Wiedergabe von Kälte und Wärme unter Verwendung eines Elements, das außer Schwingungen Wärme absorbieren oder ausstrahlen kann, erzeugen.
  • Das Haptikmodul 154 kann nicht nur Haptikeffekte durch direkten Kontakt senden, sondern kann auch ermöglichen, dass der Nutzer Haptikeffekte durch eine kinästhetische Erfassung der Finger oder Arme des Nutzers fühlt. Außerdem kann das mobile Endgerät 100 mehrere Haptikmodule 154 enthalten.
  • Der Speicher 160 kann ein Programm für Operationen des Controllers 180 speichern und/oder kann Eingabe/Ausgabe-Daten wie etwa ein Telephonbuch, Nachrichten, Standbilder und/oder Bewegtbilder vorübergehend speichern. Außerdem kann der Speicher 160 Daten über Vibrationen und Klänge in verschiedenen Muster, die ausgegeben werden, wenn eine Berührungseingabe auf den Berührungsbildschirm angewendet wird, speichern.
  • Der Speicher 160 kann einen Flash-Speicher und/oder einen Speicher vom Festplattentyp und/oder einen Speicher vom Multimediakarten-Mikro-Typ und/oder einen Speicher vom Kartentyp wie etwa einen SD- oder XD-Speicher und/oder einen Schreib-Lese-Speicher (RAM) und/oder einen statischen RAM (SRAM) und/oder einen Nur-Lese-Speicher (ROM) und/oder einen elektrisch löschbaren programmierbaren ROM (EEPROM) und/oder einen programmierbaren ROM-Magnetspeicher (PROM-Magnetspeicher) und/oder eine Magnetplatte und/oder eine optische Platte enthalten. Außerdem kann das mobile Endgerät 100 mit einer Web-Ablage, die eine Speicherfunktion des Speichers 160 im Internet ausführt, zusammenarbeiten.
  • Die Schnittstelle 170 kann als ein Weg zu externen Vorrichtungen dienen, die mit dem mobilen Endgerät 100 verbunden sind. Die Schnittstelle 170 kann Daten von den externen Vorrichtungen oder Leistung empfangen und kann die Daten oder Leistung an interne Komponenten des mobilen Endgeräts 100 senden oder Daten des mobilen Endgeräts 100 an die externen Vorrichtungen senden. Zum Beispiel kann die Schnittstelle 170 einen verdrahteten/drahtlosen Headset-Anschluss, einen Anschluss eines externen Ladegeräts, einen verdrahteten/drahtlosen Datenanschluss, einen Speicherkartenanschluss, einen Anschluss zum Verbinden einer Vorrichtung mit einem Nutzeridentifizierungsmodul, einen Audio-E/A-Anschluss, einen Video-E/A-Anschluss und/oder einen Ohrhöreranschluss enthalten.
  • Außerdem kann die Schnittstelle 170 mit einem Nutzeridentifizierungsmodul verbinden, das ein Chip ist, der Informationen zur Authentisierung der Berechtigung zur Verwendung des mobilen Endgeräts 100 speichert. Das Nutzeridentifizierungsmodul kann z. B. ein Nutzeridentitätsmodul (UIM), ein Teilnehmerkennungsmodul (SIM) und/oder ein universelles Teilnehmerkennungsmodul (USIM) sein. Eine Identifizierungsvorrichtung (einschließlich des Nutzeridentifizierungsmoduls) kann ebenfalls in Form einer Chipkarte hergestellt sein. Dementsprechend kann die Identifizierungsvorrichtung über einen Anschluss der Schnittstelle 170 mit dem mobilen Endgerät 100 verbunden werden.
  • Außerdem kann die Schnittstelle 170 ein Weg sein, über den Leistung von einer externen Docking-Station für das mobile Endgerät 100 bereitgestellt wird, wenn das mobile Endgerät 100 mit der externen Docking-Station verbunden ist, oder ein Weg sein, über den verschiedene durch den Nutzer über die Docking-Station eingegebene Befehlssignale an das mobile Endgerät 100 gesendet werden. Die verschiedenen Befehlssignale oder die Leistungseingabe von der Docking-Station können als Signale verwendet werden, um zu bestätigen, ob das mobile Endgerät 100 ordnungsgemäß in die Docking-Station eingesetzt ist.
  • Der Controller 180 kann den Gesamtbetrieb des mobilen Endgeräts 100 steuern. Zum Beispiel kann der Controller 180 die Steuerung und Verarbeitung für die Sprachkommunikation, für die Datenkommunikation und/oder für die Videotelephonie ausführen. Außerdem kann der Controller 180 ein Multimediamodul 181 zum Abspielen von Multimedia enthalten. Das Multimediamodul 181 kann in dem Controller 180 enthalten sein oder kann getrennt von dem Controller 180 sein.
  • Der Controller 180 kann einen Mustererkennungsprozess ausführen, der eine als Zeichen oder Bilder auf den Berührungsbildschirm angewendete Handschrifteingabe oder Bildzeicheneingabe erkennen kann. Die Leistungsversorgung 190 kann externe Leistung und interne Leistung empfangen und Leistung bereitstellen, die für Operationen der Komponenten des mobilen Endgeräts 100 gemäß der Steuerung des Controllers 180 erforderlich ist.
  • In Übereinstimmung mit der Hardwareimplementierung können Ausführungsformen unter Verwendung von anwendungsspezifischen integrierten Schaltungen (ASICs) und/oder von digitalen Signalprozessoren (DSPs) und/oder von digitalen Signalverarbeitungsvorrichtungen (DSPDs) und/oder von programmierbaren Logikvorrichtungen (PLDs) und/oder von frei programmierbaren logischen Anordnungen (FPGAs) und/oder von Prozessoren und/oder von Controller und/oder von Mikrocontrollern und/oder von Mikroprozessoren und/oder von elektrischen Einheiten zur Ausführung von Funktionen implementiert werden. Ausführungsformen können durch den Controller 180 implementiert werden.
  • In Übereinstimmung mit einer Softwareimplementierung können Ausführungsformen wie etwa Prozeduren oder Funktionen mit einem getrennten Softwaremodul implementiert werden, das wenigstens eine Funktion oder Operation ausführt. Softwarecodes können in Übereinstimmung mit einer Softwareanwendung implementiert werden, die in einer geeigneten Softwaresprache geschrieben ist. Die Softwarecodes können in dem Speicher 160 gespeichert sein und durch den Controller 180 ausgeführt werden.
  • 2 ist eine perspektivische Vorderansicht eines mobilen Endgeräts (oder eines Handendgeräts) in Übereinstimmung mit einer Ausführungsform.
  • Das mobile Endgerät 100 kann ein Endgerätkörper vom Stabtyp sein. Allerdings sind Ausführungsformen nicht auf ein Endgerät vom Stabtyp beschränkt und können sie auf Endgeräte verschiedener Typen einschließlich Endgeräten vom Schiebetyp, vom Klapptyp, vom Schwingtyp und/oder vom Schwenktyp, die wenigstens zwei Körper aufweisen, die relativ beweglich kombiniert sind, angewendet werden.
  • Der Endgerätkörper kann ein Gehäuse (eine Hülle, ein Außenteil, eine Einhausung usw.) enthalten, das ein Äußeres des mobilen Endgeräts 100 bildet. In dieser Ausführungsform kann das Gehäuse in ein vorderes Gehäuse 101 und in ein hinteres Gehäuse 102 geteilt sein. In dem zwischen dem vorderen Gehäuse 101 und dem hinteren Gehäuse 102 gebildeten Raum können verschiedene elektronische Komponenten angeordnet sein. Zusätzlich kann zwischen dem vorderen Gehäuse 101 und dem hinteren Gehäuse 102 wenigstens ein mittleres Gehäuse vorgesehen sein.
  • Die Gehäuse können aus Kunststoff durch Spritzguss gebildet sein oder können aus einem Metallmaterial wie etwa aus rostfreiem Stahl (STS) oder aus Titan (Ti) hergestellt sein.
  • Die Anzeige 151, die Audioausgabeeinheit 152, die Kamera 121, die Nutzereingabeeinheit 130/131 und 132, das Mikrofon 122 und die Schnittstelle 170 können in dem Endgerätkörper angeordnet (oder vorgesehen) sein und können genauer in dem vorderen Gehäuse 101 angeordnet (oder vorgesehen) sein.
  • Die Anzeige 151 kann den größten Teil der Hauptfläche des vorderen Gehäuses 101 einnehmen. Die Audioausgabeeinheit 152 und die Kamera 121 können in einem Gebiet in der Nähe eines von beiden Enden der Anzeige 151 und der Nutzereingabeeinheit 131 angeordnet sein und das Mikrofon 122 kann sich in einem Gebiet in der Nähe des anderen Endes der Anzeige 151 befinden. Die Nutzereingabeeinheit 132 und die Schnittstelle 170 können auf den Seiten des vorderen Gehäuses 101 und des hinteren Gehäuses 102 angeordnet (oder vorgesehen) sein.
  • Die Nutzereingabeeinheit 130 kann Befehle zum Steuern des Betriebs des mobilen Endgeräts 100 empfangen und kann mehrere Bedieneinheiten 131 und 132 enthalten. Die Bedieneinheiten 131 und 132 können als Manipulationsabschnitte bezeichnet werden und können irgendeine Tastart, in der ein Nutzer die Bedieneinheiten 131 und 132 bedient, während er ein Tastgefühl besitzt, nutzen.
  • Die erste und die zweite Bedieneinheit 131 und 132 können verschiedene Eingaben empfangen. Zum Beispiel kann die erste Bedieneinheit 131 Befehle wie etwa Start, Ende und Scrollen empfangen und kann die zweite Bedieneinheit 132 Befehle wie etwa Steuern einer Lautstärke des von der Audioausgabeeinheit 152 ausgegebenen Klangs oder Umwandlung der Anzeige 151 in eine Berührungserkennungsbetriebsart empfangen.
  • 3 ist eine perspektivische Rückansicht des (in 2 gezeigten) mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform.
  • Anhand von 3 kann auf der Rückseite des Endgerätkörpers (d. h. auf dem hinteren Gehäuse 102) zusätzlich eine Kamera 121' angebracht sein. Die Kamera 121' kann eine Photographierrichtung aufweisen, die zu der der (in 2 gezeigten) Kamera 121 entgegengesetzt ist, und kann andere Pixel als die (in 2 gezeigte) Kamera 121 aufweisen.
  • Zum Beispiel kann es erwünscht sein, dass die Kamera 121 wenige Pixel aufweist, so dass die Kamera 121 ein Bild eines Gesichts eines Nutzers erfassen kann und das Bild im Fall der Videotelephonie an ein Empfangsteil senden kann, während die Kamera 121' viele Pixel aufweist, da die Kamera 121' ein Bild eines allgemeinen Gegenstands erfasst und das Bild in vielen Fällen nicht unmittelbar sendet. Die Kameras 121 und 121' können in der Weise an dem Endgerätkörper angebracht (oder vorgesehen) sein, dass sich die Kameras 121 und 121' drehen können oder dass sie heraustreten können.
  • Zusätzlich können in der Nähe der Kamera 121' ein Blitzlicht 123 und ein Spiegel 124 vorgesehen sein. Das Blitzlicht 123 kann einen Gegenstand beleuchten, wenn die Kamera 121' ein Bild des Gegenstands aufnimmt. Der Spiegel 124 kann verwendet werden, damit der Nutzer sein Gesicht in dem Spiegel sieht, wenn sich der Nutzer unter Verwendung der Kamera 121' selbst photographieren möchte.
  • Zusätzlich kann auf der Rückseite des Endgerätkörpers eine Audioausgabeeinheit 152' vorgesehen sein. Die Audioausgabeeinheit 152' kann mit der (in 2 gezeigten) Audioausgabeeinheit 152 eine Stereofunktion erzielen und kann für eine Lautsprechertelephonbetriebsart verwendet werden, wenn das Endgerät für einen Telephonanruf verwendet wird.
  • Außer einer Antenne für Telephonanrufe kann an der Seite des Endgerätkörpers eine Rundfunksignalempfangsantenne angebracht (oder vorgesehen) sein. Die Antenne, die einen Teil des (in 1 gezeigten) Rundfunkempfangsmoduls 111 konstruiert, kann in dem Endgerätkörper in der Weise eingestellt sein, dass die Antenne aus dem Endgerätkörper herausgezogen werden kann.
  • In den Endgerätkörper kann die Leistungsversorgung 190 zum Bereitstellen von Leistung für das mobile Endgerät 100 eingesetzt sein. Die Leistungsversorgung 190 kann in dem Endgerätkörper enthalten sein oder kann an den Endgerätkörper lösbar angeschlossen sein.
  • An dem hinteren Gehäuse 102 kann ein Touchpad 135 zum Erfassen einer Berührung angebracht sein. Das Touchpad 135 kann wie etwa die Anzeige 151 von einem lichtdurchlässigen Typ sein. In diesem Beispiel können die visuellen Informationen durch das Touchpad 135 erkannt (oder bestimmt) werden, falls die Anzeige 151 über ihre beiden Seiten visuelle Informationen ausgibt. Die Informationsausgabe über beide Seiten der Anzeige 151 kann durch das Touchpad 135 gesteuert werden. Andernfalls kann zusätzlich eine Anzeige an dem Touchpad 135 angebracht (oder vorgesehen) sein, so dass sogar in dem hinteren Gehäuse 102 ein Berührungsbildschirm angeordnet (oder vorgesehen) sein kann.
  • Das Touchpad 135 kann mit der Anzeige 151 des vorderen Gehäuses 101 zusammenarbeiten. Das Touchpad 135 kann hinter der Anzeige 151 parallel zu der Anzeige 151 gelegen sein. Das Touchpad 135 kann dieselbe oder eine kleinere Größe als die Anzeige 151 aufweisen.
  • 4 ist eine perspektivische Vorderansicht eines mobilen Endgeräts in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung.
  • Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung in der Weise konfiguriert sein, dass die Anzeige 151 eine größere Fläche als eine herkömmliche aufweist. Der Nutzer kann das mobile Endgerät 100 manipulieren, während er es hält.
  • Die Anzeige 151 kann ein Berührungsbildschirm sein. Das heißt, das mobile Endgerät 100 kann durch Berühren der Anzeige 151 manipuliert werden.
  • Der Nutzer kann das mobile Endgerät 100 manipulieren, während er es hält. Zum Beispiel kann der Nutzer eine Operation des Berührens eines spezifischen Abschnitts der Anzeige 151 mit der rechten Hand (nicht gezeigt), während er einen Frontrahmenabschnitt (BD-Abschnitt) mit der linken Hand (LH) hält, ausführen.
  • Für eine Berührungsoperation kann tatsächlich nur der erste Finger F1 der linken Hand LH, die das mobile Endgerät 100 hält, verwendet werden. Das heißt, der erste Finger F1, d. h. der Daumen, kann dazu verwendet werden, die Anzeige 151 zu berühren, während das mobile Endgerät 100 in den vier Fingern der linken Hand LH gehalten ist.
  • Beim Berühren der Anzeige 151 mit dem ersten Finger F1 kann die Berührungsreichweite des ersten Fingers F1 beschränkt sein. Das heißt, sofern nicht die Hand, die das mobile Endgerät 100 hält, gewechselt wird, ist eine Berührungsoperation unter Verwendung des ersten Fingers F1, wenn das mobile Endgerät 100 in der linken Hand LH gehalten ist, beschränkt. Zum Beispiel kann eine Berührungsoperation unter Verwendung des ersten Fingers F1 nur innerhalb des Radius des ersten Fingers F1 ausgeführt werden. In Übereinstimmung mit dem mobilen Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist es möglich, das mobile Endgerät 100 selbst dann effizient zu verwenden, wenn der Bereich der Anzeige 151 größer als der Radius eines spezifischen Fingers der Hand ist, die das mobile Endgerät 100 hält.
  • 5 ist ein Ablaufplan, der einen Betätigungsprozess des mobilen Endgeräts aus 1 zeigt.
  • Wie darin gezeigt ist, kann der Controller 180 des mobilen Endgeräts in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung den Schritt S10 des Erfassens einer Berührungsaktion ausführen.
  • Die Berührungsaktion bezieht sich darauf, dass der Benutzer Berührungen auf der Anzeige 151 einschließlich einer Berührung nach unten, einer Berührung nach oben, eines Berührens und Ziehens usw. ausführt. Ferner kann die Berührungsaktion eine kontaktlose Berührung auf der Anzeige 151 enthalten. Zum Beispiel kann ein entsprechendes Berührungssignal erzeugt werden, wenn der Nutzer einen eine vorgegebene Entfernung von der Anzeige 151 beabstandeten Finger bewegt.
  • Es kann der Schritt s20 des Bestimmens der Position und der Spur einer Berührungsaktion ausgeführt werden.
  • Wenn eine Berührungsaktion ausgeführt wird, kann der Controller 180 die Position und die Spur der Berührungsaktion bestimmen. Zum Beispiel können die Positionen und die Spur einer Berührungsaktion anhand dessen bestimmt werden, an welcher Position eine Berührung nach oben stattfindet, ob es während einer Berührung nach oben eine Änderung des Berührungspunkts nach einer Berührung nach unten gibt usw.
  • Es kann der Schritt S30 des Bestimmens, ob eine einhändige Berührung an einem Randbereich stattgefunden hat, auf der Grundlage der bestimmten Position und Spur der Berührungsaktion ausgeführt werden.
  • Der Randbereich kann ein von dem Mittelbereich der Anzeige 151 verschiedener Abschnitt sein. Das heißt, der Randbereich kann ein Bereich sein, der den vier Rändern der Anzeige 151 mit einer im Wesentlichen rechteckigen Form näher ist.
  • Falls die Position und die Spur der Berührungsaktion eine spezifische Berührung an einem Randbereich der Anzeige 151 umfassen, kann der Controller 180 bestimmen, dass eine einhändige Berührungsaktion stattgefunden hat. Das heißt, der Controller 180 kann bestimmen, dass eine Berührungsaktion mit einem Finger der Hand, die das mobile Endgerät 100 hält, ausgeführt worden ist. Zum Beispiel wird betrachtet, dass eine einhändige Berührungsaktion stattgefunden hat, falls die Position der Berührungsaktion ein Randbereich ist und falls die Trajektorie der Berührungsaktion die Form eines Bogens annimmt, der dem Radius des Fingers innerhalb des Randbereichs entspricht.
  • Wenn eine einhändige Berührungsaktion ausgeführt wird, kann der Schritt s40 des Anzeigens eines einer laufenden Anwendung zugeordneten Steuerfensters ausgeführt werden.
  • Wenn eine einhändige Berührungsaktion ausgeführt wird, kann der Controller 180 eine für die einhändige Berührungsaktion optimierte Operation ausführen. Das heißt, der Controller 180 kann eine Nutzerschnittstellenumgebung bereitstellen, bei der die Anzeige 151 mit einer großen Fläche im Vergleich zu der Länge der Finger, die das mobile Endgerät 100 halten, ordnungsgemäß berührt werden kann. Da die Anzeige 151 mit den Fingern, die das mobile Endgerät 100 halten, manipuliert werden kann, kann das mobile Endgerät 100 zweckmäßig verwendet werden.
  • 6 und 7 sind Ansichten, die eine Berührungsaktion auf dem mobilen Endgerät aus 1 zeigen.
  • Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung durch eine Berührungsaktion des Nutzers manipuliert werden.
  • Wie in 6 gezeigt ist, kann der Nutzer das mobile Endgerät 100 manipulieren, während er es mit beiden Händen hält. Das heißt, das mobile Endgerät kann in der linken Hand LH gehalten sein und mit der rechten Hand RH kann eine Operation des Berührens der Anzeige 151 ausgeführt werden. An diesem Punkt weist die Anzeige 151 eine Breite auf, die größer als die Kontaktreichweite eines Fingers ist. Zum Beispiel muss der Nutzer die Hand selbst bewegen, anstatt den Finger an der aktuellen Position zu spreizen, um einen Gegenstand, der auf der linken oberen Seite angezeigt ist, oder einen Gegenstand, der auf der rechten oberen Seite angezeigt ist, auszuwählen.
  • Die linke Hand LH hält das mobile Endgerät 100. Dementsprechend gibt eine Berührungsaktion unter Verwendung der linken Hand LH an, dass eine Manipulation bei der aktuellen Position nur unter Verwendung des ersten Fingers F1, d. h. des Daumens, ausgeführt werden kann. Dementsprechend kann es unter Verwendung des ersten Fingers F1 nicht leicht sein, den Gegenstand auf der rechten oberen Seite der Anzeige 151 auszuwählen. Das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung kann unter Verwendung der Hand, die das mobile Endgerät 100 hält, ordnungsgemäß manipuliert werden.
  • Wie in 7 gezeigt ist, kann der Nutzer eine Berührungsaktion y unter Verwendung des ersten Fingers F1 der linken Hand LH, die das mobile Endgerät 100 hält, ausführen. Die Berührungsaktion kann eine Berührungstrajektorie TR bilden. Im Folgenden kann eine durch eine Berührungsaktion des Nutzers erzeugte Berührungstrajektorie TR dargestellt sein. Allerdings wird die Berührungstrajektorie TR nicht tatsächlich auf der Anzeige 151 angezeigt, sondern ist die Berührungstrajektorie TR eine Angabe, entlang deren eine Berührungsaktion stattfindet, um beim deutlichen Verständnis zu helfen.
  • Die Berührungstrajektorie TR kann nahe der Position der linken Hand LH sein, die das mobile Endgerät 100 hält. Das heißt, die Berührungstrajektorie TR kann innerhalb von Bereichen weiter zu einer Seite von dem Mittelbereich der Anzeige 151 wie zu dem linken unteren, dem rechten unteren, dem linken oberen und dem rechten oberen Bereich der Anzeige 151 positioniert sein.
  • Die Berührungstrajektorie TR kann in einer vertikalen oder in einer horizontalen Richtung lang sein. Dies kann deutlich verstanden werden, wenn die Bewegungsreichweite des ersten Fingers der linken Hand LH, die das mobile Endgerät 100 hält, betrachtet wird. Das heißt, durch Bewegen des ersten Fingers FA, wobei eine der beiden Querseiten des mobilen Endgeräts in der linken Hand LH gehalten ist, kann eine Berührungstrajektorie TR erzeugt werden, die in einer vertikalen Richtung lang ist, und durch Bewegen des ersten Fingers F1 mit der Ober- oder mit der Unterseite des mobilen Endgeräts in der linken Hand LH kann eine Berührungstrajektorie TR erzeugt werden, die in einer horizontalen Richtung lang ist.
  • Die Berührungstrajektorie TR kann die Form eines Bogens aufweisen. Das heißt, die Berührungstrajektorie TR braucht nicht linear zu sein. Außerdem heißt das, dass die Berührungstrajektorie TR zu der Mittelrichtung der Anzeige 151 gekrümmt sein kann. Dies kann deutlich verstanden werden, wenn betrachtet wird, dass sich der erste Finger F1 zentriert an der linken Hand LH, die das mobile Endgerät 100 hält, bewegt.
  • Falls die Berührungstrajektorie TR in der Breite oder Länge lang ist und die Form eines Bogens aufweist, kann der Controller 180 bestimmen, dass das mobile Endgerät 100 mit einem Finger der Hand berührt wird, die das mobile Endgerät 100 hält. Außerdem kann der Controller 180 auf der Grundlage der Position oder der Spur der Berührungstrajektorie TR bestimmen, wie weit der Finger reichen kann.
  • 8 und 9 sind Ansichten, die Bereiche des mobilen Endgeräts aus 1 zeigen.
  • Wie darin gezeigt ist, kann die Anzeige 151 des mobilen Endgeräts 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung in mehrere virtuelle Bereiche aufgeteilt werden.
  • Wie in 8 gezeigt ist, kann die Anzeige 151 in einen Mittelbereich CA und in Randbereiche EA1 bis EA4 um den Mittelbereich CA aufgeteilt werden.
  • Der Mittelbereich CA kann ein Bereich sein, der einen gedachten Mittelpunkt der Anzeige 151 enthält.
  • Die Randbereiche EA1 bis EA4 können Bereiche entlang des Außenumfangs des Mittelbereichs CA sein. Jeder der Randbereiche EA1 bis EA4 kann ein Bereich sein, der jeden der Ränder der Anzeige 151 enthält.
  • Der Controller 180 kann den Mittelbereich CA und die Randbereiche EA1 bis EA4 unterscheiden. Nachdem sie der Controller 180 unterschieden hat, kann er beim Empfang einer Berührungsaktionseingabe auf der Grundlage der Position und/oder der Spur der Berührungsaktion bestimmen, in welchem Bereich eine Berührung stattfindet.
  • Wie in 9 gezeigt ist, kann die Reichweite des Mittelbereichs CA geändert werden. Das heißt, die Reichweite des Mittelbereichs CA kann so eingestellt werden, dass er, wie in 8 gezeigt ist, eine rechteckige Form aufweist, oder wie in 9 gezeigt ist, eine runde Form aufweist.
  • 10 bis 13 sind Ansichten, die eine Berührungsaktion auf dem mobilen Endgerät aus 1 zeigen.
  • Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung in Ansprechen auf eine Berührungsaktion unter Verwendung einer Hand eine Operation ausführen.
  • Wie in (a) aus 10 gezeigt ist, kann der Nutzer den ersten Randbereich EA1 der Anzeige 151 mit dem ersten Finger F1 der linken Hand LH berühren. Der erste Finger F1 kann der Daumen der linken Hand LH sein.
  • Wie in (b) aus 10 gezeigt ist, kann der Nutzer den zweiten Randbereich EA2 der Anzeige 151 mit dem zweiten Finger F2 der rechten Hand RH berühren. Der zweite Finger F2 kann der Daumen der rechten Hand RH sein.
  • Wenn das mobile Endgerät 100 in der linken Hand LH gehalten ist, wird üblicherweise der erste Randbereich EA1 berührt, und wenn das mobile Endgerät 100 in der rechten Hand RH gehalten ist, kann üblicherweise der zweite Randbereich EA2 berührt werden. Somit kann der Controller 180 auf der Grundlage eines berührten Bereichs bestimmen, in welcher Hand das mobile Endgerät 100 aktuell gehalten ist und/oder ob der Nutzer Rechtshänder oder Linkshänder ist.
  • Wie in 11 gezeigt ist, kann der Nutzer das mobile Endgerät 100 mit der linken Hand LH berühren. Zum Beispiel kann eine Berührungstrajektorie TR des ersten Fingers F1 der linken Hand LH innerhalb des ersten Randbereichs EA1 gebildet werden.
  • Wie in (a) aus 12 gezeigt ist, kann die Berührungstrajektorie TR in einer vertikalen Richtung lang sein. Zum Beispiel kann eine Berührungsaktion mit einem Finger der Hand ausgeführt werden, die eine Querseite des mobilen Endgeräts 100 hält.
  • Wenn eine Berührungstrajektorie TR eingegeben wird, die in einer vertikalen Richtung lang ist, kann der Controller 180 eine Berührungsreichweite TA einstellen, innerhalb deren der Nutzer mit einer Hand berühren kann. Zum Beispiel kann die Berührungsreichweite TA eine Reichweite innerhalb der Eingabeberührungstrajektorie TR oder eine vorgegebene Reichweite, die die Eingabeberührungstrajektorie TR enthält, sein.
  • Wie in (b) aus 12 gezeigt ist, kann die Berührungstrajektorie TR in einer horizontalen Richtung lang sein. Zum Beispiel kann eine Berührungsaktion mit einem Finger der Hand ausgeführt werden, die eine untere Oberfläche des mobilen Endgeräts 100 hält.
  • Wenn eine Berührungstrajektorie TR eingegeben wird, die in einer horizontalen Richtung lang ist, kann der Controller 180 eine Berührungsreichweite TA einstellen, innerhalb der der Nutzer mit einer Hand berühren kann, und bestimmen, dass der Nutzer innerhalb der Berührungsreichweite TA mit einer Hand berühren kann.
  • Wie in (a) und (b) aus 13 gezeigt ist, kann die Berührungstrajektorie TR einer Berührungsaktion entsprechen, die in Uhrzeigerrichtung oder entgegen der Uhrzeigerrichtung ausgeführt wird. Der Controller 180 kann in Abhängigkeit von der Richtung der Berührungstrajektorie TR unterschiedliche Steueroperationen ausführen. Zum Beispiel kann ein Steuerfenster angezeigt werden, wenn eine Berührungstrajektorie TR in Uhrzeigerrichtung eingegeben wird, und kann das angezeigte Steuerfenster verschwinden, wenn eine Berührungstrajektorie TR entgegen der Uhrzeigerrichtung eingegeben wird.
  • 14 bis 16 sind Ansichten, die ein Steuerfenster zeigen, das durch eine Berührungsaktion auf dem mobilen Endgerät aus 1 angezeigt wird.
  • Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung in Ansprechen auf eine Berührungsaktion des Nutzers wahlweise ein Steuerfenster W anzeigen.
  • Wie in (a) aus 14 gezeigt ist, kann durch eine Berührungsaktion des Nutzers eine Berührungstrajektorie TR eingegeben werden, die in Uhrzeigerrichtung verläuft und eine Bogenform aufweist.
  • Wie in (b) aus 14 gezeigt ist, kann das Steuerfenster 180 ein entsprechendes Steuerfenster W anzeigen, wenn eine Berührungsaktion des Nutzers eingegeben wird.
  • Die Größe des Steuerfensters W kann entsprechend der Berührungsaktion bestimmt werden. Zum Beispiel können die horizontale Länge D1 und/oder die vertikale Länge D2 des Steuerfensters W auf der Grundlage der in Abhängigkeit von der Berührungstrajektorie TR bestimmten Berührungsreichweite (TA aus 12) bestimmt werden.
  • Der Inhalt, der auf der Anzeige 151 angezeigt worden ist, bevor das Steuerfenster W angezeigt wird, kann in dem Steuerfenster W angezeigt werden. Das heißt, die Größe des aktuellen Bildschirms kann eingeschränkt werden und er kann in dem Steuerfenster W angezeigt werden. Der Nutzer kann seine Hand bewegen und nicht das Objekt C an dem rechten oberen Ende der Anzeige 151, sondern stattdessen das in dem Steuerfenster W angezeigte Objekt C auswählen und die dem Objekt C entsprechende Operation ausführen.
  • Wie in (a) aus 15 gezeigt ist, kann der Nutzer jedes Objekt in dem Steuerfenster W mit dem ersten Finger F1 berühren. Das heißt, der Nutzer kann das mobile Endgerät 100 mit dem ersten Finger F1 ordnungsgemäß steuern, während er die linke Hand, die das mobile Endgerät 100 hält, an ihrer Stelle hält.
  • Wie in (b) aus 15 gezeigt ist, kann der Nutzer jedes Objekt in dem Steuerfenster W durch Bewegen des ersten Fingers F1 auswählen, da das Steuerfenster W unter Berücksichtigung der Bewegungsreichweite des ersten Fingers F1 angezeigt wird.
  • Wie in (a) aus 16 gezeigt ist, kann der Nutzer mit dem ersten Finger F1 eine Berührungsaktion entgegen der Uhrzeigerrichtung ausführen.
  • Wie in (b) aus 16 gezeigt ist, kann die Anzeige des Steuerfensters W abgebrochen werden, wenn der Nutzer eine Berührungsaktion entgegen der Uhrzeigerrichtung ausführt. Außerdem kann das Steuerfenster W mit einer Anzeigeabbruchschaltfläche (nicht gezeigt) versehen sein, um zu veranlassen, dass die Anzeige des Steuerfensters W verschwindet.
  • 17 ist eine Ansicht, die eine Änderung der Position des Steuerfensters in Ansprechen auf eine Berührungsaktion auf dem mobilen Endgerät aus 1 zeigt.
  • Wie darin gezeigt ist, kann der Controller 180 des mobilen Endgeräts 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung die Position des angezeigten Steuerfensters W in Übereinstimmung mit einer Auswahl des Nutzers ändern.
  • Wie in (a) aus 17 gezeigt ist, kann das Steuerfenster W an einem linken unteren Rand der Anzeige 151 positioniert sein. Zum Beispiel kann das Steuerfenster W an der angezeigten Position angezeigt werden, falls der Nutzer eine Berührungsaktion ausführt, während er eine Querseite des mobilen Endgeräts 100 hält. Mit dem angezeigten Steuerfenster W kann der Nutzer auf der Anzeige 151 eine Ziehberührungsaktion DT von links nach rechts ausführen.
  • Wie in (b) aus 17 gezeigt ist, kann der Controller 180 die Position des Steuerfensters W ändern und es in Ansprechen auf die Ziehberührungsaktion anzeigen, wenn eine Ziehberührungsaktion DT des Nutzers eingegeben wird. Die Position des Steuerfensters W kann in Ansprechen auf die Ziehberührungsaktion DT des Nutzers geändert werden. Zum Beispiel kann das Steuerfenster W an einer Oberseite der Anzeige 151 angezeigt werden, falls die Zieh- und Berührungsaktion DT nach oben ausgeführt wird, und kann das Steuerfenster W auf einer Diagonalen der Anzeige 151 angezeigt werden, falls die Zieh- und Berührungsaktion DT in einer diagonalen Richtung ausgeführt wird.
  • 18 bis 21 sind Ansichten, die ein Verfahren zum Manipulieren des Steuerfensters des mobilen Endgeräts aus 1 zeigen.
  • Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung den Inhalt und/oder die Anwendung, der bzw. die auf der Anzeige 151 angezeigt wird, durch Manipulieren des Steuerfensters W manipulieren.
  • Wie in (a) aus 18 gezeigt ist, kann auf der Anzeige 151 eine Webseite angezeigt sein. Zum besseren Verständnis wird die folgende Beschreibung eines Beispiels gegeben, in dem Webseiteninhalt auf der Anzeige 151 angezeigt wird. Es ist festzustellen, dass das mobile Endgerät 100 in Übereinstimmung mit der vorliegenden Erfindung nicht nur auf den Webseiteninhalt anwendbar ist.
  • Wie in (b) aus 18 gezeigt ist, kann das Steuerfenster W auf der Grundlage einer Berührungsaktion des Nutzers angezeigt werden. Das Steuerfenster W kann eine eingeschränkte Version der auf der Anzeige 151 angezeigten Webseite sein.
  • Wie in (a) aus 19 gezeigt ist, kann der Nutzer mit dem ersten Finger F1 ein spezifisches Objekt des Steuerfensters W auswählen. Das ausgewählte Objekt kann einer spezifischen Position auf dem auf der Anzeige 151 angezeigten Webseiteninhalt entsprechen. Zum Beispiel heißt dies, dass das Objekt C1 ausgewählt wird, falls ein spezifischer Punkt in dem Steuerfenster W dem Objekt C1 entspricht. Falls für das ausgewählte Objekt C1 eine Verknüpfung eingestellt ist, kann der Bildschirm entsprechend der Verknüpfung geändert werden.
  • Wie in (b) aus 19 gezeigt ist, kann der Nutzer innerhalb des Steuerfensters W mit dem ersten Finger F1 eine Berührungsaktion UT nach oben ausführen. Wenn die Berührungsaktion UT nach oben ausgeführt wird, kann der Controller 180 den angezeigten Webseiteninhalt ändern und ihn entsprechend der Berührungsaktion UT nach oben anzeigen.
  • Wie in 20 gezeigt ist, können in dem Steuerfenster W wahlweise nur Objekte angezeigt werden, die aus dem auf der Anzeige 151 angezeigten Webseiteninhalt ausgewählt werden können. Zum Beispiel können in dem Steuerfenster W entsprechende Vorschaubildobjekte TC1 bis TC5 angezeigt werden, falls auf der Webseite wählbare Objekte C1 bis C5 vorhanden sind. Dadurch, dass anstelle des gesamten Webseiteninhalts wahlweise wählbare Vorschaubildobjekte angezeigt werden, erleichtert dies, in dem Steuerfenster W angezeigte Objekte zu identifizieren und/oder auszuwählen.
  • Wie in 21 gezeigt ist, kann in dem Steuerfenster W der gesamte Webseiteninhalt einschließlich sowohl des auf der Anzeige 151 angezeigten Abschnitts als auch des darauf nicht angezeigten Abschnitts angezeigt werden. Das heißt, obwohl wegen der beschränkten Größe der Anzeige 151 auf der Anzeige 151 nicht der gesamte Webseiteninhalt angezeigt wird, kann in dem Steuerfenster W der gesamte Webseiteninhalt einschließlich des nicht angezeigten Abschnitts angezeigt werden. Dementsprechend kann der Nutzer leicht ermitteln, wie der aktuell angezeigte Bereich oder die aktuell angezeigte Position in dem gesamten Webseiteninhalt aussieht.
  • 22 ist eine Ansicht, die ein Verfahren zum Manipulieren eines Telephonbuchs des mobilen Endgeräts aus 1 zeigt.
  • Wie darin gezeigt ist, kann der Controller 180 des mobilen Endgeräts 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung das Steuerfenster W in der Weise anzeigen, dass angezeigte Informationen schneller und effizienter gesucht werden.
  • Wie in (a) aus 22 gezeigt ist, kann auf der Anzeige 151 eine Kontaktliste angezeigt werden, die ein Informationstyp ist.
  • Wie in (b) aus 22 gezeigt ist, kann der Controller 180 das Steuerfenster W auf der Grundlage der Berührungsaktion des Nutzers anzeigen. Die Größe der auf der Anzeige 151 angezeigten Inhaltsliste kann eingeschränkt werden und sie kann in dem Steuerfenster W angezeigt werden. Der Nutzer kann innerhalb des Steuerfensters W eine Auf-Ab-Berührungsaktion ST ausführen.
  • Wenn eine Berührungsaktion ST eingegeben wird, kann der Controller 180 eine entsprechende Operation ausführen. Zum Beispiel kann der Controller 180 eine Operation des Heraufscrollens und Herabscrollens der angezeigten Kontaktliste ausführen.
  • 23 ist eine Ansicht, die ein Videobedienverfahren für das mobile Endgerät aus 1 zeigt.
  • Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ein Steuerfenster W zum Empfangen einer Steueroperation für den auf der Anzeige 151 angezeigten Inhalt anzeigen.
  • Wie in (a) aus 23 gezeigt ist, kann das Video auf der Anzeige 151 angezeigt werden.
  • Wie in (b) aus 23 gezeigt ist, kann in dem angezeigten Steuerfenster W eine Einstellleiste PB angezeigt werden. Der Nutzer kann durch die Einstellleiste PB die Lautstärke, die Wiedergabeposition, die Geschwindigkeit usw. des abgespielten Videos einstellen.
  • 24 und 25 sind eine Ansicht, die ein Anwendungsauswahlverfahren für das mobile Endgerät aus 1 zeigt.
  • Wie darin gezeigt ist, kann der Controller 180 des mobilen Endgeräts 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung eine Nutzerschnittstelle bereitstellen, bei der laufende Anwendungen auf einer Berührungsaktionseingabe dargestellt werden und der Nutzer unter ihnen leicht eine Anwendung dafür auswählen kann, in dem Vordergrund zu laufen.
  • Wie in (a) aus 24 gezeigt ist, kann der Nutzer eine Berührungsaktion in der Weise ausführen, dass eine größere Berührungstrajektorie TR als ein Schwellenwert CTL eingegeben werden kann.
  • Wie in (b) aus 24 gezeigt ist, kann der Controller 180 Objekte EA, die einer aktuell laufenden Anwendung entsprechen, anzeigen, wenn eine größere Berührungstrajektorie TR als ein Schwellenwert CTL eingegeben wird. Alternativ kann der Controller 180 einer lauffähigen Anwendung entsprechende Objekte EA anzeigen.
  • Wie in (a) aus 25 gezeigt ist, kann der Nutzer eine Berührungsaktion des Auswählens eines Spezifischen der angezeigten Objekte EA ausführen.
  • Wie in (b) aus 25 gezeigt ist, kann der Controller auf der Anzeige 151 eine dem ausgewählten Objekt EA entsprechende Anwendung anzeigen, wenn der Nutzer ein spezifisches Objekt IE auswählt. Das heißt, der Controller 180 kann das ausgewählte Objekt EA dafür steuern, im Vordergrund zu laufen.
  • 26 und 27 sind Ansichten, die ein Hintergrundbedienverfahren für das mobile Endgerät aus 1 zeigen.
  • Wie darin gezeigt ist, kann der Controller 180 des mobilen Endgeräts 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung die Position eines auf der Anzeige 151 angezeigten Objekts in Ansprechen auf eine Berührungsaktion ändern.
  • Wie in (a) aus 26 gezeigt ist, kann der Nutzer eine Berührungsaktion nach unten mit dem ersten Finger F1 ausführen, während er das mobile Endgerät 100 hält.
  • Wie in (b) aus 26 gezeigt ist, kann der Controller 180 den Hintergrund BG dafür steuern, nach unten verschoben und festgesetzt zu werden, wenn der Nutzer eine Berührungsaktion nach unten ausführt. Das heißt, der angezeigte Hintergrund BG kann nach unten verschoben werden und der Bereich, von dem der Hintergrund BG verschoben wird, kann als ein leerer Bereich VA angezeigt werden.
  • Zwischen dem verschobenen Hintergrund BG und dem leeren Bereich VA kann der Controller 180 einen Begrenzungsbereich SL anzeigen, der abgerissen zu scheint sein. Außerdem kann der Controller 180 einen Vibrations- und Klangeffekt geben, wenn der Hintergrund BG in Übereinstimmung mit einer Berührungsaktion des Nutzers verschoben wird, und den Nutzer erkennen lassen, dass der Hintergrund BG verschoben und festgesetzt wird. Zum Beispiel kann der Nutzer einen Klang hören, wie wenn sich ein Zahnrad dreht oder wie wenn Papier abgerissen wird, und deutlich wahrnehmen, dass die relevante Funktion ausgeführt wird.
  • Wenn eine Berührungsaktion nach oben ausgeführt wird, kann der Controller 180 die Anzeige des Hintergrunds BG so ändern, dass sie der Berührungsaktion nach oben entspricht. Zum Beispiel kann der feste Hintergrund BG in den ursprünglichen Zustand zurückkehren.
  • Wie in 27 gezeigt ist, kann der Controller 180 Informationen, die den Zustand usw. des mobilen Endgeräts 100 angeben, z. B. ein Kontextmenü usw. zum leichten Steuern der Kommunikationsfunktion usw. des mobilen Endgeräts 100, anzeigen.
  • 28 ist eine Ansicht, die ein mobiles Endgerät in Übereinstimmung mit einer abermals anderen Ausführungsform der vorliegenden Erfindung zeigt.
  • Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer abermals anderen Ausführungsform der vorliegenden Erfindung in der Weise konfiguriert sein, dass an einem Frontrahmen BG ein Detektionssensor TS zum Detektieren einer Haltebewegung des Nutzers positioniert sein kann.
  • Der Detektionssensor TS kann ein Sensor sein, der an dem Frontrahmen BD des mobilen Endgeräts 100 vorgesehen ist. Der Detektionssensor TS kann detektieren, dass der Frontrahmen BD gehalten ist. Der Detektionssensor TS kann z. B. ein Detektionssensor zum Detektieren eines Drucks der Hand, die den Frontrahmen BD hält, und/oder ein Temperatursensor zum Detektieren einer Temperatur der Hand, die den Frontrahmen BD hält, sein. Der Detektionssensor TS kann in jedem Abschnitt des Frontrahmens BD positioniert sein. Das heißt, auf der oberen, auf der unteren, auf der linken und auf der rechten Seite des Frontrahmens BD können ein erster bis vierter Detektionssensor TS1 bis TS4 positioniert sein.
  • 29 ist eine Ansicht, die das mobile Endgerät aus 28 zeigt, das in einer Hand gehalten ist.
  • Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung detektieren, dass das mobile Endgerät 100 gehalten ist.
  • Wie in (a) aus 29 gezeigt ist, kann der Nutzer das mobile Endgerät 100 mit der linken Hand LH halten. Falls das mobile Endgerät 100 in der linken Hand LH gehalten ist, kann der linke Frontrahmen BD normal in der linken Hand LH gehalten sein. Die Tatsache, dass der linke Frontrahmen BD gehalten ist, kann durch den ersten Detektionssensor TS detektiert werden.
  • Wie in (b) aus 29 gezeigt ist, kann der Nutzer das mobile Endgerät 100 mit der rechten Hand RH halten. Die Tatsache, dass das mobile Endgerät 100 in der rechten Hand RH gehalten ist, kann durch den dritten Detektionssensor TS detektiert werden.
  • 30 ist eine Ansicht, die ein mobiles Endgerät in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
  • Wie darin gezeigt ist, kann das mobile Endgerät 100 eine Größe aufweisen, die klein genug ist, damit es durch den Frontrahmen mit einer Hand des Nutzers gehalten werden kann. Wie oben beschrieben ist, kann ein Frontrahmen BD darin einen Detektionssensor TS enthalten.
  • Selbst wenn der Nutzer das mobile Endgerät 100 mit einer verhältnismäßig kleinen Größe mit der rechten Hand RH hält, kann dies durch den Detektionssensor TS detektiert werden.
  • Der Controller 180 kann auf der Grundlage eines Ergebnisses der Detektion durch den Detektionssensor TS bestimmen, mit welcher Hand der Nutzer das mobile Endgerät 100 hält.
  • Das heißt, der Controller kann auf der Grundlage des Drucks und/oder der Temperatur jedes Fingers und/oder der Handfläche bestimmen, mit welcher Hand der Nutzer das mobile Endgerät 100 hält. Zum Beispiel ist der linke Frontrahmen BD mit den vier Fingern der rechten Hand RH gehalten und ist der rechte Frontrahmen BD mit dem Daumen gehalten, falls der Nutzer das mobile Endgerät 100 mit der rechten Hand RH hält. Ferner ist die Handfläche um die gesamte Rückseite des mobilen Endgeräts 100 gelegt. Der Detektionssensor TS kann eine Haltebewegung der rechten Hand RH detektieren und anhand dessen kann der Controller 180 bestimmen, welche Hand das mobile Endgerät 100 hält.
  • 31 ist eine Ansicht, die eine Operation eines mobilen Endgeräts in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
  • Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung in Ansprechen auf eine Berührungsaktion des Nutzers das Steuerfenster W anzeigen.
  • Wie in (a) aus 31 gezeigt ist, kann der Nutzer das mobile Endgerät 100 mit der linken Hand LH halten. Wenn das mobile Endgerät 100 in der linken Hand LH gehalten ist, kann der Controller 180 die Hand, die das mobile Endgerät 100 hält, und die Halteposition des mobilen Endgeräts 100 durch den Detektionssensor TS des Frontrahmens BD detektieren. Zum Beispiel kann auf der Grundlage der Halteposition bestimmt werden, dass der Nutzer das mobile Endgerät 100 mit der linken Hand LH hält.
  • Der Nutzer kann einen spezifischen Punkt auf der Anzeige 151 mit dem ersten Finger F1 berühren. Das heißt, anstelle einer Zieh- und Umschaltberührungsaktion kann der Nutzer an einem spezifischen Punkt eine Operation des Berührens nach unten und daraufhin an dem spezifischen Punkt eine des Berührens nach oben ausführen.
  • Falls es eine Berührung des Nutzers gibt, kann der Controller 180 die Position der Berührung des Nutzers detektieren. Zum Beispiel kann die Position der Berührung des Nutzers eine Entfernung D1 in der Breite und eine D2 in der Länge von dort aus, wo der Nutzer das mobile Endgerät 100 hält, sein.
  • Wie in (b) aus 31 gezeigt ist, kann der Controller 180 auf der Grundlage des Berührungspunkts des Nutzers ein Steuerfenster W anzeigen. Zum Beispiel kann ein Steuerfenster W mit einer Breite D1 und mit einer Länge D2 angezeigt werden. Wenn das Steuerfenster W mit dieser Breite angezeigt wird, kann das Steuerfenster W innerhalb des Bewegungsradius der Finger des Nutzers angezeigt werden. Somit kann innerhalb des Steuerfensters W ein Icon ausgewählt werden, ohne die Hand, die das mobile Endgerät 100 hält, über eine große Entfernung zu bewegen oder ohne die andere Hand zu verwenden.
  • 32 ist eine Ansicht, die eine Operation eines mobilen Endgeräts in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
  • Wie darin gezeigt ist, kann das mobile Endgerät 100 in Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung ein Steuerfenster W in Bezug auf einen Berührungspunkt des Nutzers anzeigen.
  • Wie in (a) aus 32 gezeigt ist, kann der Nutzer einen spezifischen Punkt auf der Anzeige 151 berühren, während er das mobile Endgerät 100 mit der rechten Hand RH hält. Zum Beispiel kann der Nutzer die Anzeige 151 mit dem zweiten Finger F2 berühren. Der Controller 180 kann durch den Detektionssensor TS usw. des Frontrahmens BD die Art und/oder die Position der Hand des Nutzers, die das mobile Endgerät 100 hält, detektieren.
  • Wie in (b) aus 32 gezeigt ist, kann der Controller 180 das Steuerfenster W in Bezug auf einen Berührungspunkt TP anzeigen. Zum Beispiel kann eine Operation des Anzeigens des Steuerfensters W auf der Grundlage des Berührungspunkts TP ausgeführt werden.
  • Das oben beschriebene Verfahren zum Steuern des mobilen Endgeräts kann als Computerprogramme geschrieben sein und kann in digitalen Mikroprozessoren implementiert werden, die die Programme unter Verwendung eines computerlesbaren Aufzeichnungsmediums ausführen. Das Verfahren zum Steuern des mobilen Endgeräts kann durch Software ausgeführt werden. Die Software kann Codesegmente enthalten, die geforderte Aufgaben ausführen. Programme oder Codesegmente können außerdem in einem prozessorlesbaren Medium gespeichert sein oder können in Übereinstimmung mit einem Computerdatensignal, kombiniert mit einem Träger, über ein Übertragungsmedium oder ein Kommunikationsnetz übertragen werden.
  • Das computerlesbare Aufzeichnungsmedium kann irgendeine Datenablagevorrichtung, die Daten speichern kann, die danach durch ein Computersystem gelesen werden können, sein. Beispiele des computerlesbaren Aufzeichnungsmediums können Nur-Lese-Speicher (ROM), Schreib-Lese-Speicher (RAM), CD-ROMs, DVD±ROM, DVD-RAM, Magnetbänder, Disketten, optische Datenablagevorrichtungen enthalten. Außerdem kann das computerlesbare Aufzeichnungsmedium über mit einem Netz gekoppelte Computersysteme verteilt sein, so dass der computerlesbare Code auf verteilte Weise gespeichert ist und ausgeführt wird.
  • Ein mobiles Endgerät kann einen ersten Berührungsbildschirm, der zum Anzeigen eines ersten Gegenstands konfiguriert ist, einen zweiten Berührungsbildschirm, der zum Anzeigen eines zweiten Gegenstands konfiguriert ist, und einen Controller, der dafür konfiguriert ist, eine auf den ersten Gegenstand angewendete erste Berührungseingabe zu empfangen und den ersten Gegenstand mit einer dem zweiten Gegenstand entsprechenden Funktion zu verknüpfen, wenn eine auf den zweiten Gegenstand angewendete zweite Berührungseingabe empfangen wird, während die erste Berührungseingabe aufrechterhalten wird, enthalten.
  • Es kann ein Verfahren zum Steuern eines mobilen Endgeräts geschaffen werden, das das Anzeigen eines ersten Gegenstands auf dem ersten Berührungsbildschirm, das Anzeigen eines zweiten Gegenstands auf dem zweiten Berührungsbildschirm, das Empfangen einer auf den ersten Gegenstand angewendeten ersten Berührungseingabe und das Verknüpfen des ersten Gegenstands mit einer dem zweiten Gegenstand entsprechenden Funktion, wenn eine auf den zweiten Gegenstand angewendete zweite Berührungseingabe empfangen wird, während die erste Berührungseingabe aufrecht erhalten wird, enthält.
  • Irgendeine Bezugnahme in dieser Beschreibung auf ”eine Ausführungsform”, ”Ausführungsform”, ”beispielhafte Ausführungsform” usw. bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft, das bzw. die in Verbindung mit der Ausführungsform beschrieben ist, in wenigstens einer Ausführungsform der Erfindung enthalten ist. Das Auftreten solcher Formulierungen an verschiedenen Stellen in der Beschreibung bezieht sich nicht notwendig überall auf dieselbe Ausführungsform. Ferner ist dann, wenn in Verbindung mit irgendeiner Ausführungsform ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft beschrieben ist, behauptet, dass es im Bereich des Fachmanns auf dem Gebiet liegt, dieses Merkmal, diese Struktur oder diese Eigenschaft in Verbindung mit anderen der Ausführungsformen zu bewirken.
  • Obwohl Ausführungsformen in Bezug auf eine Anzahl veranschaulichender Ausführungsformen davon beschrieben worden sind, können vom Fachmann auf dem Gebiet selbstverständlich zahlreiche andere Änderungen von Ausführungsformen, die im Erfindungsgedanken und Schutzumfang der Prinzipien dieser Offenbarung liegen, erdacht werden. Insbesondere sind in Bezug auf die Bestandteile und/oder Anordnungen der vorliegenden Kombinationsanordnung im Schutzumfang der Offenbarung, der Zeichnungen und der beigefügten Ansprüche verschiedene Änderungen und Abwandlungen möglich. Außer den Änderungen und Abwandlungen der Bestandteile und/oder Anordnungen gehen für den Fachmann auf dem Gebiet ebenfalls alternative Verwendungen hervor.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 10-2012-0023978 [0001]

Claims (14)

  1. Mobiles Endgerät (100), das umfasst: einen Berührungsbildschirm, der dafür konfiguriert ist, Berührungseingaben zu empfangen und Informationen anzuzeigen, wobei der Berührungsbildschirm mehrere Ränder aufweist; und einen Controller (180), der mit dem Berührungsbildschirm funktional gekoppelt ist und der konfiguriert ist zum: Anzeigen eines ersten Bildschirms, der ein Objekt enthält, auf dem Berührungsbildschirm, wobei der erste Bildschirm in dem gesamten Bereich des Berührungsbildschirms angezeigt wird, Anzeigen eines zweiten Bildschirms (W), der das Objekt auf dem ersten Bildschirm enthält, in Ansprechen auf den Empfang einer Berührungsaktion auf dem Berührungsbildschirm, wobei eine Größe des zweiten Bildschirms (W) kleiner als eine Größe des ersten Bildschirms ist, und wobei die Berührungsaktion eine Berührungs- und Zieheingabe auf einem Randgebiet enthält, das wenigstens einen der mehreren Ränder des Berührungsbildschirms enthält, wobei der zweite Bildschirm (W) dieselben Objekte anzeigt, wie sie auf dem ersten Bildschirm angezeigt sind, und wobei die Berührungsaktion eine Trajektorie (TR) der Berührungs- und Zieheingabe enthält und wobei wenigstens ein Anfangspunkt und ein Endpunkt der Trajektorie (TR) in dem Randgebiet, das wenigstens einen der mehreren Ränder des Berührungsbildschirms enthält, enthalten sind.
  2. Mobiles Endgerät (100) nach Anspruch 1, wobei eine Fläche, die durch den zweiten Bildschirm (W) nicht angezeigt wird, auf dem Berührungsbildschirm als ein leerer Bereich angezeigt wird, wenn der zweite Bildschirm (W) angezeigt wird.
  3. Mobiles Endgerät (100) nach einem der vorhergehenden Ansprüche, wobei der Anfangspunkt des Berührungsbildschirms ein rechter Randbereich oder ein linker Randbereich des Berührungsbildschirms ist.
  4. Mobiles Endgerät (100) nach einem der vorhergehenden Ansprüche, wobei die Trajektorie (TR) der Berührungsaktion die Berührungs- und Zieheingabe in einer horizontalen Richtung auf dem Randgebiet des Berührungsbildschirms ist.
  5. Mobiles Endgerät (100) nach einem der vorhergehenden Ansprüche, wobei eine Größe des zweiten Bildschirms (W) auf einer Reichweite der Trajektorie (TR) der Berührungsaktion beruht.
  6. Mobiles Endgerät (100) nach Anspruch 5, wobei die Reichweite der Trajektorie (TR) eine bogenförmige Trajektorie ist.
  7. Mobiles Endgerät (100) nach einem der vorhergehenden Ansprüche, wobei der zweite Bildschirm (W) in einem linken Randbereich angezeigt wird, wenn die Berührungsaktion in einem linken Bereich des Berührungsbildschirms ausgeführt wird, oder wobei der zweite Bildschirm (W) in einem rechten Randbereich des Berührungsbildschirms angezeigt wird, wenn die Berührungsaktion in einem rechten Bereich des Berührungsbildschirms ausgeführt wird.
  8. Mobiles Endgerät (100) nach einem der vorhergehenden Ansprüche, wobei der Controller (180) dafür konfiguriert ist, in dem zweiten Bildschirm (W) eine entsprechende Operation auszuführen, wenn das in dem zweiten Bildschirm (W) angezeigte Objekt ausgewählt wird.
  9. Mobiles Endgerät (100) nach einem der vorhergehenden Ansprüche, wobei der Controller (180) dafür konfiguriert ist, eine Position des zweiten Bildschirms (W) auf dem Berührungsbildschirm auf der Grundlage einer Berührungseingabe auf dem Berührungsbildschirm zu ändern.
  10. Mobiles Endgerät (100) nach einem der vorhergehenden Ansprüche, wobei der Controller (180) dafür konfiguriert ist, die Anzeige des zweiten Bildschirms (W) in Ansprechen darauf, dass er die Berührungsaktion auf dem zweiten Bildschirm (W) empfängt, abzubrechen.
  11. Mobiles Endgerät (100) nach einem der vorhergehenden Ansprüche, wobei der zweite Bildschirm (W) eine Anzeigeabbruchschaltfläche zum Abbrechen der Anzeige des zweiten Bildschirms (W) aufweist.
  12. Mobiles Endgerät (100) nach einem der vorhergehenden Ansprüche, wobei die Trajektorie (TR) wenigstens eine Trajektorie von einem Mittelbereich des Berührungsbildschirms in Richtung des wenigstens einen der mehreren Ränder und von dem wenigstens einen der mehreren Ränder in Richtung des Mittelbereichs des Berührungsbildschirms enthält.
  13. Mobiles Endgerät (100) nach einem der vorhergehenden Ansprüche, wobei eine Größe des Objekts auf dem zweiten Bildschirm (W) kleiner als eine Größe des Objekts auf dem ersten Bildschirm ist.
  14. Mobiles Endgerät (100) nach einem der vorhergehenden Ansprüche, wobei das Randgebiet ein Bereich ist, der den mehreren Rändern des Berührungsbildschirms näher als ein Mittelbereich des Berührungsbildschirms ist.
DE202013012304.4U 2012-03-08 2013-03-01 Mobiles Endgerät Expired - Lifetime DE202013012304U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120023978 2012-03-08
KR20120023978A KR101496512B1 (ko) 2012-03-08 2012-03-08 이동 단말기 및 그 제어방법

Publications (1)

Publication Number Publication Date
DE202013012304U1 true DE202013012304U1 (de) 2016-02-03

Family

ID=47877698

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202013012304.4U Expired - Lifetime DE202013012304U1 (de) 2012-03-08 2013-03-01 Mobiles Endgerät

Country Status (5)

Country Link
US (2) US9360952B2 (de)
EP (1) EP2637086B1 (de)
KR (1) KR101496512B1 (de)
CN (1) CN103312890B (de)
DE (1) DE202013012304U1 (de)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101972924B1 (ko) * 2011-11-11 2019-08-23 삼성전자주식회사 휴대용 기기에서 부분 영역의 터치를 이용한 전체 영역 지정을 위한 방법 및 장치
KR101846447B1 (ko) * 2011-12-08 2018-04-06 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9047008B2 (en) 2012-08-24 2015-06-02 Nokia Technologies Oy Methods, apparatuses, and computer program products for determination of the digit being used by a user to provide input
CN107247538B (zh) * 2012-09-17 2020-03-20 华为终端有限公司 触摸操作处理方法及终端设备
JP5965339B2 (ja) * 2013-03-11 2016-08-03 シャープ株式会社 携帯型装置
JP2014211720A (ja) * 2013-04-17 2014-11-13 富士通株式会社 表示装置および表示制御プログラム
KR102203885B1 (ko) * 2013-04-26 2021-01-15 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
KR102212830B1 (ko) * 2013-05-24 2021-02-08 삼성전자 주식회사 휴대 단말기에서 화면을 표시하는 방법 및 장치
US10691291B2 (en) * 2013-05-24 2020-06-23 Samsung Electronics Co., Ltd. Method and apparatus for displaying picture on portable device
EP2846238B1 (de) * 2013-05-29 2017-07-19 Huawei Technologies Co., Ltd. Verfahren zur umschaltung und präsentation eines betriebsmodus eines endgeräts sowie endgerät
JP6155869B2 (ja) * 2013-06-11 2017-07-05 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
CN104516654B (zh) * 2013-09-26 2018-11-09 联想(北京)有限公司 操作处理方法和装置
US9696882B2 (en) 2013-08-28 2017-07-04 Lenovo (Beijing) Co., Ltd. Operation processing method, operation processing device, and control method
KR20150037014A (ko) * 2013-09-30 2015-04-08 삼성전자주식회사 전자장치 및 전자장치의 사용자 인터페이스 제공방법
CN104636023A (zh) * 2013-11-06 2015-05-20 中国移动通信集团公司 一种动态调整显示屏幕内容的方法及设备
TWI510970B (zh) * 2013-11-06 2015-12-01 Acer Inc 電子裝置及其軟體鍵盤的顯示方法
JP2015099526A (ja) * 2013-11-20 2015-05-28 富士通株式会社 情報処理装置および情報処理プログラム
KR20150059504A (ko) * 2013-11-22 2015-06-01 삼성전자주식회사 휴대형 전자장치의 화면 제어 방법 및 장치
CN104679422A (zh) * 2013-11-27 2015-06-03 合硕科技股份有限公司 可单手操控手持装置的方法
JP6031080B2 (ja) 2013-11-29 2016-11-24 株式会社 ハイディープHiDeep Inc. 仮想タッチパッド操作方法及びこれを行う端末機
KR101692848B1 (ko) * 2013-11-29 2017-01-05 주식회사 하이딥 호버링을 이용하는 가상 터치패드 조작방법 및 이를 수행하는 단말기
JP2015114865A (ja) * 2013-12-12 2015-06-22 ソニー株式会社 情報処理装置、中継コンピュータ、情報処理システム、および情報処理プログラム
KR20150069801A (ko) 2013-12-16 2015-06-24 삼성전자주식회사 화면 제어 방법 및 그 전자 장치
CN111580706B (zh) * 2013-12-30 2023-10-24 三星电子株式会社 提供用户交互的电子设备及其方法
US20150186011A1 (en) * 2013-12-30 2015-07-02 Samsung Electronics Co., Ltd. Apparatus and method for interacting with items on a portable terminal
CN103713851B (zh) * 2014-01-03 2020-02-11 上海斐讯数据通信技术有限公司 一种滑动触摸屏幕切换单手操作模式的系统及其方法
CN104793873A (zh) * 2014-01-17 2015-07-22 宏碁股份有限公司 电子装置及其软件键盘的显示方法
TWI511026B (zh) * 2014-01-29 2015-12-01 Acer Inc 行動裝置及調整其視窗大小的方法
US9851883B2 (en) * 2014-02-17 2017-12-26 Xerox Corporation Method and apparatus for adjusting and moving a user interface for single handed use on an endpoint device
KR20150099297A (ko) * 2014-02-21 2015-08-31 삼성전자주식회사 전자장치의 화면 표시 방법
CN104951218B (zh) * 2014-03-25 2019-03-05 宏碁股份有限公司 行动装置及调整视窗大小的方法
CA2851611A1 (en) * 2014-05-09 2015-11-09 Reza Chaji Touch screen accessibility and functionality enhancement
CN105094514A (zh) * 2014-05-23 2015-11-25 中兴通讯股份有限公司 一种终端便捷操作的方法及装置
WO2015180013A1 (zh) * 2014-05-26 2015-12-03 华为技术有限公司 一种终端的触摸操作方法及装置
CN105224161A (zh) * 2014-06-03 2016-01-06 中兴通讯股份有限公司 一种控制终端屏幕的方法及终端
US10064603B2 (en) * 2014-07-03 2018-09-04 Samsung Medison Co., Ltd. Ultrasound diagnosis apparatus, method of controlling ultrasound diagnosis apparatus, and storage medium having the method recorded thereon
KR101596879B1 (ko) * 2014-07-16 2016-03-07 지현조 대형화면을 갖는 휴대단말기에서의 터치제어방법
USD780798S1 (en) * 2014-09-02 2017-03-07 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
KR102255143B1 (ko) * 2014-09-02 2021-05-25 삼성전자주식회사 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
CN104461232A (zh) * 2014-09-30 2015-03-25 小米科技有限责任公司 在屏幕显示过程中确定缩小比例的方法及装置
CN104298433A (zh) * 2014-09-30 2015-01-21 小米科技有限责任公司 屏幕显示方法、装置及移动终端
US9948770B2 (en) 2014-10-07 2018-04-17 Microsoft Technology Licensing, Llc Providing sender identification information
CN105528169A (zh) * 2014-10-23 2016-04-27 中兴通讯股份有限公司 一种触摸屏设备和对触摸屏设备进行操作的方法
KR101667727B1 (ko) * 2014-10-31 2016-10-28 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR102328823B1 (ko) 2014-11-12 2021-11-19 삼성전자 주식회사 화면 내 빈 영역 활용 방법 및 장치
EP3029915B1 (de) * 2014-11-27 2019-12-18 LG Electronics Inc. Mobiles endgerät
CN104731506A (zh) * 2015-03-31 2015-06-24 努比亚技术有限公司 数据发送操作撤销方法和装置
CN104866175B (zh) * 2015-05-21 2018-06-26 努比亚技术有限公司 移动终端单手模式实现方法及移动终端
CN104850348A (zh) * 2015-05-21 2015-08-19 努比亚技术有限公司 移动终端单手模式实现方法及移动终端
CN105094605B (zh) * 2015-07-13 2019-08-16 小米科技有限责任公司 在单手模式下显示通知栏信息的方法和装置
JP6290143B2 (ja) * 2015-07-30 2018-03-07 シャープ株式会社 情報処理装置、情報処理プログラムおよび情報処理方法
CN105117056B (zh) * 2015-08-17 2019-02-01 青岛海信移动通信技术股份有限公司 一种操作触摸屏的方法和设备
CN105487705B (zh) * 2015-11-20 2019-08-30 努比亚技术有限公司 移动终端、输入处理方法及用户设备
CN105487795B (zh) * 2015-11-25 2018-11-02 小米科技有限责任公司 单手模式的操作界面设置方法及装置
USD800141S1 (en) * 2016-01-22 2017-10-17 Google Inc. Display screen or portion thereof with a transitional graphical user interface
USD803236S1 (en) * 2016-01-22 2017-11-21 Google Inc. Display screen or portion thereof with a transitional graphical user interface
JP6647103B2 (ja) * 2016-03-23 2020-02-14 キヤノン株式会社 表示制御装置およびその制御方法
US10042550B2 (en) * 2016-03-28 2018-08-07 International Business Machines Corporation Displaying virtual target window on mobile device based on directional gesture
US10091344B2 (en) 2016-03-28 2018-10-02 International Business Machines Corporation Displaying virtual target window on mobile device based on user intent
CN106293396A (zh) * 2016-08-05 2017-01-04 北京小米移动软件有限公司 终端控制方法、装置及终端
CN106412232A (zh) * 2016-08-26 2017-02-15 珠海格力电器股份有限公司 一种控制操作界面的缩放方法、装置以及电子设备
US10254940B2 (en) * 2017-04-19 2019-04-09 International Business Machines Corporation Modifying device content to facilitate user interaction
US11301124B2 (en) 2017-08-18 2022-04-12 Microsoft Technology Licensing, Llc User interface modification using preview panel
US20190056857A1 (en) * 2017-08-18 2019-02-21 Microsoft Technology Licensing, Llc Resizing an active region of a user interface
US11237699B2 (en) 2017-08-18 2022-02-01 Microsoft Technology Licensing, Llc Proximal menu generation
US10417991B2 (en) 2017-08-18 2019-09-17 Microsoft Technology Licensing, Llc Multi-display device user interface modification
CN111247506A (zh) * 2017-10-11 2020-06-05 深圳传音通讯有限公司 一种基于智能终端的屏幕控制方法及屏幕控制系统
US10770037B2 (en) 2018-03-15 2020-09-08 Kyocera Document Solutions Inc. Mobile terminal device
JP6604400B2 (ja) * 2018-06-19 2019-11-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN111092971A (zh) * 2018-10-24 2020-05-01 北京搜狗科技发展有限公司 一种显示方法、装置和用于显示的装置
JP7409770B2 (ja) * 2018-12-28 2024-01-09 株式会社バンダイナムコエンターテインメント ゲームシステム、プログラム及び端末装置
US11159731B2 (en) * 2019-02-19 2021-10-26 Samsung Electronics Co., Ltd. System and method for AI enhanced shutter button user interface
CN110830645B (zh) * 2019-09-24 2021-05-18 华为技术有限公司 一种操作方法和电子设备及计算机存储介质
CN111309183B (zh) * 2020-02-26 2022-04-15 京东方科技集团股份有限公司 触控显示系统及其控制方法
CN113448479B (zh) * 2020-03-25 2024-03-12 Oppo广东移动通信有限公司 单手操作模式开启方法、终端及计算机存储介质
CN111427505A (zh) * 2020-04-09 2020-07-17 Oppo广东移动通信有限公司 页面操作方法、装置、终端及存储介质
CN111583798A (zh) * 2020-05-15 2020-08-25 武汉华星光电半导体显示技术有限公司 卷曲显示装置
CN113746961A (zh) * 2020-05-29 2021-12-03 华为技术有限公司 显示控制方法、电子设备和计算机可读存储介质
TWI775474B (zh) * 2021-06-07 2022-08-21 華碩電腦股份有限公司 可攜式電子裝置與其單手觸控操作方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120023978A (ko) 2010-09-03 2012-03-14 콘티넨탈 오토모티브 시스템 주식회사 자동 변속기의 변속 제어 장치 및 방법

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2585922B2 (ja) * 1992-05-29 1997-02-26 日立ソフトウエアエンジニアリング株式会社 電子黒板装置
US7895536B2 (en) * 2003-01-08 2011-02-22 Autodesk, Inc. Layer editor system for a pen-based computer
KR20070006477A (ko) 2005-07-08 2007-01-11 삼성전자주식회사 가변적 메뉴 배열 방법 및 이를 이용한 디스플레이 장치
CN101132571A (zh) 2006-08-22 2008-02-27 薛飞 在手机上显示和操作远程计算机的方法和系统
JP2008245055A (ja) * 2007-03-28 2008-10-09 Fujifilm Corp 画像表示装置、撮影装置および画像表示方法
JP4412737B2 (ja) * 2007-09-06 2010-02-10 シャープ株式会社 情報表示装置
JP5031588B2 (ja) 2008-01-07 2012-09-19 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置及びプログラム
JP2009169820A (ja) 2008-01-18 2009-07-30 Panasonic Corp 携帯端末
JP5045559B2 (ja) 2008-06-02 2012-10-10 富士通モバイルコミュニケーションズ株式会社 携帯端末
KR101524616B1 (ko) * 2008-07-07 2015-06-02 엘지전자 주식회사 자이로센서를 구비한 휴대 단말기 및 그 제어방법
KR101467881B1 (ko) 2008-08-18 2014-12-02 엘지전자 주식회사 적어도 2개의 디스플레이 영역을 가지는 휴대 단말기 및 그제어방법
KR20110018589A (ko) * 2009-08-18 2011-02-24 엘지전자 주식회사 이동 단말기 및 그 제어 방법
TW201133327A (en) 2010-03-24 2011-10-01 Acer Inc Multiple displays electric apparatus and operation method thereof
KR20110115683A (ko) * 2010-04-16 2011-10-24 조근우 터치스크린에서의 한 손 입력방법
EP2565764B1 (de) * 2010-04-30 2020-10-07 Nec Corporation Informationsverarbeitungsendgerät und betriebssteuerungsverfahren dafür
KR20120094728A (ko) 2011-02-17 2012-08-27 삼성에스디에스 주식회사 유저인터페이스 제공 방법 및 이를 이용한 휴대 단말기
KR20120139893A (ko) 2011-06-20 2012-12-28 에스케이텔레콤 주식회사 휴대 단말을 위한 움직이는 사용자 인터페이스 제공 장치 및 방법
JP5295328B2 (ja) 2011-07-29 2013-09-18 Kddi株式会社 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
KR20130023948A (ko) 2011-08-30 2013-03-08 삼성전자주식회사 휴대용 단말기에서 아이콘을 선택하기 위한 장치 및 방법
KR101972924B1 (ko) 2011-11-11 2019-08-23 삼성전자주식회사 휴대용 기기에서 부분 영역의 터치를 이용한 전체 영역 지정을 위한 방법 및 장치
KR20130061993A (ko) * 2011-12-02 2013-06-12 (주) 지.티 텔레콤 터치스크린 상의 화면조작방법
KR101879333B1 (ko) 2011-12-06 2018-07-17 엘지전자 주식회사 이동 단말기 및 그의 아이콘 배열방법
KR101902404B1 (ko) 2011-12-30 2018-10-01 엘지전자 주식회사 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120023978A (ko) 2010-09-03 2012-03-14 콘티넨탈 오토모티브 시스템 주식회사 자동 변속기의 변속 제어 장치 및 방법

Also Published As

Publication number Publication date
KR101496512B1 (ko) 2015-02-26
EP2637086B1 (de) 2018-05-02
US20160253076A1 (en) 2016-09-01
CN103312890B (zh) 2016-04-27
US10042534B2 (en) 2018-08-07
CN103312890A (zh) 2013-09-18
US20130237288A1 (en) 2013-09-12
US9360952B2 (en) 2016-06-07
EP2637086A1 (de) 2013-09-11
KR20130102834A (ko) 2013-09-23

Similar Documents

Publication Publication Date Title
DE202013012304U1 (de) Mobiles Endgerät
CN108600605B (zh) 移动终端及其控制方法
DE202013012353U1 (de) Mobiles Endgerät und Steuerverfahren dafür
DE112016000085B4 (de) Gerät, Verfahren und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt
DE202011110758U1 (de) Mobiles Endgerät
DE202014010551U1 (de) Mobiles Endgerät
DE202009019104U1 (de) Mobiles Endgerät und Benutzerschnittstelle eines mobilen Endgeräts
DE202011110898U1 (de) Mobilgerät
DE202012013560U1 (de) Mobiles Endgerät
DE202008018283U1 (de) Menüanzeige für ein mobiles Kommunikationsendgerät
DE202014103258U1 (de) Mobiles Endgerät
DE202017002875U1 (de) Benutzerschnittstelle für Kameraeffekte
DE202014010511U1 (de) Mobiles Endgerät
DE202016005219U1 (de) Benutzerschnittstelle zum Navigieren und Wiedergeben von Inhalt
DE202010018239U1 (de) Mobiles Endgerät
DE202012013481U1 (de) Mobiles Endgerät
DE202015009346U1 (de) Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten
DE202009018704U1 (de) Mobiles Endgerät
DE202015009611U1 (de) Mobiles Endgerät
DE202013012582U1 (de) Mobiles Endgerät
DE202011110681U1 (de) Mobile Vorrichtung zur Anzeige einer Sofortnachricht
DE202012013286U1 (de) Tragbares Endgerät, das Mehrfacheingaben unterstützt
DE202014004572U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen
DE202013012389U1 (de) Mobiles Endgerät
DE202011110735U1 (de) Mobiles Endgerät

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right