DE202009018938U1 - Mobiles Endgerät und Bildschirmanzeigeverfahren dafür - Google Patents

Mobiles Endgerät und Bildschirmanzeigeverfahren dafür Download PDF

Info

Publication number
DE202009018938U1
DE202009018938U1 DE202009018938.4U DE202009018938U DE202009018938U1 DE 202009018938 U1 DE202009018938 U1 DE 202009018938U1 DE 202009018938 U DE202009018938 U DE 202009018938U DE 202009018938 U1 DE202009018938 U1 DE 202009018938U1
Authority
DE
Germany
Prior art keywords
controller
touch screen
mobile terminal
content
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202009018938.4U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of DE202009018938U1 publication Critical patent/DE202009018938U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Mobiles Endgerät, umfassend: einen Berührungsbildschirm, der ausgestaltet ist, einen Inhalt auf einer Inhaltsanzeigefläche in demselben anzuzeigen, und einen Controller, der ausgestaltet ist, zu: bewirken, dass der Berührungsbildschirm ein erstes grafisches Element in Reaktion auf ein Ermitteln eines Objekts in der Nähe eines ersten Randbereichs der Inhaltsanzeigefläche anzeigt, wobei das erste grafische Element eine erste Bildlaufrichtung angibt; und bewirken, dass der Berührungsbildschirm einen Bildlauf des Inhalts in der ersten Bildlaufrichtung in der Inhaltsanzeigefläche in Reaktion auf ein Ermitteln, dass sich das Objekt in der Nähe des ersten Randbereichs befindet, anzeigt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein mobiles Endgerät, insbesondere ein mobiles Endgerät, das einen Eingabebildschirm mit Näherungsberührung umfasst.
  • Allgemeiner Stand der Technik
  • Ein mobiles Endgerät ist eine Vorrichtung, die ausgelegt sein kann, diverse Funktionen auszuführen. Beispiele derartiger Funktionen umfassen Daten- und Sprachkommunikationen, das Aufnehmen von Bildern und Videomaterial über eine Kamera, das Aufzeichnen von Audiomaterial, das Abspielen von Musikdateien über eine Lautsprecheranlage und das Anzeigen von Bildern und Videomaterial auf einem Display. Einige Endgeräte umfassen eine zusätzliche Funktionalität, die Spielmöglichkeiten unterstützt, während andere Endgeräte als Multimedia-Player ausgelegt sind. Neuerdings wurden mobile Endgeräte ausgelegt, Rundfunk- und Multicast-Signale zu empfangen, die das Visualisieren von Inhalten, wie etwa Videos und Fernsehprogrammen, ermöglichen.
  • Derzeit laufen Bemühungen, um die Funktionalität der mobilen Endgeräte zu unterstützen und zu erweitern. Diese Bemühungen umfassen Verbesserungen an Software und Hardware sowie Änderungen und Verbesserungen an den Bauteilen, die das mobile Endgerät bilden.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Entsprechend betrifft die vorliegende Erfindung ein mobiles Endgerät, das in der Lage ist, einen Bildschirm anzuzeigen, der eine Näherungsberührung verwendet, und ein diesbezügliches Verfahren.
  • Eine Aufgabe der vorliegenden Erfindung besteht darin, ein mobiles Endgerät und ein diesbezügliches Verfahren bereitzustellen, die eine Bewegungsfunktion und eine Zoomfunktion des Berührungsbildschirms basierend auf der Beziehung zwischen einer Berührung und einer Näherungsberührung auf einem Berührungsbildschirm ausführen können.
  • Zusätzliche Vorteile, Aufgaben und Merkmale der Erfindung werden zum Teil in der nachstehenden Beschreibung dargelegt und gehen für den Fachmann zum Teil aus der Betrachtung des Nachstehenden hervor oder können aus der Umsetzung der Erfindung in die Praxis erlernt werden. Die Ziele und anderen Vorteile der Erfindung können durch die Struktur, die in der schriftlichen Beschreibung und den Ansprüchen derselben sowie in den beiliegenden Zeichnungen ausgewiesen wird, ausgebildet und erreicht werden.
  • Um diese Aufgaben und anderen Vorteile zu erreichen und gemäß dem Zweck der Erfindung, wie sie hier ausgebildet und im weitesten Sinne beschrieben wird, umfasst ein mobiles Endgerät ein Display, einen Berührungsbildschirm, eine Sensoreinheit zum Erfassen eines Objekts, das den Berührungsbildschirm berührt, und eines Objekts in unmittelbarer Nähe zum Berührungsbildschirm, und einen Controller zum Steuern von Informationen, die auf dem Display erscheinen, gemäß dem Objekt, das den Berührungsbildschirm berührt, und der Bewegung des Objekts mit Bezug auf den Berührungsbildschirm.
  • Bei einem Merkmal wendet der Controller eine Bildlauffunktion auf die Informationen an, die auf dem Display erscheinen, wenn das Objekt einen vorbestimmten Punkt auf dem Berührungsbildschirm berührt und sich von dem vorbestimmten Punkt entfernt, während es sich in unmittelbarer Nähe zum Berührungsbildschirm befindet. Der Controller wendet die Bildlauffunktion so lange an, bis die durch das Objekt zurückgelegte Distanz größer oder gleich einer vorbestimmten Distanz ist. Zusätzlich kann die Steuerung eine Bildlaufgeschwindigkeit gemäß der durch das Objekt zurückgelegten Distanz steuern. Ferner steuert der Controller mindestens eine von einer Bildlaufrichtung und einer Bildlaufgeschwindigkeit gemäß einer Bewegungsrichtung des Objekts.
  • Bei einem anderen Merkmal wendet der Controller eine Zoomfunktion auf die Informationen an, die auf dem Display erscheinen, wenn das Objekt einen vorbestimmten Punkt auf dem Berührungsbildschirm berührt und sich von dem vorbestimmten Punkt entfernt, während es sich in unmittelbarer Nähe zum Berührungsbildschirm befindet. Zusätzlich wendet der Controller eine Drehfunktion auf die Informationen an, die auf dem Display erscheinen, wenn das Objekt einen vorbestimmten Punkt auf dem Berührungsbildschirm berührt und sich bezogen auf den vorbestimmten Punkt drehmäßig bewegt, während es sich in unmittelbarer Nähe zum Berührungsbildschirm befindet.
  • Bei noch einem anderen Merkmal zeigt der Controller ein Funktions-Icon an, wenn sich das Objekt in unmittelbarer Nähe zum Berührungsbildschirm befindet.
  • Bei noch einem anderen Merkmal wendet der Controller eine Zoomfunktion auf die Informationen an, die auf dem Display erscheinen, wenn das Objekt einen vorbestimmten Abschnitt des Funktions-Icons berührt und sich bezogen auf den vorbestimmten Abschnitt linear bewegt, während es den Berührungsbildschirm berührt. Der Controller wendet eine Drehfunktion auf die Informationen an, die auf dem Display erscheinen, wenn das Objekt einen vorbestimmten Abschnitt des Funktions-Icons berührt und sich bezogen auf den vorbestimmten Abschnitt drehmäßig bewegt, während es den Berührungsbildschirm berührt.
  • Bei einer anderen Ausführungsform wird ein Verfahren zum Steuern von Informationen, die auf einem mobilen Endgerät angezeigt werden, vorgelegt. Das Verfahren umfasst das Anzeigen von Informationen auf einem Display eines Berührungsbildschirms, das Erfassen eines Objekts, das den Berührungsbildschirm berührt, und des Objekts in unmittelbarer Nähe zum Berührungsbildschirm, und das Steuern der Informationen, die auf dem Display erscheinen, gemäß dem Objekt, das den Berührungsbildschirm berührt, und der Bewegung des Objekts mit Bezug auf den Berührungsbildschirm.
  • Es versteht sich, dass sowohl die vorstehende allgemeine Beschreibung als auch die nachstehende ausführliche Beschreibung der vorliegenden Erfindung beispielhaft und erklärend sind und dazu gedacht sind, eine weitere Erklärung der beanspruchten Erfindung bereitzustellen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die obigen und andere Aspekte, Merkmale und Vorteile der vorliegenden Erfindung werden bei der Berücksichtigung der nachstehenden Beschreibung bevorzugter Ausführungsformen besser ersichtlich werden, wenn sie zusammen mit den beiliegenden Zeichnungsfiguren gesehen wird. Es zeigen:
  • 1 ein Blockschaltbild eines mobilen Endgeräts gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 2 eine perspektivische Ansicht einer Vorderseite eines mobilen Endgeräts gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 3 eine Rückansicht des in 2 gezeigten mobilen Endgeräts.
  • 4 ein Blockschaltbild eines drahtlosen CDMA-Kommunikationssystems, das mit dem mobilen Endgerät aus 1 bis 3 betätigt werden kann.
  • 5 ein Ablaufschema für ein Bildlaufverfahren eines mobilen Endgeräts gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 6 bis 10 ein mobiles Endgerät gemäß dem Verfahren aus 5.
  • 11 ein Ablaufschema für ein Zoom- und Drehverfahren des Berührungsbildschirms gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 12 und 13 den Berührungsbildschirm gemäß dem Verfahren aus 11.
  • 14 ein Ablaufschema für ein Zoom- und Drehverfahren des Berührungsbildschirms gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 15 den Berührungsbildschirm gemäß dem Verfahren aus 14.
  • 16 ein Beispiel des Zoomverfahrens des Berührungsbildschirms unter Verwendung eines stecknadelartigen Icons gemäß 15.
  • 17 ein Beispiel des Drehverfahrens des Berührungsbildschirms unter Verwendung des stecknadelartigen Icons gemäß 15.
  • 18 ein Beispiel des Zoom- und Drehverfahrens des Berührungsbildschirms unter Verwendung des stecknadelartigen Icons gemäß 15.
  • 19 ein Beispiel des Bewegens des stecknadelartigen Icons gemäß 15.
  • 20 ein Beispiel der Bildlauffunktion des Berührungsbildschirms, wenn das Icon das stecknadelartige gemäß 15 ist.
  • 21 ein Ablaufschema eines Zoomverfahrens des Berührungsbildschirms gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 22 ein Beispiel des Zooms gemäß 21.
  • 23 ein Beispiel des Ausführens des Zooms gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 24 ein Ablaufschema eines Bildlaufverfahrens des Berührungsbildschirms gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 25 und 26 ein Beispiel des Ausführens des Bildlaufverfahrens gemäß 24.
  • 27 ein Ablaufschema für ein Informationsanzeigeverfahren des mobilen Endgeräts gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 28 bis 32 Beispiele des Informationsanzeigeverfahrens gemäß 27.
  • 33 ein Ablaufschema für ein Zoomverfahren des mobilen Endgeräts gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 34 und 35 Beispiele des Zoomverfahrens gemäß 33.
  • 36 ein Beispiel des Bezeichnens eines spezifischen Bereichs in dem mobilen Endgerät, um den bezeichneten Bereich zu vergrößern, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 37 ein Beispiel des Anzeigens von ausführlichen Informationen, die mit einer spezifischen Fläche verknüpft sind, unter Verwendung der Näherungsberührung in dem mobilen Endgerät gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 38 ein Beispiel des Anzeigens von Informationen, die mit einer spezifischen Straße verknüpft sind, unter Verwendung der Näherungsberührung in dem mobilen Endgerät gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 39 und 40 Beispiele des Anzeigens von Wetterinformationen unter Verwendung der Näherungsberührung in dem mobilen Endgerät gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 41 und 42 Beispiele des Anzeigens von Risikoinformationen der Wetterinformationen unter Verwendung der Näherungsberührung in dem mobilen Endgerät gemäß einer Ausführungsform der vorliegenden Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • In der nachstehenden ausführlichen Beschreibung wird Bezug auf die beiliegenden Zeichnungsfiguren genommen, die Teil davon sind und die zur Erläuterung spezifische Ausführungsformen der Erfindung zeigen. Der Fachmann auf diesem technischen Gebiet wird verstehen, dass andere Ausführungsformen verwendet werden können, und dass strukturelle, elektrische sowie verfahrenstechnische Änderungen vorgenommen werden können, ohne den Umfang der vorliegenden Erfindung zu verlassen. Soweit möglich werden die gleichen Bezugszahlen in allen Zeichnungen verwendet, um sich auf gleiche oder ähnliche Teile zu beziehen.
  • Nur als nicht einschränkendes Beispiel und aus praktischen Gründen sowie für die Prägnanz der folgenden Beschreibung wird die vorliegende Erfindung als Mobiltelefon erläutert. Es wird jedoch nicht beabsichtigt, den Umfang der vorliegenden Erfindung einzuschränken. Die Lehren der vorliegenden Erfindung gelten ebenso für andersartige Endgeräte.
  • 1 ist ein Blockschaltbild eines mobilen Endgeräts 100 gemäß einer Ausführungsform der vorliegenden Erfindung. Das mobile Endgerät 100 kann in verschiedenartigen Endgeräten umgesetzt werden. Beispiele derartiger Endgeräte umfassen Mobiltelefone, Benutzergeräte, Smartphones, Computer, digitale Rundfunkendgeräte, persönliche digitale Assistenten, tragbare Multimedia-Player (PMP) und Navigationsgeräte.
  • Nur als nicht einschränkendes Beispiel und aus praktischen Gründen sowie für die Prägnanz der folgenden Beschreibung wird die vorliegende Erfindung als Mobiltelefon erläutert. Es wird nicht beabsichtigt, den Umfang der vorliegenden Erfindung einzuschränken. Die Lehren der vorliegenden Erfindung gelten ebenso für andersartige Endgeräte.
  • 1 zeigt das Endgerät 100 mit diversen Komponenten, es versteht sich jedoch, dass das Umsetzen aller abgebildeten Komponenten nicht erforderlich ist. Alternativ kann eine größere oder kleinere Anzahl von Komponenten umgesetzt werden.
  • 1 zeigt eine drahtlose Kommunikationseinheit 110, die mit diversen Komponenten ausgelegt ist. Beispielsweise umfasst die drahtlose Kommunikationseinheit 110 typischerweise ein oder mehrere Komponenten, die eine drahtlose Kommunikation zwischen dem mobilen Endgerät 100 und einem drahtlosen Kommunikationssystem oder Netzwerk, in dem sich das mobile Endgerät befindet, erlauben. Für den Fall von nicht mobilen Endgeräten kann die drahtlose Kommunikationseinheit 110 durch eine drahtgebundene Kommunikationseinheit ersetzt werden. Die drahtlose Kommunikationseinheit 110 und die drahtgebundene Kommunikationseinheit können gemeinsam als Kommunikationseinheit bezeichnet werden.
  • Ein Rundfunkempfangsmodul 111 empfängt ein Rundfunksignal und rundfunkverknüpfte Informationen von einer externen Rundfunkverwaltungsentität über einen Rundfunkkanal. Der Rundfunkkanal kann einen Satellitenkanal oder einen terrestrischen Kanal umfassen. Die Rundfunkverwaltungsentität kann ein System sein, das ein Rundfunksignal oder rundfunkverknüpfte Informationen überträgt.
  • Beispiele von rundfunkverknüpften Informationen umfassen Informationen, die mit einem Rundfunkkanal, einem Rundfunkprogramm oder einem Rundfunkanbieter verknüpft sind. Beispielsweise können die rundfunkverknüpften Informationen einen elektronischen Programmführer (EPG) des digitalen Multimediarundfunks (DMB) oder elektronische Dienstführer (ESG) von digitalen Videorundfunk-Handgeräten (DVB-H) umfassen.
  • Das Rundfunksignal kann als TV-Rundfunksignal, als Radiorundfunksignal oder als Datenrundfunksignal umgesetzt werden. Das Rundfunksignal kann ferner ein Rundfunksignal umfassen, das mit einem TV- oder Radiorundfunksignal kombiniert ist.
  • Das Rundfunkempfangsmodul 111 kann Rundfunksignale empfangen, die von diversen Arten von Rundfunksystemen übertragen werden. Als nicht einschränkendes Beispiel umfassen derartige Rundfunksysteme digitale Multimediarundfunkterrestrische (DMB-T) Systeme, digitale Multimedia-Rundfunk-Satelliten(DMB-S)-Systeme, digitale Videorundfunk-Handgeräte(DVB-H)-Systeme, das Datenrundfunksystem, das als MediaFLO® („media forward link only”) bezeichnet wird, und digitale rundfunkterrestrische Systeme mit integrierten Diensten (ISDB-T).
  • Das Rundfunkempfangsmodul kann auch Multicast-Signale empfangen. Daten, die von dem Rundfunkempfangsmodul 111 empfangen werden, können in einer geeigneten Vorrichtung, wie etwa dem Speicher 160, gespeichert werden.
  • Das mobile Kommunikationsmodul 112 sendet drahtlose Signale an eine oder mehrere Netzwerkentitäten, wie etwa eine Basisstation oder ein B-Knoten, und empfängt diese davon. Die drahtlosen Signale können Audiomaterial, Videomaterial, Multimediamaterial, Steuersignalisierung oder Daten sein.
  • Das drahtlose Internetmodul 113 stellt Internetzugang für das Endgerät bereit. Das drahtlose Internetmodul 113 kann intern oder extern mit dem Endgerät 100 gekoppelt sein. Geeignete Techniken für das drahtlose Internet umfassen ohne Einschränkung WLAN („Wireless LAN”)(Wi-Fi), Wibro („Wireless Broadband”), Wimax („World Interoperability for Microwave Access”) und HSDPA („High Speed Downlink Packet Access”). Das drahtlose Internetmodul kann bei nicht mobilen Endgeräten durch ein drahtgebundenes Internetmodul ersetzt werden. Das drahtlose Internetmodul 113 und das drahtgebundene Internetmodul können gemeinsam als Internetmodul bezeichnet werden.
  • Das Nahbereichskommunikationsmodul 114 ermöglicht Nahbereichskommunikationen. Geeignete Techniken zum Umsetzen dieses Moduls umfassen Radiofrequenz-Identifizierung (RFID), Infrarot-Datenverknüpfung (IrDA), Ultrabreitband (UWB), sowie die Netzwerktechniken, die gewöhnlich als BluetoothTM und Zig-BeeTM bezeichnet werden.
  • Das Positionsbestimmungsmodul 115 identifiziert und erzielt den Standort des Endgeräts 100. Das Positionsbestimmungsmodul 115 kann unter Verwendung von Komponenten des globalen Positionsbestimmungssystems (GPS), die mit dazugehörigen Satelliten und Netzwerkkomponenten zusammenwirken, umgesetzt werden.
  • Die Audio/Video(A/V)-Eingabeeinheit 120 stellt eine Audio- oder Videosignaleingabe für das Endgerät 100 bereit. Die A/V-Eingabeeinheit 120 kann eine Kamera 121 und ein Mikrofon 122 umfassen. Die Kamera 121 empfängt und verarbeitet Einzelbilder von Standbildern oder Videomaterial.
  • Das Mikrofon 122 empfängt ein externes Audiosignal, während sich die tragbare Vorrichtung in einem bestimmten Modus, wie etwa einem Anrufmodus, einem Aufnahmemodus oder einem Spracherkennungsmodus befindet. Das Audiosignal wird verarbeitet und in digitale Daten umgewandelt. Das Endgerät 100 und die A/V-Eingabeeinheit 120 können passende Rauschunterdrückungsalgorithmen umfassen, um ein Rauschen zu unterdrücken, das im Verlauf des Empfangs des externen Audiosignals entsteht.
  • Daten, die von der A/V-Eingabeeinheit 120 generiert werden, können in dem Speicher 160 gespeichert werden, der von der Ausgabeeinheit 150 verwendet wird, oder können über ein oder mehrere Module der Kommunikationseinheit 110 übertragen werden. Das Endgerät 100 kann zwei oder mehrere Mikrofone und Kameras umfassen.
  • Die Benutzereingabeeinheit 130 generiert Eingabedaten in Reaktion auf eine Benutzermanipulation einer oder mehrerer verknüpfter Eingabevorrichtungen. Beispiele derartiger Vorrichtungen umfassen ein Tastenfeld, eine Schnappscheibe, ein Berührungsfeld, ein Datenrad und einen Kippschalter.
  • Die Sensoreinheit 140 stellt Statusmessungen für diverse Aspekte des Endgeräts 100 bereit. Beispielsweise kann die Sensoreinheit einen offenen und geschlossenen Zustand des Endgeräts 100, eine relative Positionierung der Komponenten des Endgeräts, eine Änderung der Position des Endgeräts, eine Änderung der Position einer Komponente des Endgeräts, ein Vorliegen oder Fehlen eines Benutzerkontakts mit dem Endgerät, die Orientierung des Endgeräts oder die Beschleunigung oder Verzögerung des Endgeräts ermitteln. Die Sensoreinheit 140 kann auch das Vorliegen oder Fehlen von Strom, der von der Stromversorgung 190 bereitgestellt wird, und das Vorliegen oder Fehlen einer Verbindung zwischen der Schnittstelleneinheit 170 und einer externen Vorrichtung erfassen.
  • Die Schnittstelleneinheit 170 kann umgesetzt werden, um das Endgerät an eine externe Vorrichtung anzuschließen. Die externen Vorrichtungen umfassen drahtgebundene oder drahtlose Kopfhörer, externe Ladegeräte, Stromversorgungen, Speichervorrichtungen, die ausgelegt sind, Daten oder Mikrofone zu speichern. Die Schnittstelleneinheit 170 kann unter Verwendung eines drahtgebundenen und drahtlosen Datenanschlusses, von Audio-Ein-/Ausgabe(I/O)-Anschlüssen oder Video(I/O)-Anschlüssen ausgelegt werden. Die Schnittstelleneinheit 170 kann auch einen Kartensteckplatz umfassen, um diverse Karten anzuschließen, wie etwa eine Speicherkarte, eine Teilnehmeridentitätsmodul(SIM)-Karte, eine Benutzeridentitätsmodul(UIM)-Karte oder eine auswechselbare Benutzeridentitätsmodul(RUIM)-Karte.
  • Die Ausgabeeinheit 150 gibt Informationen aus, die mit dem Endgerät 100 verknüpft sind. Das Display 151 wird typischerweise umgesetzt, um Informationen anzuzeigen, die mit dem Endgerät 100 verknüpft sind. Beispielsweise kann das Display 151 eine grafische Benutzerschnittstelle bereitstellen, die Informationen umfasst, die mit einem Telefonanruf verknüpft sind, falls das Endgerät in einem Anrufmodus funktioniert. Das Display 151 kann Bilder anzeigen, die mit diversen Modi verknüpft sind, wie etwa mit einem Videogesprächsmodus oder einem Fotomodus.
  • Bei einer Ausführungsform der vorliegenden Erfindung kann das Display 151 als Berührungsbildschirm, der in Zusammenarbeit mit der Eingabeeinheit 130 funktioniert, ausgelegt sein. Diese Konfiguration ermöglicht es dem Display 151, sowohl als Ausgabevorrichtung als auch als Eingabevorrichtung zu funktionieren.
  • Das Display 151 kann unter Verwendung bekannter Anzeigetechnologlen, wie etwa eines Flüssigkristall-Displays (LCD), eines Dünnschichttransistor-Flüssigkristall-Displays (TFT-LCD), eines organischen Leuchtdioden-Displays (OLED), eines biegsamen Displays oder eines dreidimensionalen Displays umgesetzt werden. Das Endgerät 100 kann ein oder mehrere dieser Displays umfassen. Ein Beispiel einer Ausführungsform mit zwei Displays besteht darin, dass ein Display 151 als internes Display ausgelegt ist, das zu betrachten ist, wenn sich das Endgerät in einer geöffneten Position befindet, und ein zweites Display 151 als externes Display ausgelegt ist, das sowohl in der geöffneten als auch in der geschlossenen Position zu betrachten ist.
  • Der Berührungsbildschirm kann ausgelegt sein, einen Berührungseingabedruck zusätzlich zu einer Berührungseingabeposition und eine Berührungseingabefläche zu ermitteln.
  • 1 zeigt ferner die Ausgabeeinheit 150, die ein Audioausgabemodul 152 aufweist. Das Audioausgabemodul 152 kann unter Verwendung von einem oder mehreren von Lautsprechern, Summern oder anderen Audiomaterial erzeugenden Vorrichtungen umgesetzt werden.
  • Das Audioausgabemodul 152 funktioniert in diversen Modi, umfassend einen Anrufempfangsmodus, einen Anrufbetätigungsmodus, einen Aufnahmemodus, einen Spracherkennungsmodus oder einen Rundfunkempfangsmodus. Das Audioausgabemodul 152 gibt Audiomaterial aus, das eine bestimmte Funktion betrifft, wie etwa eine Anrufbenachrichtigung, eine Nachrichtenbenachrichtigung oder eine Fehlerbenachrichtigung.
  • Die Ausgabeeinheit 150 ist ferner abgebildet, wie sie ein Alarmmodul 153 aufweist, das man verwenden kann, um das Vorkommen eines Ereignisses zu identifizieren, das mit dem mobilen Endgerät 100 verknüpft ist. Ein Beispiel einer derartigen Ausgabe umfasst das Bereitstellen einer Vibration als Benachrichtigung für einen Benutzer.
  • Das Alarmmodul 153 kann vibrieren, wenn das Endgerät 100 einen Anruf oder eine Nachricht empfängt. Die Vibration kann auch durch das Alarmmodul 153 in Reaktion darauf bereitgestellt werden, dass eine Benutzereingabe an dem Endgerät 100 empfangen wird, wodurch ein taktiler Rückmeldungsmechanismus bereitgestellt wird. Es versteht sich, dass die diversen Ausgaben, die von den Komponenten der Ausgabeeinheit 150 bereitgestellt werden, getrennt oder unter Verwendung einer beliebigen Kombination der Komponenten ausgeführt werden können.
  • Ein Speicher 160 kann diverse Arten von Daten speichern, um die Verarbeitungs-, Steuerungs- und Speicherbedürfnisse des mobilen Endgeräts 100 zu unterstützen. Beispiele derartiger Daten umfassen Programmanweisungen für Anwendungen, die auf dem mobilen Endgerät 100 funktionieren, Kontaktdaten, Telefonbuchdaten, Nachrichten, Bilder und Videomaterial.
  • Der Speicher 160 kann unter Verwendung einer beliebigen Art von flüchtigem und nicht flüchtigem Speicher oder Speichervorrichtungen umgesetzt werden. Derartige Vorrichtungen können einen Arbeitsspeicher (RAM), einen statischen Arbeitsspeicher (SRAM), einen elektrisch löschbaren programmierbaren Festspeicher (EEPROM), einen löschbaren programmierbaren Festspeicher (EPROM), einen programmierbaren Festspeicher (PROM), einen Festspeicher (ROM), einen Magnetspeicher, einen Flash-Speicher, eine magnetische oder optische Platte, einen Speicher im Kartenformat oder einen anderen ähnlichen Speicher oder eine Datenspeichervorrichtung umfassen.
  • Der Controller 180 steuert die Gesamtvorgänge des Endgeräts. Beispielsweise führt der Controller 180 die Steuerung und die Verarbeitung aus, die mit Sprachanrufen, Datenkommunikationen, Videogesprächen, Kameravorgängen und Aufnahmevorgängen verknüpft sind.
  • Der Controller kann ein Multimediamodul 181 umfassen, das eine Multimedia-Wiedergabe bereitstellt. Das Multimediamodul 181 kann als Teil des Controllers 180 ausgelegt sein oder kann als getrennte Komponente umgesetzt werden.
  • Die Stromversorgung 190 stellt den diversen Komponenten des Endgeräts 100 Strom bereit. Der bereitgestellte Strom kann interner Strom oder externer Strom sein.
  • Diverse hier beschriebene Ausführungsformen können in einem computerlesbaren Medium unter Verwendung von Computer-Software umgesetzt werden. Die diversen Ausführungsformen können auch als Hardware umgesetzt werden.
  • Eine Hardware-Umsetzung kann unter Verwendung einer oder mehrerer anwendungsspezifischer integrierter Schaltungen (ASIC), digitaler Signalprozessoren (DSP), digitaler Signalverarbeitungsvorrichtungen (DSPD), programmierbarer Logikbausteine (PLD), benutzerprogrammierbarer Gate-Arrays (FPGA), Prozessoren, Controllern, Mikrocontrollern, Mikroprozessoren oder anderen elektronischen Einheiten, die ausgelegt sind, die hier beschriebenen Funktionen auszuführen, umgesetzt werden. Einige Ausführungsformen werden von dem Controller 180 umgesetzt.
  • Eine Software-Umsetzung der hier beschriebenen Ausführungsformen kann mit getrennten Software-Modulen umgesetzt werden, wie etwa mit Prozeduren und Funktionen, die jeweils eine oder mehrere der hier beschriebenen Funktionen und Vorgänge ausführen. Der Software-Code kann mit einer Software-Anwendung umgesetzt werden, die in einer beliebigen geeigneten Programmiersprache verfasst ist, und kann in dem Speicher 160 zur Ausführung durch den Controller 180 oder einen Prozessor gespeichert werden.
  • Das mobile Endgerät 100 kann in zahlreichen verschiedenen Konfigurationen umgesetzt werden. Beispiele derartiger Konfigurationen umfassen ein Klapp-, Schiebe-, Block-, Dreh- und Schwenkmodell.
  • Der Übersichtlichkeit halber betrifft die weitere Offenbarung hauptsächlich ein mobiles Endgerät 100 nach Art eines Schiebemodells. Diese Lehren gelten jedoch ebenso für andere Arten von mobilen Endgeräten 100.
  • 2 ist eine perspektivische Ansicht einer Vorderseite eines mobilen Endgeräts 100 gemäß einer Ausführungsform der vorliegenden Erfindung. Wie in 2 abgebildet, wird das mobile Endgerät 100 gezeigt, wie es einen ersten Hauptteil 200 aufweist, der ausgelegt ist, verschiebbar mit einem zweiten Hauptteil 205 zusammenzuwirken.
  • Die Benutzereingabeeinheit 130, die in 1 beschrieben wird, kann eine erste Eingabeeinheit umfassen, wie etwa Funktionstasten und vier Richtungstasten 210, eine zweite Eingabeeinheit, wie etwa ein Tastenfeld 215, und eine dritte Eingabeeinheit, wie etwa die seitlichen Tasten 245. Die Funktionstasten 210 sind mit dem ersten Hauptteil 200 verknüpft, und das Tastenfeld 215 ist mit dem zweiten Hauptteil 205 verknüpft. Das Tastenfeld kann diverse Tasten umfassen, wie etwa Zahlen, Buchstaben und Symbole, um es einem Benutzer zu ermöglichen, einen Anruf zu tätigen, einen Text oder eine Multimedia-Nachricht zu verfassen und das mobile Endgerät 100 anderweitig zu betätigen.
  • Der erste Hauptteil 200 verschiebt sich mit Bezug auf den zweiten Hauptteil 205 zwischen geöffneten und geschlossenen Positionen. Obwohl dies in den Zeichnungen nicht gezeigt ist, wird bei einem klappbaren mobilen Endgerät ein erster Hauptteil desselben mit Bezug auf einen zweiten Hauptteil desselben zwischen den geöffneten und geschlossenen Positionen auf- und zugeklappt. Zusätzlich verschwenkt sich bei einem schwenkbaren mobilen Endgerät ein erster Hauptteil desselben mit Bezug auf einen zweiten Hauptteil desselben zwischen den geöffneten und geschlossenen Positionen.
  • Der erste Hauptteil 200 ist über dem zweiten Hauptteil 205 in der geschlossenen Position derart positioniert, dass das Tastenfeld 215 im Wesentlichen oder vollständig von dem ersten Hauptteil verdeckt ist. Der Benutzer kann auf das Tastenfeld 215, das Display 151 und die Funktionstasten 210 in der offenen Position zugreifen. Die Funktionstasten 210 können so ausgelegt sein, dass ein Benutzer Befehle eingibt, wie etwa Start, Stopp oder Bildlauf.
  • Das mobile Endgerät 100 kann entweder in einem Bereitschaftsmodus oder in einem aktiven Anrufmodus bedient werden. Typischerweise funktioniert das Endgerät 100 im Bereitschaftsmodus, wenn es sich in der geschlossenen Position befindet, und im aktiven Modus, wenn es sich in der offenen Position befindet. Die Moduskonfiguration kann je nach Bedarf oder nach Wunsch des Benutzers geändert werden.
  • Der erste Hauptteil 200 besteht aus einem ersten Gehäuse 220 und einem zweiten Gehäuse 225 und der zweite Hauptteil 205 besteht aus einem ersten Gehäuse 230 und einem zweiten Gehäuse 235. Die jeweiligen ersten und zweiten Gehäuse können aus einem geeignet steifen Material gebildet werden, wie etwa aus spritzgegossenem Plastik, oder können unter Verwendung eines metallischen Materials, wie etwa Edelstahl (STS) und Titan (Ti), gebildet werden.
  • Ein oder mehrere Zwischengehäuse können zwischen dem ersten Gehäuse 220 und dem zweiten Gehäuse 225 des ersten Hauptteils 200 oder zwischen dem ersten Gehäuse 230 und dem zweiten Gehäuse 235 des zweiten Hauptteils 205 bereitgestellt werden. Der erste Hauptteil 200 und der zweite Hauptteil 205 können dimensioniert sein, um die elektronischen Komponenten aufzunehmen, die notwendig sind, um die Betätigung des mobilen Endgeräts 100 zu unterstützen.
  • Der erste Hauptteil 200 wird abgebildet, wie er eine Kamera 121 und ein Audioausgabemodul 152 aufweist. Die Kamera 121 kann derart selektiv positioniert sein, dass sich die Kamera mit Bezug auf den ersten Hauptteil 200 drehen oder verschwenken kann.
  • Die Funktionstasten 210 sind neben einer unteren Seite des Displays 151 positioniert. Das Display 151 wird als LCD umgesetzt. Das Display 151 kann auch als Berührungsbildschirm ausgelegt sein, der ein darunterliegendes Berührungsfeld aufweist, das in Reaktion auf einen Benutzerkontakt mit dem Berührungsbildschirm Signale generiert.
  • Der zweite Hauptteil 205 wird abgebildet, wie er ein Mikrofon 122, das neben dem Tastenfeld 215 positioniert ist, und seitliche Tasten 245, die entlang der Seite positioniert sind, aufweist. Die seitlichen Tasten 245 können als Kurzbefehlstasten ausgelegt sein, so dass die seitlichen Tasten mit einer bestimmten Funktion des Endgeräts 100 verknüpft sind.
  • Eine Schnittstelleneinheit 170 ist abgebildet, wie sie neben den seitlichen Tasten 245 positioniert ist. Eine Stromversorgung 190 in Form einer Batterie befindet sich in einem unteren Abschnitt des zweiten Hauptteils 205.
  • 3 ist eine Rückansicht des in 2 gezeigten mobilen Endgeräts 100. Wie in 3 abgebildet, umfasst der zweite Hauptteil 205 eine Kamera 123, ein Blitzlicht 250 und einen Spiegel 255.
  • Das Blitzlicht 250 funktioniert in Verbindung mit der Kamera 123. Der Spiegel 255 ist nützlich, um einem Benutzer dabei zu helfen, die Kamera 123 in einen Selbstportrait-Modus zu positionieren.
  • Die Kamera 123 des zweiten Hauptteils 205 ist in eine Richtig gewandt, die gegenüber einer Richtung liegt, die der Kamera 121 des ersten Hauptteils 200 zugewandt ist. Die Kamera 121 des ersten Hauptteils 200 und die Kamera 123 des zweiten Hauptteils 205 können die gleichen oder unterschiedliche Fähigkeiten aufweisen.
  • Bei einer Ausführungsform funktioniert die Kamera 121 des ersten Hauptteils 200 mit einer relativ niedrigeren Auflösung als die Kamera 123 des zweiten Hauptteils 205. Eine derartige Anordnung ist bei einer Videokonferenz günstig, bei der die Bandbreitenkapazitäten der Rückverbindung beschränkt sein können. Die relativ höhere Auflösung der Kamera 123 des zweiten Hauptteils 205 ist nützlich, um Bilder in besserer Qualität zu erzielen.
  • Der zweite Hauptteil 205 umfasst auch ein Audioausgabemodul 153, das als Lautsprecher ausgelegt ist, der sich auf einer oberen Seite des zweiten Hauptteils befindet. Das Audioausgabemodul 152 des ersten Hauptteils 200 und das Audioausgabemodul 153 des zweiten Hauptteils 205 können zusammenwirken, um eine Stereoausgabe bereitzustellen. Des Weiteren kann eines oder können beide der Audioausgabemodule 152 und 153 ausgelegt sein, als Freisprecheinrichtung zu dienen.
  • Eine Rundfunksignal-Empfangsantenne 260 befindet sich an einem oberen Ende des zweiten Hauptteils 205. Die Antenne 260 funktioniert zusammen mit dem Rundfunkempfangsmodul 111. Die Antenne 260 kann festgelegt sein oder kann ausgelegt sein, in den zweiten Hauptteil 205 eingezogen zu werden.
  • Die Rückseite des ersten Hauptteils 200 umfasst ein Schiebemodul 265. Das Schiebemodul 265 ist verschiebbar mit einem entsprechenden Schiebemodul (nicht abgebildet) gekoppelt, das sich auf der Vorderseite des zweiten Hauptteils 205 befindet.
  • Es versteht sich, dass die abgebildete Anordnung der diversen Komponenten des ersten Hauptteils 200 und des zweiten Hauptteils 205 je nach Wunsch geändert werden kann. Einige oder alle der Komponenten eines Hauptteils können alternativ auf dem anderen Hauptteil umgesetzt werden. Zusätzlich sind die Position und die relative Positionierung der Komponenten für viele Ausführungsformen nicht kritisch, und daher können die Komponenten an Positionen positioniert sein, die anders als die in den repräsentativen Figuren abgebildeten sind.
  • Das mobile Endgerät 100 kann in einem Kommunikationssystem funktionieren, das in der Lage ist, Daten anhand von Rahmen oder Paketen zu übertragen. Das Kommunikationssystem kann eine drahtgebundene Kommunikation, eine drahtlose Kommunikation oder ein Kommunikationssystem auf Satellitenbasis umfassen.
  • Das Kommunikationssystem kann diverse Systeme verwenden, wie etwa Frequenzmultiplex (FDMA), Zeitmultiplex (TDMA), Codemultiplex (CDMA), ein universelles mobiles Telekommunikationssystem (UMTS), die langfristige Entwicklung (LTE) des UMTS oder das globale System für mobile Kommunikation (GSM). Als nicht einschränkendes Beispiel betrifft die weitere Beschreibung ein CDMA-Kommunikationssystem, doch gelten diese Lehren ebenso für andersartige Systeme.
  • Wie in 4 abgebildet, ist ein drahtloses CDMA-Kommunikationssystem abgebildet, das eine Vielzahl von Endgeräten 100, eine Vielzahl von Basisstationen (BS) 270, Basisstation-Controllern (BSC) 275 und eine Mobilfunkvermittlungsstelle (MSC) 280 aufweist. Die MSC 280 ist ausgelegt, die Schnittstelle zu einem herkömmlichen öffentlichen Fernsprechnetz (PSTN) 290 zu bilden, und ist auch ausgelegt, die Schnittstelle zu den BSCs 275 zu bilden.
  • Die BSCs 275 sind mit den BS 270 über Anbindungsleitungen gekoppelt. Die Anbindungsleitungen können gemäß einer von mehreren bekannten Schnittstellen ausgelegt sein, wozu E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL oder xDSL gehören. Es versteht sich, dass das System mehr als zwei BSCs 275 umfassen kann.
  • Jede BS 270 kann einen oder mehrere Sektoren umfassen, wobei jeder Sektor eine Rundstrahlantenne oder eine Antenne, die in eine bestimmte Richtung zeigt, die sich radial von der BS 270 entfernt, aufweist. Jeder Sektor kann zwei Antennen für den Diversity-Empfang aufweisen. Jede BS 270 kann ausgelegt sein, eine Vielzahl von Frequenzzuteilungen zu unterstützen, wobei jede Frequenzzuteilung ein bestimmtes Spektrum aufweist.
  • Der Schnittpunkt eines Sektors und einer Frequenzzuteilung kann als CDMA-Kanal bezeichnet werden. Die BS 270 können auch als Basisstation-Transceiver-Teilsysteme (BTS) bezeichnet werden. Bei einer alternativen Ausführungsform kann der Begriff „Basisstation” verwendet werden, um sich insgesamt auf einen BSC 275 und eine oder mehrere BS 270 zu beziehen.
  • Die BS 270 können auch als „Zellenstandorte” bezeichnet werden. Alternativ können einzelne Sektoren einer bestimmten BS 270 als Zellenstandorte bezeichnet werden.
  • Ein Rundfunksender (BT) 295 ist abgebildet, wie er an mobile Endgeräte 100 ausstrahlt, die innerhalb des Systems funktionieren. Das Rundfunkempfangsmodul 111 des mobilen Endgeräts 100 ist ausgelegt, Rundfunksignale zu empfangen, die von dem BT 295 gesendet werden. Ähnliche Anordnungen können für andere Rundfunkarten oder für Multicast-Signalisierung umgesetzt werden.
  • 4 zeigt auch mehrere Satelliten 300 des globalen Positionsbestimmungssystems (GPS). Die GPS-Satelliten 300 ermöglichen die Bestimmung der Position von einigen oder allen Endgeräten 100. Das Positionsbestimmungsmodul 115 des mobilen Endgeräts 100 ist typischerweise ausgelegt, mit den Satelliten 300 zusammenzuwirken, um Positionsinformationen zu erzielen.
  • Zusätzlich oder anstelle der GPS-Positionsbestimmungstechnik können andersartige Positionsdetektionstechniken verwendet werden. Einige oder alle der GPS-Satelliten 300 können alternativ oder zusätzlich ausgelegt sein, Satelliten-DMB-Übertragungen bereitzustellen.
  • Die BS 270 empfangen Gruppen von Umkehrleitungssignalen von diversen Endgeräten 100 während des Betriebs des drahtlosen Kommunikationssystems. Die Endgeräte 100 führen Anrufe, Nachrichtendienste oder andere Kommunikationen aus.
  • Jedes Umkehrleitungssignal, das von einer BS 270 empfangen wird, wird innerhalb dieser BS verarbeitet. Die sich ergebenden Daten werden an einen dazugehörigen BSC 275 weitergeleitet. Der BSC 275 stellt eine Funktionalität der Anrufressourcen-Zuteilung und der Mobilitätsverwaltung bereit, wozu unterbrechungslose Übergaben zwischen den Basisstationen 270 gehören. Die BSCs 275 leiten auch die empfangenen Daten zur MSC 280, die zusätzliche Leitwegdienste für die Schnittstelle mit dem PSTN 290 bereitstellt. Ähnlich bildet das PSTN 290 eine Schnittstelle mit der MSC 280, und die MSC bildet eine Schnittstelle mit dem BSC 275, der wiederum die BS 270 steuert, um Gruppen von Vorwärtsverbindungssignalen an die Endgeräte 100 zu übertragen.
  • In der nachstehenden Beschreibung wird ein Steuerverfahren, das auf das wie oben ausgelegte mobile Endgerät 100 anwendbar ist, mit Bezug auf diverse Ausführungsformen erklärt. Es versteht sich, dass die nachstehenden Ausführungsformen unabhängig oder kombiniert umgesetzt werden können.
  • Eine Näherungsberührung kann dadurch definiert werden, dass ein Zeiger den Berührungsbildschirm nicht berührt. In der Beschreibung kann der Zeiger ein Hilfsmittel sein, um einen bestimmten Punkt auf dem Bildschirm zu berühren oder fast zu berühren.
  • Zusätzlich kann eine Berührung oder tatsächliche Berührung dadurch definiert werden, dass der Zeiger den Berührungsbildschirm berührt/kontaktiert. Bei diesem Beispiel kann der Controller 180 die Berührung als vorbestimmtes Eingabesignal ermitteln.
  • Das mobile Endgerät 100 gemäß einer Ausführungsform der vorliegenden Erfindung kann die Näherungsberührung oder die Berührung anhand einer Sensoreinheit 140 erfassen. Die Sensoreinheit 140 kann umfassen diverse Sensoren umfassen, um diverse Sensorfunktionen auszuführen. Beispielsweise kann die Sensoreinheit 140 einen Näherungssensor oder einen Tastsensor umfassen. Der Näherungssensor kann das Vorliegen oder Fehlen von Objekten, die sich einer Detektionsfläche nähern, oder von Objekten, die in der Nähe der Detektionsfläche vorliegen, unter Verwendung einer elektromagnetischen Kraft oder von Infrarotstrahlen ohne mechanischen Kontakt ermitteln. Zusätzlich gibt der Näherungssensor keine EIN/AUS-Ausgabe anhand des mechanischen Kontakts aus, sondern gibt die EIN/AUS-Ausgabe aus, wenn ein Sensorobjekt in den Sensorbereich eingebracht wird, der durch den Sensor definiert wird. Daher kann der Näherungsschalter im Vergleich zu dem Berührungsschalter eine bessere Haltbarkeit aufweisen.
  • Das Funktionsprinzip des Näherungsschalters dämpft oder unterbindet die Schwingungsamplitude eines Schwingkreises, wenn sich das Sensorobjekt der Sensorfläche des Sensors während der Schwingung der sinusförmigen Hochfrequenz in dem Schwingkreis nähert, und wandelt eine derartige Änderung in ein elektrisches Signal um, wodurch das Vorliegen oder Fehlen des Sensorobjekts erkannt wird. Daher unterbrechen eventuelle Materialien, die zwischen dem auf Hochfrequenz schwingenden Näherungssensor und dem Sensorobjekt angeordnet sind, die Detektion des Sensorobjekts nicht. Zusätzlich kann der Tastsensor einen Sensor umfassen, der eine Berührung mit einem bestimmten Objekt über den Bereich einer normalen menschlichen Berührung hinweg erkennt. Der Tastsensor kann diverse Informationen erfassen, wie etwa die Rauheit der Berührungsfläche, die Härte des Berührungsobjekts oder die Temperatur des Berührungspunktes.
  • Die Sensoreinheit 140 kann auch eine Näherungsdistanz oder eine Näherungsgeschwindigkeit erfassen. Die Näherungsdistanz kann eine Abstandsdistanz zwischen dem Berührungsbildschirm und dem Zeiger umfassen. Zusätzlich kann die Näherungsgeschwindigkeit eine Geschwindigkeit des Zeigers, der sich dem Berührungsbildschirm nähert, oder des Zeigers, der sich von dem Berührungsbildschirm entfernt, umfassen.
  • Schließlich kann die Sensoreinheit 140 ein Ziehen oder ein Näherungsziehen erfassen. Die Sensoreinheit 140 kann eine Ziehrichtung, eine Ziehgeschwindigkeit oder eine Ziehlänge des Ziehens oder des Näherungsziehens erfassen. Das Ziehen kann dadurch definiert werden, dass eine Berührung gezogen wird. Das Näherungsziehen kann dadurch definiert werden, dass der näherungsberührte Punkt gezogen wird. Ferner kann man das Näherungsberühren eines Punktes auf dem Berührungsbildschirm als das Erkennen, dass der Zeiger in einer Position positioniert ist, die dem Punkt senkrecht entspricht, definieren.
  • Nachstehend wird das mobile Endgerät 100, das einen Berührungsbildschirm umfasst, als Beispiel beschrieben. Das mobile Endgerät 100 gemäß einer Ausführungsform der vorliegenden Erfindung kann ein Display am Berührungsbildschirm gemäß der Beziehung zwischen einer tatsächlichen Berührung und einer Näherungsberührung steuern.
  • Nachstehend wird ein Steuerverfahren des Berührungsbildschirms gemäß der Beziehung der tatsächlichen Berührung und der Näherungsberührung mit Bezug auf die Zeichnungen ausführlich beschrieben.
  • 5 ist ein Ablaufschema für ein Verfahren des Ausführens einer Bildlauffunktion des Berührungsbildschirms des mobilen Endgeräts gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Die Sensoreinheit 140 kann eine tatsächliche Berührung an einem Display 151 erfassen (S10). Die Sensoreinheit 140 erfasst die Berührung, falls der Zeiger einen Bereich des Displays 151 berührt. Nach dem Erfassen der tatsächlichen Berührung kann die Sensoreinheit 140 eine Näherungsberührung erfassen (S20). Falls die Sensoreinheit 140 das Vorliegen einer Näherungsberührung bestimmt, kann der Benutzer ein Näherungsziehen ausführen (S30). Wenn das Näherungsziehen anhand des Zeigers ausgeführt wird, kann ein Controller 180 die Bildlauffunktion gemäß dem Näherungsziehen ausführen (S40). Zusätzlich kann die Sensoreinheit 140 bestimmen, ob die Näherungsberührung losgelassen wurde (S50). Falls die Näherungsberührung losgelassen wurde, kann der Controller 180 die Bildlauffunktion beenden.
  • Der Controller 180 kann eine Bildlaufrichtung gemäß einer Richtung des Näherungsziehens steuern. Falls beispielsweise die Ziehrichtung „nach unten” geht, wird der Bildlauf in der Richtung nach unten ausgeführt. Falls die Ziehrichtung „nach oben” geht, wird der Bildlauf in die Richtung nach oben ausgeführt.
  • Zusätzlich kann der Controller 180 die Bildlaufgeschwindigkeit gemäß den Eigenschaften der Länge des Näherungsziehens steuern. Beispielsweise kann die Bildlaufgeschwindigkeit gemäß der Länge des Näherungsziehens angepasst werden. Ferner kann der Controller die Bildlaufgeschwindigkeit gemäß der Richtung des Näherungsziehens steuern. Wenn das Näherungsziehen beispielsweise in einer ersten Richtung bewegt wird und dann in die entgegengesetzte Richtung bewegt wird, kann der Controller 180 die Bildlaufgeschwindigkeit der ersten Richtung reduzieren. Zusätzlich kann der Controller 180 den Bildlauf vollständig beenden, falls das Näherungsziehen in die der ersten Richtung entgegengesetzte Richtung bewegt wird.
  • Im Gegensatz zum Beenden des Bildlaufs, wie zuvor besprochen, kann der Controller 180 die Bildlauffunktion beenden, in durch das Näherungsziehen ausgeführt wird, falls der Zeiger in einer Position außerhalb eines erkennbaren Bereichs der Sensoreinheit 140 positioniert ist (S50, S60).
  • 6 bildet ein Beispiel eines Näherungsziehens gemäß dem Verfahren aus 5 ab.
  • Wie in 6a abgebildet, kann ein Punkt 601 auf dem Berührungsbildschirm mit einem Zeiger, wie etwa einem Finger, berührt werden. Um einen Falsch-Positiv-Befund zu verhindern, kann der Controller 180 ein Näherungsziehen eventuell nicht ausführen, falls die Sensoreinheit 140 eine Näherungsberührung innerhalb des Berührungsbereichs 602 erfasst, nachdem sie die Berührung in Punkt 601 erfasst hat.
  • Wie in 6b abgebildet, kann der Controller 180 die Bildlauffunktion jedoch ausführen, falls der Berührungsbildschirm an einem zweiten Punkt 603 näherungsberührt wird, der sich außerhalb des Berührungsbereichs 602 befindet. Wie in 6b abgebildet, falls die Richtung des Näherungsziehens nach unten geht, dann kann die Bildlauffunktion in der Richtung nach unten ausgeführt werden.
  • Zusätzlich kann der Berührungsbereich 602 manchmal deaktiviert sein.
  • 7 bildet ein Beispiel des in 5 gezeigten Verfahrens ab.
  • Der Controller 180 kann einen Bildlaufwinkel oder eine Bildlaufgeschwindigkeit gemäß der näherungsgezogenen Distanz oder der Richtung steuern. Nachdem ein erster Punkt 701 auf dem Berührungsbildschirm berührt wurde, kann das Näherungsziehen von dem ersten Punkt 701 zu einem zweiten Punkt 703 ausgeführt werden. Die Richtung des Näherungsziehens ist eine Richtung nach unten links, und die Länge des Näherungsziehens ist L1. Somit kann der Controller 180 die Bildlauffunktion in der Richtung nach unten links ausführen. Zusätzlich kann der Controller 180 die Bildlaufgeschwindigkeit gemäß der Ziehlänge L1 steuern. Der Controller 180 kann die Bildlaufgeschwindigkeit so schnell erhöhen, wie die Länge des Näherungsziehens zunimmt.
  • 8 bildet ein anderes Beispiel des Ausführens des in 5 gezeigten Verfahrens ab.
  • Der Controller 180 kann die Bildlauffunktion ausführen, falls das Näherungsziehen von einem ersten Punkt bis zu einem zweiten Punkt ausgeführt wird, nachdem der erste Punkt auf dem Berührungsbildschirm berührt wurde.
  • Der Controller 180 kann die Bildlauffunktion in einer Pfeilrichtung ausführen, so lange der Zeiger, wie etwa ein Finger, die Näherungsberührungsposition an dem zweiten Punkt festhält. Der Controller 180 beendet die Bildlauffunktion, wenn der Zeiger aus der Näherungsberührungsposition an dem zweiten Punkt losgelassen wird.
  • 9 bildet ein anderes Beispiel des Ausführens des in 5 gezeigten Verfahrens ab.
  • Wie in 9 abgebildet, kann der Controller 180 die Bildlaufgeschwindigkeit gemäß der Richtung des Näherungsziehens steuern. Der Controller 180 kann die Bildlauffunktion ausführen, wenn das Näherungsziehen von dem ersten Punkt zu dem zweiten Punkt ausgeführt wird, nachdem der erste Punkt auf dem Berührungsbildschirm berührt wurde. Wie beispielsweise in 9 abgebildet, kann die Bildlauffunktion in eine Richtung nach unten gehen. Während der Controller 180 den Bildlauf ausführt, falls das Näherungsziehen in einer entgegengesetzten Richtung erfolgt, wie etwa nach oben, kann der Controller 180 die Bildlaufgeschwindigkeit, die in der Richtung nach unten erfolgt, langsam reduzieren. Der Controller 180 kann die fortgeschrittene Bildlaufgeschwindigkeit langsam anhalten, indem er eine Beschleunigung in einer Richtung verwendet, die der Richtung, in welcher der Bildlauf fortschreitet, entgegengesetzt ist.
  • Zusätzlich kann die in 6 bis 9 abgebildete Bildlauffunktion beendet werden, falls die Näherungsberührung losgelassen wird. 10 bildet ein Beispiel des Loslassens der Näherungsberührung ab.
  • Wie in 10 abgebildet, erfasst die Sensoreinheit 140 bevorzugt eine Näherungsberührung, die sich innerhalb des „Näherungsberührungs-Sensorbereichs” befindet. Der Näherungsberührungs-Sensorbereich befindet sich in einer vorbestimmten Distanz von dem Display 151. Wenn der Zeiger, wie etwa ein Finger, außerhalb des Näherungsberührungs-Sensorbereichs positioniert wird, kann die Sensoreinheit 140 den Zeiger nicht erfassen. Wie zuvor besprochen, kann der Controller 180 die Bildlauffunktion beenden, wenn sich die Näherungsberührung außerhalb des Näherungsberührungs-Sensorbereichs befindet.
  • 11 bildet ein Ablaufschema für ein Zoomverfahren des Berührungsbildschirms des mobilen Endgeräts gemäß einer Ausführungsform der vorliegenden Erfindung ab. Die Zoomfunktion ist mit einem Mittel zur Bildschirmerweiterung oder zur Bildschirmreduzierung verknüpft. Eine Einzoomfunktion erweitert die Anzeige, und die Auszoomfunktion reduziert die Anzeige.
  • Die Sensoreinheit 140 kann die tatsächliche Berührung an dem Display 151 erfassen (S110). Nach der tatsächlichen Berührung kann die Sensoreinheit 140 die Näherungsberührung erfassen (S120). Sobald die Näherungsberührung ermittelt wurde, kann das Näherungsziehen ausgeführt werden (S130). Der Controller 180 kann den Zoom gemäß der Richtung des Näherungsziehens steuern. Der Controller kann die Anzeige zoomen, falls das Näherungsziehen in einer Richtung erfolgt, die sich von einer bestimmten Referenz entfernt oder sich dieser nähert (S140, S150). Zusätzlich kann der Controller 180 die Drehung gemäß dem Winkel des Näherungsziehens steuern. Der Controller kann das Display drehen, falls das Näherungsziehen in einem Drehwinkel erfolgt (S160, S170).
  • Beispielsweise kann der Controller 180 einzoomen, falls sich das Näherungsziehen von der spezifischen Referenz entfernt, und kann auszoomen, falls sich das Näherungsziehen der spezifischen Referenz nähert. Zusätzlich kann der Controller 180 die Zoomfunktion gemäß der Länge des Näherungsziehens steuern.
  • Ferner kann der Controller 180 die Drehfunktion des Berührungsbildschirms ausführen (S170). Beispielsweise kann der Controller 180 den Berührungsbildschirm um 30° im Uhrzeigersinn drehen, wenn der näherungsgezogene Punkt mit Bezug auf einen Referenzpunkt um 30° im Uhrzeigersinn gedreht wird.
  • Zusätzlich kann der gedrehte Winkel des Berührungsbildschirms anders als der Drehwinkel des Näherungsziehens sein. Beispielsweise kann der Controller 180 den Berührungsbildschirm um 15° im Uhrzeigersinn drehen, wenn der näherungsgezogene Punkt mit Bezug auf einen Referenzpunkt um 30° im Uhrzeigersinn gedreht wird.
  • Wenn der Zeiger ferner eine vorbestimmte Zeit lang außerhalb des Näherungsberührungs-Sensorbereichs der Sensoreinheit 140 positioniert ist, kann die Zoomfunktion oder die Drehfunktion des Berührungsbildschirms beendet werden. Um zusätzlich Falsch-Positiv-Befunde zu verhindern, kann der Controller 180 den Zoom oder die Drehung eventuell nicht ausführen, falls das Näherungsziehen gleich oder kleiner als eine vorbestimmte Distanz ist.
  • 12 bildet ein Beispiel des Zoomverfahrens des Berührungsbildschirms des mobilen Endgeräts gemäß 11 ab.
  • 12a bildet ein Beispiel ab, bei dem der Berührungsbildschirm durch das Näherungsziehen erweitert wird. Nachdem ein vorbestimmter Punkt auf dem Berührungsbildschirm mit dem Zeiger, wie etwa einem Finger, berührt wurde, falls sich das Näherungsziehen von der Mitte des Berührungsbildschirms entfernt, kann der Controller 180 auf dem Berührungsbildschirm einzoomen. Der Controller kann eine Einzoomvergrößerung basierend auf der Distanz (d1) von der Mitte des Berührungsbildschirms bis zu dem vorbestimmten Punkt und einer Distanz (d2) von der Mitte des Berührungsbildschirms bis zu der Position des Näherungsziehens bestimmen. Beispielsweise kann eine Einzoomvergrößerungsstufe gleich dem Ergebnis von „d2” geteilt durch „d1” (d2/d1) sein.
  • 12b bildet ein Beispiel des Reduzierens des Berührungsbildschirms durch das Näherungsziehen ab. Nachdem ein vorbestimmter Punkt auf dem Berührungsbildschirm mit einem Zeiger, wie etwa einem Finger, berührt wurde, falls das Näherungsziehen in einer Richtung zur Mitte des Berührungsbildschirms erfolgt, kann der Controller 180 auf dem Berührungsbildschirm auszoomen. Der Controller kann die Auszoomstufe gemäß einer Distanz (d3) von der Mitte des Berührungsbildschirms bis zu dem vorbestimmten Punkt und einer Distanz (d4) von der Mitte des Berührungsbildschirms bis zu der Position des Näherungsziehens bestimmen. Beispielsweise kann die Auszoomstufe gleich dem Ergebnis von „d4” geteilt durch „d3” (d4/d3) sein.
  • Um zusätzlich Falsch-Positiv-Befunde zu vermeiden, kann der Controller 180 die Zoomfunktion eventuell nicht ausführen, falls das Näherungsziehen innerhalb des vorbestimmten Bereichs erfolgt.
  • 13 bildet ein Beispiel des Drehverfahrens des Berührungsbildschirms gemäß 11 ab.
  • Wie in 13 abgebildet, nachdem ein vorbestimmter Punkt auf dem Berührungsbildschirm mit einem Zeiger, wie etwa einem Finger, berührt wurde, falls das Näherungsziehen mit Bezug auf die Mitte des Berührungsbildschirms in einem Winkel erfolgt, kann der Controller 180 den Berührungsbildschirm drehen. Der Controller 180 dreht den Berührungsbildschirm gemäß dem Winkel und der Richtung, die durch das Näherungsziehen gedreht wurden. Beispielsweise kann der Controller 180 den Berührungsbildschirm um 30° im Gegenuhrzeigersinn drehen, wenn der Punkt des Näherungsziehens mit Bezug auf die Mitte des Berührungsbildschirms um 30° gedreht und bewegt wird.
  • Um zusätzlich Falsch-Positiv-Befunde zu vermeiden, kann der Controller 180 die Drehfunktion eventuell nicht ausführen, wenn das Näherungsziehen innerhalb des vorbestimmten Bereichs erfolgt.
  • 14 bildet ein Ablaufschema für ein Zoom- und Drehverfahren des Berührungsbildschirms des mobilen Endgeräts basierend auf der Beziehung zwischen der Berührung und der Näherungsberührung 36 gemäß einer Ausführungsform der vorliegenden Erfindung ab. Die Sensoreinheit 140 erfasst die Näherungsberührung an dem vorbestimmten Punkt des Displays 151, und der Controller 180 zeigt ein spezifisches Icon an, um die Zoomfunktion oder die Drehfunktion auszuführen (S210, S220). Ein Benutzer kann die Zoomfunktion oder die Drehfunktion des Berührungsbildschirms über das spezifische Icon aktivieren. Das spezifische Icon kann an dem näherungsberührten Punkt angezeigt werden. Beispielsweise kann der Controller 180 eine Animation auf dem Berührungsbildschirm anzeigen, bevor er das spezifische Icon anzeigt, um den Benutzer über den näherungsberührten Punkt zu informieren.
  • Der Controller 180 kann die Position des spezifischen Icons um eine spezifische Signaleingabe bewegen (S230, S240). Der Controller 180 kann die Zoomfunktion oder die Drehfunktion des Berührungsbildschirms über die Bewegung des Icons ausführen.
  • Der Controller 180 kann die Zoomfunktion oder die Drehfunktion des Berührungsbildschirms gemäß der Bewegung des Icons über eine tatsächliche Berührung ausführen (S260, S270, S280, S290).
  • Der Controller 180 kann die Zoomfunktion ausführen, wenn das Icon in einer geraden Richtung gezogen wird (S250, S260, S270). Beispielsweise kann der Controller 180 die Einzoomfunktion ausführen, falls das Icon in Richtung auf eine spezifische Referenz gezogen wird, und kann die Auszoomfunktion ausführen, falls das Icon von der spezifischen Referenz weggezogen wird. Auch kann der Controller 180 die Zoomstufen gemäß der Länge des Berührungsziehens steuern.
  • Der Controller 180 kann den Berührungsbildschirm auch drehen, wenn der vorbestimmte Punkt des Icons mit Bezug auf einen Referenzpunkt in einem Winkel gezogen wird (S250, S280, S290). Beispielsweise kann der Controller 180 den Berührungsbildschirm um 90° im Uhrzeigersinn drehen, falls das Icon mit Bezug auf einen Referenzpunkt um 90° im Uhrzeigersinn gedreht wird. Zusätzlich kann sich der gedrehte Winkel des Berührungsbildschirms von dem Drehwinkel des gezogenen Icons unterscheiden. Beispielsweise kann der Controller 180 den Berührungsbildschirm um 15° im Uhrzeigersinn drehen, falls das Icon mit Bezug auf einen Referenzpunkt um 30° im Uhrzeigersinn gezogen wird.
  • Zusätzlich kann der Controller 180 die Bildlauffunktion des Berührungsbildschirms ausführen, während das Icon für den Zoom und die Drehung angezeigt wird.
  • Um ferner Falsch-Positiv-Befunde zu vermeiden, kann der Controller 180 die Zoom- oder Drehfunktion eventuell nicht ausführen, falls das Ziehen innerhalb des vorbestimmten Bereichs erfolgt.
  • 15 bildet ein Beispiel des Anzeigens des Icons zum Ausführen der Zoomfunktion oder der Drehfunktion des Berührungsbildschirms gemäß dem in 14 gezeigten Verfahren ab.
  • Wie in 15 abgebildet, falls die Näherungsberührung an einem vorbestimmten Punkt eine vorbestimmte Zeit lang festgehalten wird, kann der Controller 180 eine Animation anzeigen. Bei diesem Beispiel kann der Controller 180 eine Vibration oder einen Ton zusammen mit der Animation ausgeben.
  • Die Animation kann verwendet werden, um den Benutzer darüber zu informieren, dass die Berührungseingabe oder die Näherungsberührungseingabe in dem mobilen Endgerät 100 aktiviert ist. Beispielsweise kann der Benutzer das mobile Endgerät 100 sperren, wenn es nicht verwendet wird. Die Signaleingabefunktion durch die Berührung oder die Näherungsberührung kann deaktiviert werden, falls das mobile Endgerät 100 gesperrt ist. Wenn sich das mobile Endgerät 100 im inaktiven Zustand befindet, kann der Controller 180 die Animation anzeigen, um über die Aktivierung der Berührungseingabe oder die Näherungsberührungseingabe zu informieren, wenn ein Signal die Berührungseingabe oder die Näherungsberührungseingabe aktiviert hat.
  • Wie ferner in 15b abgebildet, falls die vorbestimmte Zeit abgelaufen ist, nachdem die Animation angezeigt wurde, 15a, kann ein stecknadelartiges Icon 1503 angezeigt werden, um die Zoomfunktion oder die Drehfunktion des Berührungsbildschirms zu führen. Der Controller 180 kann die Zoomfunktion oder die Drehfunktion des Berührungsbildschirms ausführen, wenn ein Kopf 1504 des Icons 1503 mit Bezug auf einen Referenzpunkt 1501 des Icons 1503 berührungsgezogen wird. Es kann ein Kreis um das Icon 1503 herum angezeigt werden.
  • 16 bildet ein Beispiel des Ausführens der Zoomfunktion des Berührungsbildschirms unter Verwendung des stecknadelartigen Icons 1503 ab.
  • 16a bildet ein Beispiel des Berührens und Ziehens des Kopfes 1504 des Icons 1503 ab. Der Kopf 1504 des Icons 1503 kann in eine beliebige Richtung gezogen werden. Der Controller 180 kann die Einzoomfunktion ausführen, falls der Kopf 1504 des Icons 1503 von dem Referenzpunkt 1501 weggezogen wird, und kann die Auszoomfunktion ausführen, falls der Kopf 1504 des Icons 1503 in Richtung auf den Referenzpunkt 1501 gezogen wird.
  • Zusätzlich kann der Kopf 1504 des Icons 1503 in einer geraden Linie zum Ausführen der Zoomfunktion gezogen werden. Der Controller 180 kann die Zoomfunktion ausführen, falls der Controller 180 bestimmt, dass der Kopf 1504 des Icons 1503 innerhalb eines vorbestimmten Bereichs in einer geraden Linie gezogen wurde.
  • Der Controller 180 kann die Erweiterungs- oder Reduzierungsstufe für die Zoomfunktion gemäß der Ziehlänge bestimmen. 16b bildet ein Beispiel des Bestimmens der Erweiterungs- oder Reduzierungsstufe für die Zoomfunktion gemäß der Ziehlänge ab. Wie in 16b abgebildet, können Kreise mit unterschiedlichen Größen gemäß einer Länge eines Radius auf dem Berührungsbildschirm angezeigt werden. Falls der Kopf 1504 des Icons 1503 bis zu einem Umfang eines spezifischen Kreises gezogen wird, kann die Vergrößerung der Erweiterung oder Reduzierung gemäß der Länge des Radius des jeweiligen [Kreises] bestimmt werden.
  • Falls beispielsweise eine ursprüngliche Vergrößerung angegeben wird, wenn der Kopf 1504 des Icons 1503 auf dem Umfang des Kreises 1601 positioniert wird, kann der Controller 180 die Zoomfunktion ausführen, um den ursprünglichen Bildschirm zu vergrößern, wenn der Kopf 1504 des Icons 1503 auf dem Umfang des Kreises 1603 positioniert ist. Ferner kann der Controller 180 den ursprünglichen Bildschirm noch weiter vergrößern, wenn der Kopf 1504 des Icons 1503 auf dem Umfang des Kreises 1605 positioniert ist. Zusätzlich kann der Controller 180 den ursprünglichen Bildschirm reduzieren, falls der Kopf 1504 des Icons 1503 auf dem Umfang des Kreises positioniert ist, der durch eine Bezugszahl 1607 angegeben wird.
  • Um zusätzlich Falsch-Positiv-Befunde zu vermeiden, kann der Controller 180 die Zoomfunktion eventuell nicht ausführen, wenn das Ziehen innerhalb des vorbestimmten Bereichs erfolgt.
  • 17 bildet ein Beispiel eines Verfahrens zum Ausführen der Drehfunktion des Berührungsbildschirms unter Verwendung des stecknadelartigen Icons 1503 ab, das in 15 abgebildet ist.
  • Wie in 17 abgebildet, kann der Kopf 1504 des Icons 1503 mit Bezug auf den Referenzpunkt 1501 in einem Winkel gezogen werden. Der Controller 180 kann den Berührungsbildschirm drehen, wenn der Kopf 1504 des Icons 1503 mit Bezug auf den Referenzpunkt 1501 im Gegenuhrzeigersinn oder im Uhrzeigersinn gedreht wird. Der Drehwinkel und die Drehrichtung des Berührungsbildschirms können gemäß der Ziehrichtung und dem Ziehwinkel bestimmt werden. Beispielsweise kann der Controller 180 den Berührungsbildschirm um 30° im Gegenuhrzeigersinn drehen, wenn der Kopf 1504 des Icons 1503 mit Bezug auf den Referenzpunkt 1501 um 30° im Gegenuhrzeigersinn gedreht und bewegt wird.
  • Zusätzlich kann der Controller 180 den Berührungsbildschirm kontinuierlich drehen, oder der Controller 180 kann den Berührungsbildschirm in Intervallen drehen. Beispielsweise kann der Controller 180 die kontinuierliche Drehung proportional zu dem Drehwinkel ausführen, der mit Bezug auf den Referenzpunkt 1501 gebildet wird. Ferner kann der Controller die Drehung gemäß dem Intervall des Winkels ausführen. Beispielsweise kann der Controller 180 den Berührungsbildschirm um 0° drehen, wenn der Drehwinkel mit Bezug auf den Referenzpunkt 1501 von 0° bis 30° beträgt, kann der Controller 180 den Berührungsbildschirm um 30° drehen, wenn der Drehwinkel von 30° bis 60° beträgt, und kann der Controller 180 den Berührungsbildschirm um 60° drehen, wenn der Drehwinkel von 60° bis 90° beträgt.
  • Um zusätzliche Falsch-Positiv-Befunde zu vermeiden, kann der Controller 180 die Drehung eventuell nicht ausführen, falls das Ziehen innerhalb des vorbestimmten Bereichs erfolgt.
  • 18 bildet ein Beispiel zum gleichzeitigen Zoomen und Drehen des Berührungsbildschirms unter Verwendung des stecknadelartigen Icons 1503 ab, das in 15 abgebildet ist.
  • Wie in 18 abgebildet, kann der Controller 180 den Berührungsbildschirm gleichzeitig drehen und zoomen, wenn der Kopf 1504 des Icons 1503 in einer Richtung gezogen wird, die sich von dem Referenzpunkt 1501 entfernt, während gleichzeitig der Kopf 1504 des Icons 1503 mit Bezug auf den Referenzpunkt 1501 in einem Winkel gezogen wird. Beispielsweise kann der Controller 180 den Berührungsbildschirm zweifach vergrößern und den Berührungsbildschirm dabei gleichzeitig um 60° im Gegenuhrzeigersinn drehen, falls der Drehwinkel des Kopfes 1504 des Icons 1503 60° beträgt und sich der Kopf 1504 des Icons 1503 von dem Referenzpunkt 1501 um eine Distanz entfernt, die mit zwei Zoomstufen verknüpft ist.
  • 19 bildet ein Beispiel des Bewegens des stecknadelartigen Icons 1503 ab, das in 15 abgebildet ist.
  • Wie in 19 abgebildet, kann der Controller 180 das Icon 1503 in eine gewünschte Position bewegen. Wenn beispielsweise der Icon-Bereich 1503 näherungsberührt wird, wenn das Icon 1503 angezeigt wird, kann sich die Farbe des Icons 1503 ändern. Falls bei diesem Beispiel das Icon 1503 näherungsgezogen wird, kann der Controller 180 die Position des Icons 1503 gemäß dem Näherungsziehen bewegen. Die Farbe des Icons 1503 wird in der ursprünglichen Farbe wiederhergestellt, wenn die Näherungsberührung losgelassen wird, um die Bewegung des Icons fertigzustellen.
  • Zusätzlich kann der Controller 180 die Position des Icons 1503 über das Ziehen des Referenzpunktes 1501 bewegen. Beispielsweise kann der Controller 180 die Position des Icons 1503, falls der Referenzpunkt 1501 berührt und gezogen wird, wenn das Icon 1503 angezeigt wird, basierend auf dem Berührungsziehen bewegen.
  • 20 bildet ein Beispiel des mobilen Endgeräts 100 ab, das die Bildlauffunktion des Berührungsbildschirms ausführt, wenn das stecknadelartige Icon 1503 angezeigt wird.
  • Wie in 20 abgebildet, nachdem ein Punkt auf dem Berührungsbildschirm, der von dem Icon 1503 getrennt ist, durch einen Zeiger, wie etwa einen Finger, berührt wird, kann der Controller 180 die Bildlauffunktion ausführen, wenn der berührte Punkt näherungsgezogen wird. Die Bildlauffunktion des Berührungsbildschirms wurde zuvor mit Bezug auf 6 bis 10 beschrieben, und daher entfällt die diesbezügliche ausführliche Beschreibung.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung kann das mobile Endgerät 100 das Steuerverfahren des Berührungsbildschirms gemäß einer Näherungsberührungszeit, einer Berührungszeit oder einer Näherungsdistanz ausführen.
  • 21 bildet ein Ablaufschema für ein Verfahren zum Ausführen der Zoomfunktion des Berührungsbildschirms gemäß einer Ausführungsform der vorliegenden Erfindung ab.
  • Die Sensoreinheit 140 kann die Näherungsberührung oder die tatsächliche Berührung an einem Punkt auf der Display 151 erfassen (S310). Wenn die Näherungsberührung oder die Berührung eine vorbestimmte Zeit lang festgehalten wird, kann der Controller 180 die Zoomfunktion des Berührungsbildschirms ausführen (S320, S330). Daher kann der Controller 180 die Zoomfunktion nicht ausführen, falls die Näherungsberührung oder die Berührung losgelassen wird, bevor die vorbestimmte Zeit abgelaufen ist. Zusätzlich kann der Controller 180 die Zoomfunktion des Berührungsbildschirms gemäß dem berührten Punkt oder dem näherungsberührten Punkt ausführen. Das Verfahren gemäß 21 kann vorteilhaft sein, wenn eine Karte auf dem Berührungsbildschirm angezeigt wird.
  • 22 bildet ein Beispiel eines Verfahrens des Ausführens der Zoomfunktion gemäß dem Verfahren aus 21 ab.
  • 22a(1) bildet ein Beispiel des Ausführens der Auszoomfunktion des Berührungsbildschirms anhand der Näherungsberührung ab.
  • Der Controller 180 kann aus dem Berührungsbildschirm auszoomen, falls ein vorbestimmter Punkt des Displays 151 eine vorbestimmte Zeit lang näherungsberührt wird. Beispielsweise kann der Controller 180 den näherungsberührten Punkt in die Mitte des Berührungsbildschirms setzen, und der Controller 180 kann auszoomen, wenn die Mitte des Berührungsbildschirms eine vorbestimmte Zeit lang näherungsberührt wurde. Der Controller 180 zoomt nicht aus, falls die Näherungsberührung losgelassen wird, bevor die vorbestimmte Zeit abgelaufen ist. Die vorbestimmte Zeit kann eine voreingestellte Zeit sein oder kann vom Benutzer eingestellt werden.
  • Der Controller 180 kann während eines vorbestimmten Zeitintervalls kontinuierlich auszoomen, während der näherungsberührte Zustand selbst nach dem anfänglichen Auszoomen festgehalten wird. Das vorbestimmte Zeitintervall kann ein voreingestellter Wert sein oder kann vom Benutzer eingestellt werden. Bei diesem Beispiel kann ein Zeitraum zum kontinuierlichen Ausführen des Auszoomens kürzer als die vorbestimmte Zeit sein, die für das anfängliche Auszoomen benötigt wird. Schließlich kann der Controller 180 das Auszoomen beenden, falls die Näherungsberührung losgelassen wird.
  • 22a(2) bildet ein Beispiel des Ausführens der Einzoomfunktion des Berührungsbildschirms durch Berühren des Displays 151 ab. Der Controller 180 kann auf dem Berührungsbildschirm einzoomen, falls ein vorbestimmter Punkt des Displays 151 eine vorbestimmte Zeit lang berührt wird. Beispielsweise kann der Controller 180 den Berührungspunkt in die Mitte des Berührungsbildschirms setzen, und der Controller 180 kann einzoomen, wenn die Mitte des Berührungsbildschirms eine vorbestimmte Zeit lang berührt wurde.
  • Der Controller 180 führt das Einzoomen nicht aus, falls die Berührung losgelassen wird, bevor die vorbestimmte Zeit abgelaufen ist. Zusätzlich kann der Controller 180 während eines vorbestimmten Zeitintervalls kontinuierlich einzoomen, während der berührte Zustand selbst nach dem anfänglichen Einzoomen festgehalten wird. Das vorbestimmte Zeitintervall kann ein voreingestellter Wert sein oder kann vom Benutzer eingestellt werden. Bei diesem Beispiel kann ein Zeitraum zum kontinuierlichen Ausführen des Einzoomens kürzer als die vorbestimmte Zeit sein, die für das anfängliche Einzoomen notwendig ist. Schließlich kann der Controller 180 das Einzoomen beenden, falls die Berührung losgelassen wird.
  • 22b(1) bildet ein Beispiel des Ausführens der Auszoomfunktion des Berührungsbildschirms durch Berühren des Displays 151 ab.
  • Wie in 22b(1) abgebildet, kann der Controller 180 auf dem Berührungsbildschirm auszoomen, falls ein vorbestimmter Punkt des Displays 151 eine vorbestimmte Zeit lang berührt wird. Beispielsweise kann der Controller 180 den Berührungspunkt in die Mitte des Berührungsbildschirms setzen, und der Controller 180 kann auszoomen, wenn die Mitte des Berührungsbildschirms eine vorbestimmte Zeit lang berührt wurde. Der Controller 180 zoomt nicht aus, falls die Berührung losgelassen wird, bevor die vorbestimmte Zeit abgelaufen ist. Die vorbestimmte Zeit kann eine voreingestellte Zeit sein oder kann vom Benutzer eingestellt werden.
  • Der Controller 180 kann während eines vorbestimmten Zeitintervalls kontinuierlich auszoomen, während der berührte Zustand selbst nach dem anfänglichen Auszoomen festgehalten wird. Das vorbestimmte Zeitintervall kann ein voreingestellter Wert sein oder kann vom Benutzer eingestellt werden. Bei diesem Beispiel kann ein Zeitraum zum kontinuierlichen Ausführen des Auszoomens kürzer als die vorbestimmte Zeit sein, die für das anfängliche Auszoomen notwendig ist. Schließlich kann der Controller 180 das Auszoomen beenden, falls die Berührung losgelassen wird.
  • 22b(2) bildet ein Beispiel des Ausführens der Einzoomfunktion des Berührungsbildschirms anhand der Näherungsberührung ab. Der Controller 180 kann auf dem Berührungsbildschirm einzoomen, falls ein vorbestimmter Punkt des Displays 151 eine vorbestimmte Zeit lang näherungsberührt wird. Beispielsweise kann der Controller 180 den Näherungsberührungspunkt in die Mitte des Berührungsbildschirms setzen, und der Controller 180 kann einzoomen, wenn die Mitte des Berührungsbildschirms eine vorbestimmte Zeit lang näherungsberührt wurde.
  • Der Controller 180 führt das Einzoomen nicht aus, falls die Näherungsberührung losgelassen wird, bevor die vorbestimmte Zeit abgelaufen ist. Zusätzlich kann der Controller 180 während eines vorbestimmten Zeitintervalls kontinuierlich einzoomen, während der Näherungsberührungszustand selbst nach dem anfänglichen Einzoomen festgehalten wird. Das vorbestimmte Zeitintervall kann ein voreingestellter Wert sein oder kann vom Benutzer eingestellt werden. Bei diesem Beispiel kann ein Zeitraum zum kontinuierlichen Ausführen des Einzoomens kürzer als die vorbestimmte Zeit sein, die für das anfängliche Einzoomen benötigt wird. Schließlich kann der Controller 180 das Einzoomen beenden, falls die Näherungsberührung losgelassen wird.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung kann das mobile Endgerät die Zoomfunktion gemäß einer Näherungsdistanz ausführen.
  • 23 bildet ein Beispiel des Ausführens der Zoomfunktion gemäß der Näherungsdistanz ab.
  • 23a bildet ein Beispiel des Ausführens der Auszoomfunktion ab. Der Controller 180 aktiviert die Zoomfunktion, wenn der Zeiger, wie etwa ein Finger, auf dem Näherungsberührungs-Sensorbereich während der vorbestimmten Zeit positioniert wird. Falls die Zoomfunktion aktiviert ist, kann der Controller 180 auf dem Berührungsbildschirm auszoomen, wenn die Näherungsdistanz durch eine Bewegung des Benutzers verringert wird. Bei diesem Beispiel kann der Controller 180 die Auszoomstufe des Berührungsbildschirms gemäß der Änderung der Näherungsdistanz bestimmen. Beispielsweise erhöht sich die Auszoomstufe proportional zur Zunahme der Näherungsdistanz. Zusätzlich kann die Geschwindigkeit für das Auszoomen gemäß der Näherungsgeschwindigkeit der Bewegung des Benutzers bestimmt werden. Beispielsweise kann sich die Auszoomgeschwindigkeit mit Bezug auf die erhöhte Geschwindigkeit der Näherungsberührung erhöhen.
  • 23b bildet ein Beispiel des Ausführens der Einzoomfunktion proportional zur Näherungsdistanz ab. Der Controller 180 aktiviert die Zoomfunktion, wenn der Zeiger, wie etwa ein Finger, in dem Näherungsberührungs-Sensorbereich während der vorbestimmten Zeit positioniert wird. Beispielsweise kann der Controller 180 auf dem Berührungsbildschirm gemäß der Änderung der Näherungsdistanz einzoomen. Insbesondere erhöht sich die Einzoomstufe proportional zur Erhöhung der Näherungsdistanz. Zusätzlich kann die Geschwindigkeit für das Einzoomen gemäß der Näherungsgeschwindigkeit der Bewegung des Benutzers bestimmt werden. Beispielsweise kann sich die Einzoomgeschwindigkeit mit Bezug auf die erhöhte Geschwindigkeit der Näherungsberührung erhöhen.
  • Der Controller 180 kann die Zoomfunktion beenden, wenn die Näherungsberührung losgelassen wird.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung kann das mobile Endgerät eine Berührungsbildschirm-Erweiterungsfunktion gemäß einer Benutzereinstellung oder einer Voreinstellung ausführen.
  • 24 bildet ein Ablaufschema für ein Verfahren zum Ausführen der Bildlauffunktion des Berührungsbildschirms gemäß der Näherungsberührungszeit oder der Näherungsberührungsposition des mobilen Endgeräts gemäß einer Ausführungsform der vorliegenden Erfindung ab.
  • Die Sensoreinheit 140 kann die Näherungsberührung an einem Punkt auf dem Display 151 erfassen (S410). Wenn die Näherungsberührung eine vorbestimmte Zeit lang festgehalten wird, kann der Controller 180 die Bildlauffunktion des Berührungsbildschirms ausführen (S420, S430). Der Controller 180 führt die Zoomfunktion nicht aus, falls die Näherungsberührung losgelassen wird, bevor die vorbestimmte Zeit abgelaufen ist.
  • Der Controller 180 kann die Bildlauffunktion des Berührungsbildschirms gemäß der Position des Näherungsberührungspunktes ausführen. Beispielsweise kann der Controller 180 die Bildlauffunktion aktivieren, wenn ein spezifischer Punkt des Berührungsbildschirms, wie etwa ein Eckbereich, näherungsberührt wird. Der spezifische Punkt, der die Bildlauffunktion aktiviert, kann vom Benutzer eingestellt werden oder kann als voreingestellt sein. Falls eine Näherungsberührung in einer Vielzahl von Punkten erfasst wird, können die Ablaufrichtungen jedem Punkt entsprechend bestimmt werden. Beispielsweise kann der Bildlauf in einer Richtung nach links ausgeführt werden, wenn eine linke Ecke während der vorbestimmten Zeit näherungsberührt wird, und der Bildlauf wird in einer Richtung nach rechts ausgeführt, wenn ein rechter Eckteil während der vorbestimmten Zeit näherungsberührt wird.
  • 25 bildet ein Beispiel des Ausführens der Bildlauffunktion des Berührungsbildschirms gemäß dem in 24 abgebildeten Verfahren ab.
  • Wie in 25 abgebildet, kann das Display 151 in acht Bereiche A1 bis A8 unterteilt werden. Die Bereiche A1 bis A8 werden nicht räumlich angezeigt, wie in 25 abgebildet. Falls einer der acht Bereiche eine vorbestimmte Zeit lang näherungsberührt wird, kann der Controller 180 den Berührungsbildschirm ablaufen lassen. Bei diesem Beispiel kann die Bildlaufrichtung dem näherungsberührten Bereich entsprechen. Beispielsweise kann der Controller 180 den Berührungsbildschirm in einer Richtung nach links ablaufen lassen, falls der Bereich „A4” während der vorbestimmten Zeit näherungsberührt wird, und der Controller 180 kann den Berührungsbildschirm in einer Richtung nach rechts ablaufen lassen, falls der Bereich „A5” während der vorbestimmten Zeit näherungsberührt wird. Wie zuvor angegeben, kann der Controller 180 den Berührungsbildschirm in der Richtung ablaufen lassen, die dem jeweiligen Berührungsbereich A1 bis A8 entspricht. Die vorbestimmte Zeit kann vom Benutzer eingestellt werden oder kann voreingestellt sein.
  • Zusätzlich können die acht Bildlaufbereiche vom Benutzer oder durch eine Voreinstellung kombiniert oder unterteilt werden. Daher kann die Anzahl von Ablaufrichtungen gemäß der Anzahl von Bereichen, die für die Bildlauffunktion vorgesehen sind, bestimmt werden.
  • Des Weiteren kann der Controller 180 die Bildlauffunktion in der Richtung, die mit dem näherungsberührten Bereich verknüpft ist, kontinuierlich ausführen, wenn die Näherungsberührung festgehalten wird, selbst nachdem der anfängliche Bildlauf ausgeführt wurde.
  • Ferner kann der Controller 180 die Bildlaufgeschwindigkeit umgekehrt proportional zur Näherungsberührungsdistanz steuern. Beispielsweise kann sich die Bildlaufgeschwindigkeit erhöhen, wenn die Näherungsberührungsdistanz abnimmt, und die Bildlaufgeschwindigkeit kann abnehmen, wenn sich die Näherungsberührungsdistanz erhöht. Zusätzlich kann die Bildlaufgeschwindigkeit vom Benutzer eingestellt werden oder eine Voreinstellung sein.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung kann der Controller 180 die Bildlauffunktion sofort ausführen, sobald ein Bildlaufbereich berührt wurde.
  • Zusätzlich kann der Controller 180 den Bildlauf beenden, falls die Näherungsberührung losgelassen wird.
  • 26 bildet ein Beispiel des Ausführens der Bildlauffunktion des Berührungsbildschirms gemäß dem Verfahren aus 24 ab.
  • Wie in 26 abgebildet, können acht Bildlauf-Icons 2601 bis 2608 auf dem Berührungsbildschirm angezeigt werden. Der Controller 180 kann Berührungsbildschirm ablaufen lassen, falls eines der Icons 2601 bis 2608 eine vorbestimmte Zeit lang näherungsberührt wird. Bei diesem Beispiel kann die Bildlaufrichtung den näherungsberührten Icons 2601 bis 2608 entsprechen. Beispielsweise führt der Controller 180 den Bildlauf des Berührungsbildschirms in einer Richtung nach links aus, falls das Icon 2601 während der vorbestimmten Zeit näherungsberührt wird, und der Controller 180 kann den Bildlauf des Berührungsbildschirms in einer Richtung nach rechts ausführen, falls das Icon 2603 während der vorbestimmten Zeit näherungsberührt wird. Wie zuvor erwähnt, kann der Controller 180 den Berührungsbildschirm in der Richtung ablaufen lassen, die dem jeweiligen Berührungs-Icon 2601 bis 2608 entspricht. Die vorbestimmte Zeit kann vom Benutzer eingestellt werden oder kann voreingestellt sein. Zusätzlich können Bildlauf-Icons durch die Benutzereinstellung oder die Voreinstellung hinzugefügt oder entfernt werden. Falls beispielsweise nur vier Bildlauf-Icons 2601, 2602, 2603, 2604 angezeigt werden, kann der Berührungsbildschirm nur in die Richtungen nach links, nach oben, nach rechts und nach unten ablaufen. Die Bildlauf-Icons können ständig auf dem Berührungsbildschirm angezeigt werden oder können angezeigt werden, sobald die Näherungsberührung erfasst wird.
  • Des Weiteren kann der Controller 180 die Bildlauffunktion in einer Richtung kontinuierlich ausführen, die mit dem näherungsberührten Bildlauf-Icon verknüpft ist, wenn die Näherungsberührung kontinuierlich festgehalten wird, selbst nachdem der anfängliche Bildlauf ausgeführt wurde.
  • Ferner kann der Controller 180 die Bildlaufgeschwindigkeit umgekehrt proportional zur Näherungsberührungsdistanz steuern. Beispielsweise kann sich die Bildlaufgeschwindigkeit erhöhen, wenn die Näherungsberührungsdistanz abnimmt, und die Bildlaufgeschwindigkeit kann abnehmen, wenn sich die Näherungsberührungsdistanz erhöht. Zusätzlich kann die Bildlaufgeschwindigkeit vom Benutzer eingestellt werden oder eine Voreinstellung sein.
  • Schließlich kann gemäß einer Ausführungsform der vorliegenden Erfindung der Controller 180 die Bildlauffunktion sofort ausführen, sobald ein Bildlauf-Icon näherungsberührt wurde. Der Controller 180 muss nicht darauf warten, dass die Näherungsberührung eine vorbestimmte Zeit dauert, bevor er den Bildlauf ausführt.
  • 27 bildet ein Ablaufschema für ein Verfahren zum Anzeigen von Informationen auf dem Berührungsbildschirm, die mit der Näherungsberührungsposition oder dem Näherungsberührungszeitpunkt verknüpft sind, gemäß einer Ausführungsform der vorliegenden Erfindung ab. Die Sensoreinheit 140 kann die Näherungsberührung an einem Punkt des Displays 151 erfassen (S510). Der Controller 180 kann die Informationen anzeigen, die mit dem näherungsberührten Punkt auf dem Berührungsbildschirm verknüpft sind, wenn die Näherungsberührung an dem Punkt eine vorbestimmte Zeit lang festgehalten wird (S520, S530). Zusätzlich kann der Controller 180 die Informationen eventuell nicht anzeigen, falls die Näherungsberührung losgelassen wird, bevor die vorbestimmte Zeit abgelaufen ist.
  • Die Informationsanzeigefunktion kann vorteilhaft auf dem Berührungsbildschirm verwendet werden, auf dem die Karte angezeigt wird. Beispielsweise kann der Controller 180 ausführliche Informationen über ein Gebäude anzeigen, wenn das Gebäude während der vorbestimmten Zeit näherungsberührt wird.
  • Die Informationen, die mit dem spezifischen Punkt auf der Karte verknüpft sind, können positionsbasierte Informationen umfassen. Die positionsbasierten Informationen können Adressinformationen oder Sonderziel(POI)-Informationen umfassen. Die Adressinformationen können Straße und Hausnummer, Verwaltungsbezirke oder Informationen über Breitengrad und Längengrad umfassen. Die POI-Informationen können einzigartige Informationen über den Standort oder spezifische Sonderziele in der Nähe des Standorts umfassen. Beispielsweise können die POI-Informationen den Namen des Standorts, wie etwa „XYZ-Markt”, „XYZ-Restaurant” oder „XYZ-Warenhaus” umfassen. Zusätzlich können POI-Informationen Informationen für spezifische Sonderziele in der Nähe des Standorts, wie etwa „Italienische Restaurants im Umkreis von 7 km” oder „Freizeitparks”, umfassen. Ferner können die POI-Informationen Bildinformationen umfassen, die mit dem spezifischen Standort verknüpft sind. Die POI-Informationen können in dem Speicher 160 gespeichert sein oder können über die drahtlose Kommunikationseinheit 110 empfangen werden.
  • 28 bis 32 bilden Beispiele des Anzeigens von Informationen, die mit dem näherungsberührten Punkt verknüpft sind, gemäß dem Verfahren aus 27 ab.
  • Wie in 28 abgebildet, kann der Controller 180 die ausführlichen Informationen anhand eines Fensters 2801 anzeigen, wenn ein spezifischer Standort, der auf der Karte angezeigt wird, näherungsberührt wird. Beispielsweise kann das Fenster 2801 die Höhe und Daten über das spezifische Gebäude und die Telefonnummer der Firma anzeigen. Zudem kann der Controller 180 zusätzliche Funktionen ausführen, wenn man die ausführlichen Informationen berührt, die in dem Fenster 2801 angezeigt werden. Beispielsweise kann der Controller 180 auf eine Web-Seite zugreifen, wenn eine Internet-Adresse, die mit dem Standort verknüpft ist, berührt wird. Zusätzlich kann der Controller 180 die berührte Telefonnummer übertragen, falls die Telefonnummer, die mit dem Gebäude verknüpft ist, berührt wird.
  • Wie in 29 abgebildet, kann der Controller 180 ein Bild 2901 anzeigen, wenn ein spezifischer Standort, der auf der Karte angezeigt wird, näherungsberührt wird. Der Benutzer kann den näherungsberührten Standort über das Bild 2901 identifizieren, wodurch der Benutzer den Standort finden kann, der mit dem Bild 2901 verknüpft ist. Zusätzlich kann der Controller 180 ein Vollbild 2901 erweitern oder anzeigen, falls das Bild 2901 berührt wird.
  • Wie in 30 abgebildet, kann der Controller 180 Informationen über eine Sehenswürdigkeit, ein Restaurant, ein Geschäft oder ein Krankenhaus, die bzw. das sich in der Nähe eines näherungsberührten Standorts befindet, anzeigen. Zusätzlich kann der Controller 180 die Telefonnummer, die mit dem Standort verknüpft ist, der in einem Fenster 3001 angezeigt wird, übertragen, falls der Standort berührt wird. Die Telefonnummer, die mit einem Standort verknüpft ist, kann in dem Speicher 160 gespeichert werden, oder kann über die drahtlose Kommunikationseinheit 110 empfangen werden.
  • Zusätzlich kann der Controller 180 Transportinformationen für einen spezifischen Standort anzeigen. Beispielsweise kann der Controller 180 einen Zugfahrplan anzeigen, falls der spezifische Standort ein Bahnhof ist.
  • Wie in 31 abgebildet, kann der Controller 180 einen Fahrplan für U-Bahnstrecken anhand des Fensters 3101 anzeigen, wenn eine spezifische U-Bahnstation, die auf der Karte angezeigt wird, näherungsberührt wird. Das Fenster 3101 kann jede Strecke anzeigen, wie etwa die U-Bahnlinie Nr. 2 und die U-Bahnlinie Nr. 3, die erste Abfahrzeit für jede der spezifischen Strecken, die letzte Abfahrzeit und den nächsten eingeplanten Zug gemäß der aktuellen Uhrzeit. Ferner kann der Controller 180 die spezifischen Streckeninformationen für jeweilige U-Bahnstrecken anzeigen, falls das Strecken-Icon eine vorbestimmte Zeit lang berührt oder näherungsberührt wird.
  • Wie in 32 abgebildet, kann der Controller 180 Busfahrplan-Informationen der Busstrecken, die an einer Bushaltestelle anhalten, anhand eines Fensters 3201 anzeigen. Die Busfahrplan-Informationen können angezeigt werden, wenn die angezeigte Bushaltestelle näherungsberührt wird. Das Fenster 3201 kann die Busstrecken, die an der spezifischen Bushaltestelle anhalten, die erste Abfahrzeit für jede Richtung der spezifischen Strecken, die letzte Busfahrzeit und den Bus, der gemäß der aktuellen Uhrzeit eingeplant ist, anzeigen. Ferner kann der Controller 180 die spezifischen Streckeninformationen für jeweilige Busstrecken anzeigen, falls das Busstrecken-Icon eine vorbestimmte Zeit lang berührt oder näherungsberührten wird.
  • Zusätzlich kann das mobile Endgerät 100 Navigationsinformationen eines Nahverkehrsfahrzeugs, wie etwa eines Busses oder einer U-Bahn, gemäß der aktuellen Position des spezifischen Nahverkehrsfahrzeugs und der Nahverkehr-Informationen empfangen. Informationen der TPEG („Transport Protocol Experts Group”) sind ein Beispiel für Transportinformationen.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung kann das mobile Endgerät 100 einen Zeigepunkt und eine Referenzlinie anzeigen, um den näherungsberührten Punkt zu führen, wenn ein Punkt auf dem Berührungsbildschirm näherungsberührt wird. Der Zeigepunkt und die Referenzlinie verbessern die Fähigkeit des Benutzers, die Zoomfunktion auszuführen.
  • 33 bildet ein Ablaufschema eines Verfahrens zum Ausführen der Zoomfunktion in dem mobilen Endgerät gemäß einer Ausführungsform der vorliegenden Erfindung ab.
  • Der Controller 180 zeigt die Referenzlinie und den Zeigepunkt an, nachdem die Sensoreinheit 140 die Näherungsberührung an einem Punkt auf dem Display 151 erfasst hat (S610, S620). Der Controller 180 kann die angezeigte Referenzlinie und den Zeigepunkt entfernen, wenn die Näherungsberührung losgelassen wird (S630, S640).
  • Das mobile Endgerät 100 gemäß einer Ausführungsform der vorliegenden Erfindung kann diverse Funktionen unter Verwendung der Näherungsberührung ausführen. Zu diesem Zeitpunkt können die Positionen des näherungsberührten Punktes ein wichtiger Faktor sein. Daher informiert das mobile Endgerät 100 den Benutzer genau darüber, welcher Punkt die näherungsberührte Position ist, so dass die Näherungsberührungseingabe für den Benutzer praktisch gemacht werden kann.
  • Zusätzlich kann der Controller 180 die Zoomfunktion gemäß dem bestimmten Bereich ausführen (S650, S660). Beispielsweise kann der Controller 180 die Zoomfunktion ausführen, indem er den spezifischen Bereich als die Mitte des Berührungsbildschirms bezeichnet.
  • Ferner kann der Controller 180 die Zoomfunktion gemäß einem Zeigepunkt ausführen (S650, S670). Beispielsweise kann der Controller 180 die Zoomfunktion gemäß dem Zeigepunkt des spezifischen Eingabesignals ausführen. Das Verfahren, das in 33 abgebildet ist, kann vorteilhaft verwendet werden, wenn eine Karte am Bildschirm angezeigt wird.
  • 34 bildet das Ausführen der Zoomfunktion in dem mobilen Endgerät gemäß dem Verfahren aus 33 ab.
  • Wie in 34a abgebildet, wenn ein Punkt auf dem Berührungsbildschirm näherungsberührt wird, zeigt der Controller 180 einen Zeigepunkt 3401 und Referenzlinien 3403 an. Bei diesem Beispiel bewegen sich die Positionen des Zeigepunkts 3401 und der Referenzlinien 3403 gemäß der Bewegung des Näherungsberührungszeigers.
  • Der Controller 180 kann die Einzoomfunktion gemäß dem Zeigepunkt 3401 ausführen, wenn der Zeigepunkt 3401 berührt wird. Beispielsweise kann der Controller 180 einzoomen, nachdem der Zeigepunkt 3401 in der Mitte des Berührungsbildschirms positioniert wurde. Zusätzlich kann der Controller 180 kontinuierlich einzoomen, wenn die Berührung festgehalten wird. Der Controller 180 kann das Einzoomen beenden, wenn die Berührung des Zeigepunkts 3401 losgelassen wird.
  • Alternativ kann das Verfahren gemäß 34 ausgelegt sein, eine Auszoomfunktion auszuführen.
  • Des Weiteren kann der Controller 180 auf dem Berührungsbildschirm gemäß dem berührten Punkt auszoomen, wenn der Zeigepunkt 3401 während der vorbestimmten Zeit berührt wird, und kann auf dem Berührungsbildschirm gemäß dem näherungsberührten Punkt einzoomen, wenn der Zeigepunkt 3401 während der vorbestimmten Zeit näherungsberührt wird. Die zuvor beschriebene Vorgehensweise ist ähnlich wie das Verfahren aus 22, und daher entfällt die diesbezügliche ausführliche Beschreibung.
  • Zusätzlich kann der Controller 180 die Zoomfunktion gemäß der Näherungsdistanz ausführen. Die Zoomfunktion gemäß der Näherungsdistanz ist ähnlich wie das Verfahren aus 23, und daher entfällt die diesbezügliche ausführliche Beschreibung.
  • 35 bildet ein Beispiel eines Verfahrens des Ausführens der Zoomfunktion in dem mobilen Endgerät gemäß dem Verfahren aus 33 ab.
  • Wie in 35a abgebildet, kann der Controller 180 einen spezifischen Bereich über einen ersten Zeigepunkt 3501 und einen zweiten Zeigepunkt 3503 bezeichnen. Der Controller 180 zeigt den ersten Zeigepunkt 3501 und die ersten Referenzlinien 3503 an, wenn ein Punkt auf dem Berührungsbildschirm näherungsberührt wird. Bei diesem Beispiel bewegen sich die Positionen des ersten Zeigepunkts 3501 und der ersten Referenzlinien 3503 gemäß der Bewegung des näherungsberührten Zeigers. Der Controller 180 kann die Positionen des ersten Zeigepunkts 3501 und der ersten Referenzlinien 3503 festlegen.
  • Der Controller kann einen zweiten Zeigepunkt 3505 und zweite Referenzlinien 3507 anzeigen, falls der erste Zeigepunkt 3501 und die ersten Referenzlinien 3503 festgelegt sind. Der zweite Zeigepunkt 3505 und die zweiten Referenzlinien 3507 können angezeigt werden, nachdem ein zweiter Punkt auf dem Berührungsbildschirm näherungsberührt wurde. Bei diesem Beispiel bewegen sich die Positionen des zweiten Zeigepunkts 3505 und der zweiten Referenzlinien 3507 gemäß der Bewegung des näherungsberührten Zeigers. Der Controller 180 kann die Positionen des zweiten Zeigepunkts 3505 und der zweiten Referenzlinien 3507 festlegen, wenn der zweite Zeigepunkt 3505 berührt wird.
  • Wie in 35b abgebildet, bezeichnet der Controller 180 einen Bereich 3509, der von der ersten Referenzlinie 3503 und der zweiten Referenzlinie 3507 eingeschlossen ist, falls der erste Zeigepunkt 3501 und der zweite Zeigepunkt 3505 festgelegt sind.
  • Der Controller 180 kann die Zoomfunktion gemäß einer Eingabe ausführen, die in dem bezeichneten Bereich 3509 empfangen wird. 35c bildet ein Beispiel des Ausführens der Einzoomfunktion ab.
  • Der Controller 180 kann die Zoomfunktion des bezeichneten Bereichs 3509 über diverse Verfahren ausführen. Beispielsweise kann der Controller 180 die Zoomfunktion ausführen, nachdem die Berührung oder die Näherungsberührung eines beliebigen Punktes in dem Bereich 3509 erkannt wurde.
  • Beispielsweise kann der Controller 180 aus dem Berührungsbildschirm gemäß dem Bereich 3509 auszoomen, falls ein Punkt des Bereichs 3509 während der vorbestimmten Zeit berührt wird, und kann in den Berührungsbildschirm einzoomen, falls ein Punkt des Bereichs 3509 während der vorbestimmten Zeit näherungsberührt wird. Die Zoomfunktion ist ähnlich wie das Verfahren aus 22, und daher entfällt die diesbezügliche ausführliche Beschreibung.
  • Zusätzlich kann der Controller 180 auf einen spezifischen Bereich des Berührungsbildschirms einzoomen. 36 bildet ein Beispiel des Einzoomens auf einen spezifischen Bereich des Berührungsbildschirms ab. Wie in 36a abgebildet, kann der Controller 180 nur auf den Bereich 3601 einzoomen. Dies ist ähnlich, als wenn man den spezifischen Bereich 3601 durch eine Lupe betrachtet. Die Vergrößerung kann umgekehrt proportional zur Näherungsdistanz sein. Beispielsweise kann die Vergrößerung zunehmen, wenn die Näherungsdistanz abnimmt, und die Vergrößerung kann abnehmen, wenn die Näherungsdistanz zunimmt.
  • Wie in 36b abgebildet, kann der Controller 180 den vergrößerten Bereich 3601 gemäß dem Näherungsziehen bewegen, wenn ein Punkt des spezifischen Bereichs 3601 näherungsgezogen wird. Bei diesem Beispiel kann der Controller 180 gleichzeitig die Anzeigeposition und die Vergrößerung ändern, wenn das Näherungsziehen und die Näherungsdistanz angepasst werden.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung kann das mobile Endgerät die Informationen anzeigen, die mit dem näherungsberührten Bereich verknüpft sind, wenn die Einzoomfunktion durch das Verfahren fertiggestellt wird, das in 34 und 35 abgebildet ist. Die Informationen, die mit dem näherungsberührten Bereich verknüpft sind, können die Adressinformationen des Punktes, Sonderziel(POI)-Informationen, Wetterinformationen oder Straßeninformationen umfassen.
  • 37 bildet ein Beispiel eines Verfahrens des Anzeigens ausführlicher Informationen, die mit spezifischen Standorten verknüpft sind, gemäß einer Ausführungsform der vorliegenden Erfindung ab.
  • 37a bildet ein Beispiel der Einzoomfunktion des Berührungsbildschirms gemäß 34 und 35 ab. Bei diesem Beispiel kann der Controller 180 die ausführlichen Informationen anzeigen, wenn ein Punkt des Berührungsbildschirms näherungsberührt wird. Beispielsweise kann der Controller 180 ausführliche Informationen über ein Gebäude anhand eines Fensters 3701 anzeigen, wenn der näherungsberührte Punkt ein Standort eines Gebäudes ist. Das Fenster 3701 kann eine Internetadresse, die mit dem Gebäude verknüpft ist, eine Telefonnummer, die mit dem Gebäude verknüpft ist, oder ein Bild, das mit dem Gebäude verknüpft ist, anzeigen. Der Controller 180 kann zusätzliche Funktionen ausführen, wenn man die ausführlichen Informationen, die in dem Fenster 3701 angezeigt werden, berührt werden. Beispielsweise kann der Controller 180 auf eine Webseite zugreifen, wenn eine Internetadresse, die mit dem Standort verknüpft ist, berührt wird. Zusätzlich kann der Controller 180 die berührte Telefonnummer übertragen, falls die Telefonnummer, die mit dem Gebäude verknüpft ist, berührt wird. Der Controller 180 kann auch das Bild erweitern und als Vollbild anzeigen, wenn das Bild, das mit dem Gebäude verknüpft ist, berührt wird.
  • 38 bildet ein Beispiel eines Verfahrens zum Anzeigen der Informationen, die mit einer spezifischen Straße verknüpft sind, gemäß einer Ausführungsform der vorliegenden Erfindung ab.
  • Wie in 38a abgebildet, kann der Controller 180 eine Straße hervorheben, wenn die Straße auf dem Berührungsbildschirm näherungsberührt wird. Der Benutzer kann die spezifische Straße durch die identifizierbare Anzeige erkennen. Bei diesem Beispiel kann der Controller 180 gleichzeitig die Transportinformationen über die ausgewählte Straße anzeigen. Beispielsweise kann der Controller 180 einen Unfallpunkt anzeigen, wenn ein Unfall auf der ausgewählten Straße vorkommt. Zusätzlich kann der Controller 180 eine alternative Strecke anzeigen, um Verkehrsstaus zu vermeiden (nicht gezeigt). Der Controller 180 kann alle Straßeninformationen entfernen, wenn die Näherungsberührung losgelassen wird.
  • Zusätzlich kann das mobile Endgerät die Wetterinformationen anzeigen, die mit einem Bereich verknüpft sind, wenn ein Punkt auf dem Berührungsbildschirm näherungsberührt wird. Die Wetterinformationen können Informationen über die Niederschlagswahrscheinlichkeit, Temperaturinformationen oder Windinformationen umfassen.
  • 39 bildet ein Beispiel des Anzeigens von Wetterinformationen unter Verwendung der Näherungsberührung des mobilen Endgeräts gemäß einer Ausführungsform der vorliegenden Erfindung ab.
  • Wie in 39a abgebildet, kann der Controller 180 die Wetterinformationen anhand der Icons 3901, 3903, 3905 anzeigen, wenn ein Punkt auf der Karte näherungsberührt wird. Insbesondere kann der Controller 180 das Icon 3901, das mit dem Wetter vom Vortag verknüpft ist, das Icon 3903, das mit dem Wetter des Tages verknüpft ist, und das Icon 3905, das mit dem Wetter des nächsten Tages verknüpft ist, anzeigen. Der Controller 180 kann die Icons 3901, 3903, 3905 entfernen, wenn die Näherungsberührung losgelassen wird.
  • Wie in 39b abgebildet, kann der Controller 180 ausführliche Wetterinformationen anzeigen, die mit einem jeweiligen Icon verknüpft sind, falls eines der Icons 3901, 3903, 3905 berührt wird. Die ausführlichen Informationen, die mit dem Wetter des Tages verknüpft sind, werden in dem Fenster 3907 angezeigt. Das Fenster 3907 kann die Temperaturinformationen und die Informationen über die Niederschlagswahrscheinlichkeit umfassen.
  • 40 bildet ein Beispiel des Anzeigens der Wetterinformationen unter Verwendung der Näherungsberührung gemäß einer Ausführungsform der vorliegenden Erfindung ab.
  • Wie in 40 abgebildet, kann der Controller 180 die ausführlichen Informationen der spezifischen Icons anhand eines Fensters 4001 anzeigen, wenn ein Icon näherungsberührt wird. Das Fenster 4001 kann die Informationen über Temperatur und Niederschlagswahrscheinlichkeit umfassen. Der Controller 180 kann das Fenster 4001 entfernen, wenn die Näherungsberührung losgelassen wird.
  • 41 bildet ein Beispiel des Anzeigens der Windinformationen der Wetterinformationen unter Verwendung der Näherungsberührung in dem mobilen Endgerät gemäß einer Ausführungsform der vorliegenden Erfindung ab.
  • Wie in 41a abgebildet, kann der Benutzer das Näherungsziehen auf dem vorbestimmten Bereich auf der Karte unter Verwendung eines Zeigers, wie etwa eines Fingers, ausführen. Wie in 41b abgebildet, nachdem das Näherungsziehen ausgeführt wurde, kann der Controller 180 Informationen von Risikoelementen, wie etwa Wind, Schneeregen, Sand oder Hagel, die mit der näherungsgezogenen Position über die Pfeil-Icons 4101 verknüpft sind, anzeigen. Die Stärke der Risikoelemente kann anhand der Dicke und Länge des Pfeil-Icons 4101 bestimmt werden, und eine Richtung der Risikoelemente kann über die Pfeilrichtung bestimmt werden. Bei diesem Beispiel kann der Controller 180 die ausführlichen Informationen über den Wind anzeigen, die dem näherungsgezogenen Bereich entsprechen, wenn das Pfeil-Icon 4101 berührt wird (nicht gezeigt). Zusätzlich kann der Controller 180 das Pfeil-Icon 4101 entfernen, wenn die Näherungsberührung losgelassen wird.
  • 42 bildet ein anderes Beispiel des Anzeigens der Risikoinformationen der Wetterinformationen unter Verwendung der Näherungsberührung in dem mobilen Endgerät ab.
  • Wie in 42a und 42b abgebildet, wenn eine Straße auf dem Berührungsbildschirm näherungsberührt wird, kann der Controller 180 die Straße hervorheben und die Risikoinformationen über die Pfeil-Icons 4101 anzeigen. Bei diesem Beispiel kann der Controller 180 gleichzeitig die Transportinformationen über die ausgewählte Straße anzeigen. Beispielsweise kann der Controller 180 eine andere Straße empfehlen, falls die Risikoelemente auf die ausgewählte Straße zu getrieben werden. Die Risikoinformationen können über Eigenschaften des Icons 4101 bestimmt werden. Beispielsweise kann die Stärke der Risikoelemente anhand der Dicke und Länge des Pfeil-Icons bestimmt werden, und eine Richtung der Risikoelemente kann über die Pfeilrichtung erkannt werden. Bei diesem Beispiel kann der Controller 180 die ausführlichen Informationen der Risikoelemente anzeigen, wenn das Pfeil-Icon 4101 berührt wird (nicht gezeigt). Der Controller 180 kann das Pfeil-Icon entfernen, wenn die Näherungsberührung losgelassen wird.
  • Es wird für den Fachmann ersichtlich sein, dass diverse Änderungen und Variationen an der vorliegenden Erfindung vorgenommen werden können.

Claims (22)

  1. Mobiles Endgerät, umfassend: einen Berührungsbildschirm, der ausgestaltet ist, einen Inhalt auf einer Inhaltsanzeigefläche in demselben anzuzeigen, und einen Controller, der ausgestaltet ist, zu: bewirken, dass der Berührungsbildschirm ein erstes grafisches Element in Reaktion auf ein Ermitteln eines Objekts in der Nähe eines ersten Randbereichs der Inhaltsanzeigefläche anzeigt, wobei das erste grafische Element eine erste Bildlaufrichtung angibt; und bewirken, dass der Berührungsbildschirm einen Bildlauf des Inhalts in der ersten Bildlaufrichtung in der Inhaltsanzeigefläche in Reaktion auf ein Ermitteln, dass sich das Objekt in der Nähe des ersten Randbereichs befindet, anzeigt.
  2. Mobiles Endgerät nach Anspruch 1, wobei der Controller ausgestaltet ist, zu: bewirken, dass der Berührungsbildschirm ein zweites grafisches Element in Reaktion auf das Ermitteln eines Objekts in der Nähe eines zweiten Randbereichs der Inhaltsanzeigefläche anzeigt, wobei der zweite Randbereich gegenüber dem ersten Randbereich liegt, wobei das zweite grafische Element eine zweite Bildlaufrichtung angibt; und bewirken, dass der Berührungsbildschirm den Bildlauf des Inhalts in der zweiten Bildlaufrichtung in der Inhaltsanzeigefläche in Reaktion auf das Ermitteln, dass das Objekt sich in der Nähe des zweiten Randbereichs befindet, anzeigt.
  3. Mobiles Endgerät nach Anspruch 1 oder 2, wobei der Controller ausgestaltet ist, zu: bewirken, dass der Berührungsbildschirm ein drittes grafisches Element in Reaktion auf das Ermitteln eines Objekts in der Nähe eines dritten Randbereichs der Inhaltsanzeigefläche anzeigt, wobei das dritte grafische Element eine dritte Bildlaufrichtung angibt; bewirken, dass der Berührungsbildschirm den Bildlauf des Inhalts in der dritten Bildlaufrichtung in der Inhaltsanzeigefläche in Reaktion auf das Ermitteln, dass sich das Objekt in der Nähe des dritten Randbereichs befindet, anzeigt; bewirken, dass der Berührungsbildschirm ein viertes grafisches Element in Reaktion auf das Ermitteln, dass sich ein Objekt in der Nähe eines vierten Randbereichs der Inhaltsanzeigefläche befindet, anzeigt, wobei der vierte Randbereich gegenüber dem dritten Randbereich liegt, wobei das vierte grafische Element eine vierte Bildlaufrichtung angibt; und bewirken, dass der Berührungsbildschirm den Bildlauf des Inhalts in der vierten Bildlaufrichtung in der Inhaltsanzeigefläche in Reaktion auf das Ermitteln, dass sich das Objekt in der Nähe des vierten Randbereichs befindet, anzeigt.
  4. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, wobei der Controller ausgestaltet ist, zu: bewirken, dass der Berührungsbildschirm den Bildlauf des Inhalts in der ersten Bildlaufrichtung in der Inhaltsanzeigefläche anzeigt, wenn eine Näherungsberührung des Objekts in dem ersten Randbereich aufrechterhalten wird.
  5. Mobiles Endgerät nach einem der Ansprüche 2 bis 4, wobei alle grafischen Elemente die gleiche Form aufweisen und in verschiedenen Richtungen orientiert sind.
  6. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, wobei der Controller ausgestaltet ist: ein fünftes grafisches Elements anzuzeigen, in Reaktion auf das Ermitteln, dass sich das Objekt in der Nähe eines Standorts in einem spezifischen Bereich der Inhaltsanzeigefläche befindet, wobei ein angezeigter Standort des fünften grafischen Elements dem Standort in dem spezifischen Bereich entspricht, in dem das Objekt ermittelt wird; und den angezeigten Standort des fünften grafischen Elements zu ändern, in Reaktion auf das Ermitteln, dass sich der Standort, an dem das Objekt ermittelt wird, ändert.
  7. Mobiles Endgerät nach Anspruch 6 in Abhängigkeit von Anspruch 3, wobei die Randbereiche der Inhaltsanzeigefläche den spezifischen Bereich einschließen.
  8. Mobiles Endgerät nach Anspruch 6 oder 7, wobei der spezifische Bereich ein mittlerer Bereich der Inhaltsanzeigefläche ist.
  9. Mobiles Endgerät nach einem der Ansprüche 6 bis 8, wobei der Controller ausgestaltet ist, eine andere Funktion als den Bildlauf des Inhalts auszuführen, wenn sich das Objekt in der Nähe des spezifischen Bereichs befindet.
  10. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, wobei der Controller ausgestaltet ist, für jedes grafische Element, das eine Bildlaufrichtung angibt: das grafische Element innerhalb des Randbereichs der Inhaltsanzeigefläche anzuzeigen, in der das Objekt in der Nähe ermittelt wird.
  11. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, wobei für jedes grafische Element, das eine Bildlaufrichtung angibt, die Bildlaufrichtung dem Randbereich der Inhaltsanzeigefläche entspricht, in der das Objekt in der Nähe ermittelt wird.
  12. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, wobei der Controller ausgestaltet ist, für jedes grafische Element, das eine Bildlaufrichtung angibt, jeweils den Inhalt in Reaktion auf wiederholtes Ermitteln, dass sich das Objekt in der Nähe des jeweiligen Randbereichs befindet, wiederholt ablaufen zu lassen.
  13. Mobiles Endgerät nach Anspruch 12, wobei der wiederholte Bildlauf des Inhalts den Bildlauf des Inhalts durch jeden Randbereich bewirkt.
  14. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, wobei das grafische Element einen Abschnitt des Inhalts verdeckt.
  15. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, wobei der Controller ausgestaltet ist, zu: bewirken, dass der Berührungsbildschirm den Bildlauf des Inhalts anzeigt, so lange sich das Objekt in der Nähe des ersten Randbereichs befindet; und bewirken, dass der Berührungsbildschirm das Anzeigen des Bildlaufs des Inhalts beendet, wenn sich das Objekt nicht mehr in der Nähe des ersten Randbereichs befindet.
  16. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, ferner umfassend einen Sensor, der ausgestaltet ist, ein Objekt in der Nähe des Berührungsbildschirms zu erfassen.
  17. Mobiles Endgerät nach Anspruch 16, wobei der Sensor ausgestaltet ist, das Objekt in der Nähe zum Berührungsbildschirm unter Verwendung einer elektromagnetischen Kraft ohne mechanischen Kontakt zu erfassen.
  18. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, wobei die Inhaltsanzeigefläche eine rechteckige Form aufweist.
  19. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, wobei das Objekt als in der Nähe des Berührungsbildschirms befindlich ermittelt wird, wenn sich das Objekt innerhalb einer vorbestimmten Distanz aber von dem Berührungsbildschirm getrennt befindet.
  20. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, wobei der Controller ausgestaltet ist, den Bildlauf des Inhalts in Reaktion auf das Ermitteln, dass sich das Objekt eine vorbestimmte Zeit lang in der Nähe des ersten Randbereichs befindet, startet.
  21. Mobiles Endgerät nach einem der vorhergehenden Ansprüche, wobei der Controller ausgestaltet ist, die Bildlaufgeschwindigkeit proportional zu einer ermittelten Distanz zwischen dem Objekt und dem Berührungsbildschirm zu steuern.
  22. Mobiles Endgerät nach Anspruch 21, wobei die Bildlaufgeschwindigkeit umgekehrt proportional zu der ermittelten Distanz gesteuert wird.
DE202009018938.4U 2008-03-21 2009-01-23 Mobiles Endgerät und Bildschirmanzeigeverfahren dafür Expired - Lifetime DE202009018938U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080026463A KR101467766B1 (ko) 2008-03-21 2008-03-21 이동 단말기 및 이동 단말기의 화면 표시 방법
KR10-2008-0026463 2008-03-21

Publications (1)

Publication Number Publication Date
DE202009018938U1 true DE202009018938U1 (de) 2014-10-16

Family

ID=41123044

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202009018938.4U Expired - Lifetime DE202009018938U1 (de) 2008-03-21 2009-01-23 Mobiles Endgerät und Bildschirmanzeigeverfahren dafür

Country Status (5)

Country Link
EP (1) EP2128748B1 (de)
KR (1) KR101467766B1 (de)
CN (1) CN107092411B (de)
DE (1) DE202009018938U1 (de)
ES (1) ES2674578T3 (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101439551B1 (ko) * 2008-06-05 2014-09-11 주식회사 케이티 터치 입력부를 구비한 영상 처리 장치의 화면 확대/축소방법 및 이를 수행하는 영상 처리 장치
KR100940744B1 (ko) * 2009-09-24 2010-02-04 (주)디지탈아리아 임베디드 및 모바일 기기에서 3차원 질감을 가진 표면의 접촉 그래픽 효과를 구현하는 방법
JP2011101184A (ja) * 2009-11-05 2011-05-19 Sony Corp 撮影装置、撮影制御方法及び撮影制御プログラム
KR101626483B1 (ko) * 2009-11-17 2016-06-13 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP5506375B2 (ja) 2009-12-25 2014-05-28 キヤノン株式会社 情報処理装置及びその制御方法
US20120054670A1 (en) * 2010-08-27 2012-03-01 Nokia Corporation Apparatus and method for scrolling displayed information
US8890818B2 (en) 2010-09-22 2014-11-18 Nokia Corporation Apparatus and method for proximity based input
JP5614275B2 (ja) * 2010-12-21 2014-10-29 ソニー株式会社 画像表示制御装置および画像表示制御方法
JP5418508B2 (ja) * 2011-01-13 2014-02-19 カシオ計算機株式会社 電子機器、表示制御方法及びプログラム
KR101860341B1 (ko) * 2011-09-09 2018-05-24 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR20130115750A (ko) * 2012-04-13 2013-10-22 포항공과대학교 산학협력단 가상 키보드 상의 키 입력을 인식하는 방법 및 그 장치
KR20140038830A (ko) * 2012-09-21 2014-03-31 삼성전자주식회사 단말의 줌 레벨 조절 방법 및 이를 지원하는 장치
KR101298030B1 (ko) * 2013-03-12 2013-08-26 주식회사 네시삼십삼분 슈팅 게임이 기록된 컴퓨터 판독 가능한 기록매체
WO2015054198A1 (en) * 2013-10-07 2015-04-16 Acist Medical Systems, Inc. Systems and methods for controlled single touch zoom
US9262012B2 (en) 2014-01-03 2016-02-16 Microsoft Corporation Hover angle
KR101392981B1 (ko) * 2014-03-27 2014-05-15 포항공과대학교 산학협력단 가상 키보드 상의 키 입력을 인식하는 방법 및 그 장치
KR102252506B1 (ko) * 2014-09-26 2021-05-14 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102666778B1 (ko) * 2021-05-28 2024-05-20 주식회사 엔씨소프트 게임의 대상체를 타겟팅하는 방법 및 장치
NL2030860B1 (en) * 2022-02-09 2023-08-15 Microsoft Technology Licensing Llc Stylus movement translation switching

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5568603A (en) * 1994-08-11 1996-10-22 Apple Computer, Inc. Method and system for transparent mode switching between two different interfaces
US6690387B2 (en) * 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
KR20070037773A (ko) * 2005-10-04 2007-04-09 엘지전자 주식회사 표시기기에서 사용자 명령 입력 장치 및 방법
CN101042300B (zh) * 2006-03-24 2014-06-25 株式会社电装 画面显示装置
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons

Also Published As

Publication number Publication date
CN107092411A (zh) 2017-08-25
EP2128748A2 (de) 2009-12-02
CN101539833A (zh) 2009-09-23
CN107092411B (zh) 2020-07-21
ES2674578T3 (es) 2018-07-02
EP2128748B1 (de) 2018-05-23
KR20090100934A (ko) 2009-09-24
EP2128748A3 (de) 2015-04-15
KR101467766B1 (ko) 2014-12-10

Similar Documents

Publication Publication Date Title
DE202009018938U1 (de) Mobiles Endgerät und Bildschirmanzeigeverfahren dafür
US8723811B2 (en) Mobile terminal and screen displaying method thereof
US9182911B2 (en) Menu display method of mobile terminal
DE202008018301U1 (de) Mobiles Endgerät
DE202013012304U1 (de) Mobiles Endgerät
US9026947B2 (en) Mobile terminal and method for displaying an image in a mobile terminal
DE202009018696U1 (de) Mobiles Endgerät
US20090061948A1 (en) Terminal having zoom feature for content displayed on the display screen
US8260373B2 (en) Mobile terminal with variable display control
DE202011110898U1 (de) Mobilgerät
DE202009018916U1 (de) Endgerät, Steuerverfahren und aufzeichnungsfähiges Medium dafür
DE202009018709U1 (de) Mobiles Endgerät
DE102008051119A1 (de) Zoom-Steuerung für einen Anzeigebildschirm eines mobilen Kommunikationsendgeräts
DE202014010551U1 (de) Mobiles Endgerät
DE202014010511U1 (de) Mobiles Endgerät
DE202008000260U1 (de) Tragbare Multifunktionsvorrichtung
CN105677231A (zh) 关联应用分屏显示装置、方法及终端
US20090292990A1 (en) Terminal and method of control
CN103942001A (zh) 一种移动终端的自由截屏方法和移动终端
KR20110058117A (ko) 터치스크린을 포함한 이동 통신 단말기에서의 데이터 표시 제어 방법 및 이를 적용한 이동 통신 단말기
DE202011110758U1 (de) Mobiles Endgerät
DE202008000262U1 (de) Tragbare Multifunktionsvorrichtung
DE202009019104U1 (de) Mobiles Endgerät und Benutzerschnittstelle eines mobilen Endgeräts
DE202008000268U1 (de) Tragbare Multifunktionsvorrichtung
DE202011110735U1 (de) Mobiles Endgerät

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20141127

R150 Utility model maintained after payment of first maintenance fee after three years
R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20141210

R151 Utility model maintained after payment of second maintenance fee after six years
R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20150216

R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right