DE202008018301U1 - Mobiles Endgerät - Google Patents

Mobiles Endgerät Download PDF

Info

Publication number
DE202008018301U1
DE202008018301U1 DE202008018301U DE202008018301U DE202008018301U1 DE 202008018301 U1 DE202008018301 U1 DE 202008018301U1 DE 202008018301 U DE202008018301 U DE 202008018301U DE 202008018301 U DE202008018301 U DE 202008018301U DE 202008018301 U1 DE202008018301 U1 DE 202008018301U1
Authority
DE
Germany
Prior art keywords
touch
touchscreen
terminal
touch screen
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202008018301U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of DE202008018301U1 publication Critical patent/DE202008018301U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72442User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for playing music files
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0261Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level
    • H04W52/0267Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by controlling user interface components
    • H04W52/027Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by controlling user interface components by controlling a display operation or backlight unit
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Endgerät (100) aufweisend: einen Touchscreen (400); und eine Steuereinheit, die konfiguriert ist: weu steuern, sich in verschiebbarer Weise in den und in verschiebbarer Weise aus dem Touchscreen (400) in einer ersten Richtung eines ersten Berühr-Ziehens auf dem Touchscreen (400) zu bewegen, wenn eines des wenigstens einen Berührungs-verfügbaren Symbols (420) berührt wird, eine bestimmte Funktion auszuführen, um ein erstes Bild (430), welches mit der ausgeführten Funktion in Beziehung steht, auf dem Touchscreen (400) anzuzeigen, eine Nachricht zu empfangen, während die bestimmte Funktion ausgeführt wird, einen Nachrichtenempfangsindikator (403) anzuzeigen, ein zweites Berühr-Ziehen in einer zweiten Richtung auf dem Touchscreen (400) zu empfangen, wobei die zweite Richtung senkrecht zu der ersten Richtung ist, ein Nachrichtenfenster (450) für die empfangene Nachricht zu steuern, in verschiebbarer Weise über dem ersten Bild (430) in der zweiten Richtung derart zu erscheinen, dass das Nachrichtenfenster...

Description

  • Diese Anmeldung beansprucht die Priorität der koreanischen Patentanmeldung Nr. 10-2007-0126147, die am 6. Dezember 2007 eingereicht wurde, welche hiermit durch Bezugnahme, wie wenn sie vollständig hier dargelegt wäre, eingefügt wird.
  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Endgerät und ein Verfahren zum Steuern desselben, sowie etwas genauer, ein Endgerät und ein Verfahren zum Anzeigen von Menü-Icons bzw. -Symbolen davon. Obwohl die vorliegende Erfindung für einen breiten Bereich von Anwendungen geeignet ist, ist sie besonders geeignet, es einem Nutzer zu erleichtern, verschiedene Befehle in das Endgerät einzugeben.
  • Beschreibung des technischen Gebiets
  • Ein mobiles Endgerät ist eine Einrichtung, die konfiguriert werden kann, um verschiedene Funktionen auszuführen. Beispiele solcher Funktionen enthalten Daten- und Sprachkommunikation, Aufnehmen von Bildern und Video über eine Kamera, Aufnehmen von Audio, Abspielen von Musikdateien über ein Lautsprechersystem und Anzeigen von Bildern und Video auf einer Anzeige bzw. einem Display. Einige Endgeräte enthalten zusätzliche Funktionalität, die das spielen von Spielen unterstützt, während andere Endgeräte als Multimedia-Wiedergabeeinrichtungen konfiguriert sind. Vor Kurzem wurden mobile Endgeräte konfiguriert, um Broadcast- bzw. Rundfunk- und Multicast-Signale zu empfangen, die ein Betrachten von Inhalt wie beispielsweise Videos und Fernsehprogrammen ermöglichen.
  • Anstrengungen werden weiter unternommen, um die Funktionalität der mobilen Endgeräte zu unterstützen und zu erhöhen. Solche Anstrengungen enthalten Software- und Hardwareverbesserungen sowie Änderungen und Verbesserungen bei den strukturellen Komponenten, die das mobile Endgerät bilden.
  • Wenn ein Endgerät als eine Multimedia-Einrichtung arbeitet, welche die oben beschriebenen verschiedenen Funktionen durchführen kann, werden verschiedene Menü-Symbole auf dem Anzeigebildschirm des Endgeräts so verschieden wie die Funktionen angezeigt. Die verschiedenen Menü-Symbole jedoch sind für die Nutzerfreundlichkeit für Endgerätmanipulationen hinderlich und können den Nutzer verwirren. So wurden Anstrengungen unternommen, um die verschiedenen Menü-Symbole zu konfigurieren und anzuordnen, um Nutzermanipulationen zu erleichtern.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Demgemäß ist die vorliegende Erfindung auf ein Endgerät und ein Verfahren zum Steuern desselben gerichtet, welches im Wesentlichen eines oder mehrere Probleme aufgrund von Beschränkungen und Nachteilen des technischen Gebiets vermeidet.
  • Eine Aufgabe der vorliegenden Erfindung ist es, ein Endgerät und ein Verfahren zum Anzeigen dessen Menü-Symbolen, wodurch ein Endgerätenutzer es leichter hat, ein bestimmtes verschiedener Menü-Symbole, die auf einem Anzeigebildschirm des Endgeräts angezeigt werden, zu identifizieren und auszuwählen.
  • Zusätzliche Vorteile, Aufgaben und Merkmale der Erfindung werden teilweise in der nachstehenden Beschreibung dargelegt und teilweise für Fachleute auf dem technischen Gebiet offensichtlich durch Untersuchen des Folgenden oder können vom Praktizieren der Erfindung erfahren werden. Die Aufgaben und andere Vorteile der Erfindung können erkannt und erlangt werden durch die Struktur, die besonders in der schriftlichen Beschreibung und den Ansprüchen hiervon sowie den anhängenden Zeichnungen herausgestellt wird.
  • Um diese Aufgaben und andere Vorteile zu erreichen und gemäß dem Zweck der Erfindung, wie sie verkörpert und hier breit beschrieben ist, enthält ein Endgerät gemäß einem Ausführungsbeispiel der vorliegenden Erfindung einen Berührungsbildschirm bzw. Touchscreen und eine Steuereinheit, die konfiguriert ist, um wenigstens ein für eine Berührung verfügbares bzw. ein Berührungs-verfügbares Symbol bzw. Icon zwischen einem äußeren und einem inneren Bereich bzw. einem Außen- und einem Innenbereich eines Bildes, welches auf dem Berührungsbildschirm in einer Richtung eines Berühr-Ziehens auf dem Berührungsbildschirm zu bewegen.
  • Ein anderer Aspekt der vorliegenden Erfindung, ein Verfahren zum Anzeigen von Menü-Symbolen in einem Endgerät, weist auf Durchführen von Berühr-Ziehen in einer vorbestimmten Richtung auf einem Berührungsbildschirm bzw. Touchscreen eines Endgeräts und Bewegen wenigstens eines für eine Berührung verfügbaren bzw. Berührungs-verfügbaren Symbols zwischen einem Außen- und einem Innenbereich eines Bildes, welches auf dem Berührungsbildschirm angezeigt wird, in einer Richtung des Berühr-Ziehens.
  • Es ist verständlich, dass sowohl die vorstehende allgemeine Beschreibung als auch die nachfolgende detaillierte Beschreibung der vorliegenden Erfindung beispielhaft und erläuternd sind und beabsichtigen, eine weitere Erläuterung der Erfindung, wie sie beansprucht ist, bereitzustellen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die begleitenden Zeichnungen, die enthalten sind, um ein weiteres Verstehen der Erfindung bereitzustellen und die eingefügt sind in und einen Teil dieser Anmeldung bilden, veranschaulichen Ausführungsbeispiele der Erfindung und dienen zusammen mit der Beschreibung, um das Prinzip der Erfindung zu erklären. In den Zeichnungen ist:
  • 1 ein Blockdiagramm eines mobilen Endgeräts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 eine perspektivische Ansicht einer Vorderseite eines Beispiels eines mobilen Endgeräts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 3 eine Rückansicht eines Beispiels des mobilen Endgeräts, welches in 2 gezeigt ist;
  • 4 ein Blockdiagramm eines CDMA-Drahtloskommunikationssystems, welches mit dem mobilen Endgerät der 1 bis 3 betreibbar ist;
  • 5 ein Flussdiagramm für ein Verfahren zum Anzeigen von Menü-Symbolen gemäß der vorliegenden Erfindung;
  • 6 ein Diagramm von Beispielen eines Anzeigebildschirms eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben;
  • 7 ein Diagramm von Beispielen eines Anzeigebildschirms eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben;
  • 8 ein Diagramm von Beispielen eines Anzeigebildschirms eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem dritten Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben;
  • 9 ein Diagramm von Beispielen eines Anzeigebildschirms eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem vierten Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben;
  • 10 ein Diagramm von Beispielen eines Anzeigebildschirms eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem fünften Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben; und
  • 11 ein Diagramm von Beispielen eines Anzeigebildschirms eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem sechsten Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
  • Nun wird im Detail Bezug genommen auf die bevorzugen Ausführungsbeispiele der vorliegenden Erfindung, von denen Beispiele in den begleitenden Zeichnungen veranschaulicht sind. Fachleute auf diesem technischen Gebiet verstehen, dass andere Ausführungsbeispiele verwendet werden können, und strukturelle, elektrische sowie prozedurale Änderungen durchgeführt werden können, ohne vom Bereich der vorliegenden Erfindung abzuweichen. Wo immer möglich, werden in allen Zeichnungen die gleichen Bezugszeichen verwendet, um auf dieselben oder ähnliche Teile Bezug zu nehmen.
  • Inder folgenden Beschreibung werden Suffixe wie 'Modul', 'Einheit' und 'Teil' für Elemente nur verwendet, um die Erstellung dieser Offenbarung zu erleichtern. Somit haben diese Suffixe selbst keine besondere Bedeutung oder Rolle. Somit ist klar, dass 'Modul', 'Einheit und 'Teil' zusammen oder getrennt verwendet werden können.
  • 1 ist ein Blockdiagramm eines mobilen Endgeräts 100 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das mobile Endgerät kann unter Verwendung einer Vielfalt von verschiedenen Arten von Endgeräten implementiert werden. Beispiele solcher Endgeräte enthalten mobile sowie nicht-mobile Endgeräte, wie beispielsweise mobile Telefone, Nutzerausstattung, Smartphones, Computer, digitale Rundfunkendgeräte, persönliche digitale Assistenten, tragbare Multimediawiedergabeeinrichtungen (Portable Multimedia Players, PMP), Navigationseinrichtungen, etc. Im Wege nicht beschränkender Beispiele wird die weitere Beschreibung mit Bezug auf ein mobiles Endgerät fortgesetzt. Jedoch gelten die Lehren der vorliegenden Erfindung gleichermaßen für andere Arten von Endgeräten wie beispielsweise nicht-mobile Endgeräte und die vorliegende Erfindung schließt sowohl mobile Endgeräte als auch nicht-mobile Endgeräte ein. 1 zeigt das mobile Endgerät 100 mit verschiedensten Bestandteilen bzw. Komponenten, aber es ist verständlich, dass eine Implementierung aller dieser veranschaulichten Komponenten keine Voraussetzung ist. Mehr oder weniger Komponenten können alternativ implementiert werden.
  • 1 zeigt ein Beispiel einer Drahtloskommunikationseinheit 110, die konfiguriert ist mit verschiedenen üblicherweise implementierten Komponenten. Z. B. enthält die Drahtloskommunikationseinheit 110 typischerweise eine oder mehrere Komponenten, die eine Drahtloskommunikation zwischen dem mobilen Endgerät 100 und einem Drahtloskommunikationssystem oder -netzwerk, in dem sich das mobile Endgerät befindet oder zu Besuch aufhält, ermöglicht.
  • Insbesondere empfängt ein Rundfunkempfangsmodul 111 ein Rundfunksignal und/oder einem Rundfunksignal zugeordnete Informationen (z. B. Rundfunkdaten, etc.) von einer externen Rundfunkführungsentität über einen Rundfunkkanal. Der Rundfunkkanal kann aufweisen einen Satellitenkanal und einen terrestrischen Kanal. Die Rundfunkführungsentität betrifft im Allgemeinen ein System, welches ein Rundfunksignal und/oder einem Rundfunksignal zugeordneten Informationen überträgt. Beispiele für einem Rundfunksignal zugeordnete Informationen enthalten Informationen, die einem Rundfunkkanal, einem Rundfunkprogramm, einem Rundfunkdienstanbieter etc. zugeordnet sind. Z. B. können einem Rundfunk zugeordnete Informationen aufweisen einen elektronischen Programmführer (Electronic Program Guide, EPG) eines digitalen Multimediarundfunks (Digital Multimedia Broadcasting, DMB) und/oder einem elektronischen Diensteführer (Electronic Service Guide, ESG) des digitalen Videorundfunks für Handgeräte (Digital Video Broadcast-Handheld, DVB-H).
  • Das Rundfunksignal kann unter anderem als ein TV-Rundfunksignal, ein Radio-Rundfunksignal, und/oder ein Daten-Rundfunksignal implementiert sein. Wenn gewünscht, kann das Rundfunksignal weiter ein Rundfunksignal kombiniert mit einem TV- oder Radio-Rundfunksignal enthalten.
  • Das Rundfunkempfangsmodul 111 kann konfiguriert sein, um Rundfunksignale, die von verschiedenen Arten von Rundfunksystemen übertragen werden, zu empfangen. Als nicht beschränkendes Beispiel schließen solche Rundfunksysteme ohne darauf beschränkt zu sein ein den terrestrischen digitalen Multimediarundfunk (Digital Multimedia Broadcasting-Terrestrial, DMB-T), den Satelliten-gestützten digitaler Multimediarundfunk (Digital Multimedia Broadcasting-Satellite, DMB-S), den digitalen Videorundfunk für Handgeräte (Digital Video Broadcast-Handheld, DV-B-H), das Daten-Rundfunksystem, welches als Medien-Nur-Vorwärtskanal (MediaFLO®) und den terrestrischen digitalen Rundfunk mit integrierten Diensten (Integrated Services Digital Broadcast-terrestrial, ISDB-T). Außerdem ist ein Empfangen von Multicast-Signalen durch das Endgerät 100 möglich. Wenn gewünscht, können durch das Rundfunkempfangsmodul 111 empfangene Daten in einer geeigneten Einrichtung, wie beispielsweise einem Speicher 160 gespeichert werden.
  • Ein Mobilkommunikationsmodul 112 sendet/empfängt drahtlose Signale zu/von einem oder mehreren Netzwerkentitäten (beispielsweise einer Basisstation, einem Knoten-B). Solche Signale können u. a. repräsentieren Audio, Video, Multimedia, Steuersignalisierung und Daten.
  • Ein Drahtlos-Internetmodul 113 unterstützt einen Internetzugriff für das mobile Endgerät 100. Dieses Modul kann intern oder extern mit dem Endgerät 100 gekoppelt sein. Geeignete Technologien für Drahtlos-Internet können einschließen, sind aber nicht darauf beschränkt, WLAN (Wireless LAN, drahtloses LAN) (Wi-Fi), Wibro (Wireless Broadband, Drahtlos-Breitband), Wimax (World Interoperability for Microwave Access, Weltweite Interoperabilität für Mikrowellenzugang), HSDPA (High Speed Downlink Packet Access, Hochgeschwindigkeits-Abwärts-Paketzugang).
  • Ein Nahbereichskommunikationsmodul 114 ermöglicht Kommunikation in einem relativ nahen Bereich. Geeignete Technologien für Nahbereichskommunikation können einschließen, sind aber nicht darauf beschränkt, Funkfrequenzidentifikation (Radio Frequency Identification, RFID), Infrarotdatenvereinigung (Infrared Data Association, IrDA), Ultrabreitband (Ultra-Wideband, UWB), sowie die Netzwerktechnologien, auf die allgemein als Bluetooth und ZigBee bezeichnet werden, um einige zu nennen.
  • Ein Positionsbestimmungsmodul 115 identifiziert oder erhält in anderer Weise den Ort des mobilen Endgeräts 100. Wenn gewünscht kann dieses Modul unter Verwendung von globalen Ortsbestimmungssystem-(Global Positioning System, GPS)-Komponenten implementiert werden, die mit zugeordneten Satelliten, Netzwerkkomponenten und Kombinationen davon zusammenarbeiten.
  • Eine Audio/Video-(A/V)-Eingabeeinheit 120 ist konfiguriert, um eine Audio- oder Videosignaleingabe für das mobile Endgerät 100 bereitzustellen. Wie in dem Beispiel gezeigt, enthält die A/V-Eingabeeinheit 120 eine Kamera 121 und ein Mikrofon 122. Die Kamera 121 empfängt und verarbeitet Bildrahmen von Standbildern oder Video.
  • Das Mikrofon 122 empfängt ein externes Audiosignal, während sich die tragbare Einrichtung (beispielsweise A/V-Eingabeeinheit 120) in einem bestimmten Modus befindet, wie beispielsweise einem Telefonanrufmodus, einem Aufnahmemodus und Spracherkennung. Dieses Audiosignal wird verarbeitet und in digitale Daten konvertiert. Die tragbare Einrichtung (z. B. A/V-Eingabeeinheit 120) kann verschiedene Rauschentfernungsalgorithmen enthalten, um Rauschen zu entfernen, welches im Empfangsweg des externen Audiosignals erzeugt wurde. Daten, die durch die A/V-Eingabeeinheit 120 erzeugt wurden, können in dem Speicher 160 gespeichert werden, durch eine Ausgabeeinheit 150 verwendet werden, oder über eine oder mehrere Module der Kommunikationseinheit 110 übertragen werden. Wenn gewünscht können zwei oder mehr Mikrofone und/oder Kameras verwendet werden.
  • Eine Nutzereingabeeinheit 130 erzeugt Eingabedaten in Reaktion auf eine Nutzermanipulation einer zugeordneten Eingabeeinrichtung oder Einrichtungen. Beispiele derartiger Einrichtungen sind ein Tastenfeld, ein Dom-Schalter, ein Berührfeld bzw. Touchpad (z. B. statischer Druck/Kapazität), ein Jog-Rad und ein Jog-Schalter. Ein bestimmtes Beispiel ist eines, in dem die Nutzereingabeeinheit 130 als ein Touchpad in Zusammenarbeit mit einer Berührungsbildschirmanzeige bzw. einer Touchscreen-Anzeige bzw. einem Touchscreen-Display (die in größerem Detail weiter unten beschrieben wird) konfiguriert ist.
  • Eine Sensoreinheit 140 stellt Zustandmessungen verschiedenster Aspekte des mobilen Endgeräts 100 zur Verfügung. Beispielsweise kann die Sensoreinheit 140 einen Offen-/Geschlossen-Zustand des mobilen Endgeräts eine relative Positionierung von Komponenten (z. B. einer Anzeige bzw. Display und einer Tastatur) des mobilen Endgeräts, eine Veränderung in der Position des mobilen Endgeräts oder einer Komponente des mobilen Endgeräts, eine Anwesenheit oder Abwesenheit eines Nutzerkontakts mit dem mobilen Endgerät, eine Ausrichtung oder Beschleunigung/Verzögerung des mobilen Endgeräts erfassen. Als ein Beispiel sei angenommen, dass das mobile Endgerät 100 als ein mobiles Endgerät vom Schiebetyp konfiguriert ist. In dieser Konfiguration kann die Sensoreinheit 140 erfassen, ob ein Schiebeabschnitt des mobilen Endgeräts offen oder geschlossen ist. Andere Beispiele sind die Sensoreinheit 140, welche die Anwesenheit oder Abwesenheit von Energie, die durch eine Energieversorgung 190 bereitgestellt wird, die Anwesenheit oder Abwesenheit einer Kopplung oder anderen Verbindungen zwischen einer Schnittstelleneinheit 170 und einer externen Einrichtung erfasst.
  • Die Schnittstelleneinheit 170 ist oftmals implementiert, um das mobile Endgerät 100 mit einer externen Einrichtung bzw. externen Einrichtungen zu koppeln. Beispiele externer Einrichtungen enthalten drahtgebundene/drahtlose Kopfhörer, externe Ladeeinrichtungen, Energieversorgungen, Speichereinrichtungen, die konfiguriert sind, Daten zu speichern (z. B. Audio, Video, Bilder etc.), Ohrhörer und Mikrofone u. a. Die Schnittstelleneinheit 170 kann konfiguriert sein, zu verwenden einen drahtgebundenen/drahtlosen Datenanschluss, einen Kartensteckplatz (z. B. zum Koppeln einer Speicherkarte, einer Teilnehmeridentitätsmodul(Subscriber Identity Module, SIM)-Karte, einer Nutzeridentitätsmodul(User Identity Module, UIM)-Karte, einer entfernbaren Nutzeridentitätsmodul(User Identity Module, RUIM)-Karte, Audio-Eingabe-/Ausgabe-Anschlüsse und Video-Eingabe-/Ausgabe-Anschlüsse.
  • Die Ausgabeeinheit 150 enthält im Allgemeinen verschiedene Komponenten, die die Ausgabenotwendigkeiten oder Anforderungen des mobilen Endgeräts 100 unterstützen. Eine Anzeige 151 ist im Allgemeinen implementiert, um Informationen, die dem mobilen Endgerät 100 zugeordnet sind, visuell anzuzeigen. Z. B., wenn das mobile Endgerät in einem Telefonanrufmodus betrieben wird, wird die Anzeige 151 im Allgemeinen eine Nutzerschnittstelle oder grafische Nutzerschnittstelle bereitstellen, die Informationen einschließt, die zugeordnet sind einem Tätigen, Durchführen und Beenden eines Telefonanrufs. Als ein anderes Beispiel, wenn das mobile Endgerät sich in einem Videoanrufmodus oder einem Fotografiermodus befindet, kann die Anzeige 151 zusätzlich oder alternativ Bilder anzeigen, die diesen Modi zugeordnet sind.
  • Eine besondere Implementierung der Anzeige 151 ist es, sie als ein Berührungsbildschirm bzw. Touchscreen vorzusehen, der in Zusammenarbeit mit einer Eingabeeinrichtung (z. B. der Eingabeeinheit 130) arbeitet, wie beispielsweise einem Touchpad bzw. einer Berührfläche. Diese Konfiguration ermöglicht es der Anzeige 151, sowohl als eine Ausgabeeinrichtung als auch eine Eingabeeinrichtung zu arbeiten.
  • Die Anzeige 151 kann implementiert werden unter Verwendung bekannter Anzeigetechnologien, die einschließen z. B. eine Flüssigkristallanzeige (Liquid Crystal Display, LCD), eine Dünnschichttransistor-Flüssigkristallanzeige (Thin Film Transistor-Liquid Crystal Display, TFT-LCD), eine organische Licht emittierende Diodenanzeige (Organic Light-Emitting Diode Display, OLED), eine flexible Anzeige und eine dreidimensionale Anzeige. Das mobile Endgerät kann eine oder mehrere solcher Anzeigen enthalten. Ein Beispiel eines Zwei-Anzeigen-Ausführungsbeispiels ist ein solches, in dem eine Anzeige als eine interne Anzeige konfiguriert ist (sichtbar, wenn sich das Endgerät in einer geöffneten Position befindet) und einer zweiten Anzeige, die als eine externe Anzeige konfiguriert ist (sichtbar, sowohl in der geöffneten als auch der geschlossenen Position).
  • Die Ausgabeeinheit 150 enthält weiter ein Audioausgabemodul 152, welches die Audioausgabenotwendigkeiten oder Anforderungen des mobilen Endgeräts 100 unterstützt. Das Audioausgabemodul 152 kann implementiert werden unter Verwendung eines oder mehrerer Lautsprecher, Summer oder anderer Audio erzeugenden Einrichtungen sowie Kombinationen davon. Das Audioausgabemodul 152 arbeitet in verschiedenen Modi einschließlich z. B. einem Anrufempfangsmodus, einem Anruftätigungsmodus, einem Aufnahmemodus, einem Spracherkennungsmodus und einem Rundfunkempfangsmodus. Während des Betriebs gibt das Audioausgabemodul 152 Audio betreffend eine bestimmte Funktion (z. B. eingegangener Anruf, eingegangene Nachricht sowie Fehler) aus.
  • Die Ausgabeeinheit 150 enthält weiter eine Weckeinrichtung bzw. einen Alarm 153, der gemeinhin verwendet wird, um zu signalisieren oder in anderer Weise das Auftreten eines bestimmten Ereignisses, welches dem mobilen Endgerät zugeordnet ist, zu identifizieren. Typische Ereignisse sind ein eingegangener Anruf, eine eingegangene Nachricht, eine eingegangene Nutzereingabe etc. Ein Beispiel für eine derartige Ausgabe ist Bereitstellen taktiler Empfindungen (beispielsweise einer Vibration) an einen Nutzer. Z. B. kann der Alarm 153 konfiguriert sein, in Reaktion darauf, dass das mobile Endgerät 100 einen Anruf oder eine Nachricht empfängt, zu vibrieren. Als anderes Beispiel kann eine Vibration bei dem Alarm 153 in Reaktion auf das Empfangen einer Nutzereingabe an dem mobilen Endgerät vorgesehen sein, um so einen taktilen Rückkopplungsmechanismus bereitzustellen. Es ist verständlich, dass verschiedene Ausgaben, die durch die Komponenten der Ausgabeeinheit 150 bereitgestellt werden, separat durchgeführt werden können oder solche Ausgaben unter Verwendung einer beliebigen Kombination solcher Komponenten durchgeführt werden kann.
  • Der Speicher 160 wird bevorzugt verwendet, um verschiedene Arten von Daten zu speichern, um die Verarbeitungs-, Steuer-, und Speicher-Notwendigkeiten oder -Erfordernisse des mobilen Endgeräts 100 zu unterstützen. Beispiele solcher Daten können einschließen Programmbefehle für Applikationen bzw. Anwendungen, die auf dem mobilen Endgerät betrieben werden, Kontaktdaten, Telefonbuchdaten, Nachrichten, Bilder, Video etc. Der Speicher 160 kann implementiert werden unter Verwendung einer beliebigen Art (oder Kombination) von geeigneten flüchtigen und nichtflüchtigen Memory- oder Speichereinrichtungen einschließlich Speicher mit wahlfreiem Zugriff (Random Access Memory, RAM), statischem Speicher mit wahlfreiem Zugriff (Static Random Access Memory, SRAM), elektrisch löschbaren und programmierbaren Nur-Lesespeicher (Electrical Erasable Programmable Read-Only Memory, EEPROM), löschbaren und programmierbaren Nur-Lesespeicher (Erasable Programmable Read-Only Memory, EPROM), programmierbaren Nur-Lesespeicher (Programmable Read-Only Memory, PROM), Nur-Lesespeicher (Read-Only Memory, ROM), magnetischen Speicher, Flash-Speicher, magnetische oder optische Disk, Speicher vom Kartentyp oder ähnlichen Speicher oder Datenspeichereinrichtung.
  • Eine Steuerung 180 steuert bevorzugt die gesamten Operationen des mobilen Endgeräts 100. Z. B. führt die Steuerung 180 die Steuerung und Verarbeitung im Zusammenhang mit Sprachanrufen, Datenkommunikation, Sofortnachrichtenkommunikation, Videoanrufen, Kameraoperationen und Aufnahme/Wiedergabe-Operationen durch. Wenn gewünscht, kann die Steuerung 180 enthalten ein Multimediamodul 181, das Multimediawiedergabe bereitstellt. Das Multimediamodul 181 kann als ein Teil der Steuerung 180 konfiguriert sein oder kann als separate Komponente implementiert sein.
  • Die Energieversorgung 190 stellt die von den verschiedenen Komponenten des mobilen Endgeräts 100 benötigte Energie bereit. Die bereitgestellte Energie kann interne Energie, externe Energie oder Kombinationen davon sein.
  • Verschiedene Ausführungsbeispiele, die hier beschrieben werden, können in einem computerlesbaren Medium unter Verwendung beispielsweise von Computersoftware, Hardware oder irgendwelche Kombinationen davon implementiert werden. Für eine Hardware-Implementation können die Ausführungsbeispiele, die hier beschrieben werden, implementiert werden in einem oder mehreren anwendungsspezifisch integrierten Schaltkreisen (Application Specific Integrated Circuits, ASICs), digitalen Signalprozessoren (Digital Signal Processors, DSPs), digital Signal verarbeitenden Einheiten (Digital Signal Processing Devices, DSPDs), programmierbaren Logikeinrichtungen (Programmable Logic Devices, PLDs), feldprogrammierbaren Gatteranordnungen (Field Programmable Gate Arrays, FPGAs), Prozessoren, Steuerungen, Mikrosteuerungen, Mikroprozessoren, anderen elektronischen Einheiten, die entworfen sind, um die Funktionen, die hier beschrieben sind, durchzuführen oder eine ausgewählte Kombination davon. In einigen Fällen können solche Ausführungsbeispiele durch die Steuerung 180 implementiert werden.
  • Für eine Softwareimplementierung können die hier beschriebenen Ausführungsbeispiele mit separaten Softwaremodulen, wie beispielsweise Prozeduren und Funktionen, von denen jede eine oder mehrere der Funktionen und Operationen, die hier beschrieben sind, durchführt, implementiert werden. Die Softwarecodes können mit einer Softwareapplikation bzw. Softwareanwendung, die in einer beliebigen geeigneten Programmiersprache geschrieben ist und im Speicher (beispielsweise Speicher 160) gespeichert werden kann und durch eine Steuerung oder einen Prozessor (z. B. Steuerung 180) ausgeführt werden kann, implementiert werden.
  • Das mobile Endgerät 100 kann in einer Vielzahl von verschiedenen Konfigurationen implementiert werden. Beispiele solcher Konfigurationen schließen ein, sind aber nicht darauf beschränkt, einen Klapptyp, Schiebetyp, Barrentyp, Drehtyp, Schwenktyp oder Kombinationen davon. Zur Klarheit wird die weitere Offenbarung primär sich auf ein mobiles Endgerät vom Schiebetyp beziehen. Jedoch sind die Lehren der vorliegenden Erfindung gleichermaßen auf andere Arten von Endgeräten anwendbar.
  • 2 ist eine perspektivische Ansicht einer Vorderseite eines Beispiels eines mobilen Endgeräts 100 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Endgerät 100 der 2 kann alle oder einige der Komponenten des Endgeräts, welches in 1 gezeigt ist, enthalten.
  • Unter Bezugnahme auf 2 ist das mobile Endgerät 100 mit einem ersten Körper 200 gezeigt, der konfiguriert ist, in verschiebbarer Weise mit einem zweiten Körper 205 zusammenzuwirken. Die Nutzereingabeeinheit (beschrieben in 1, z. B. Komponente 130) kann eine erste Eingabeeinheit wie beispielsweise ein Touchpad und Funktionstasten 210, eine zweite Eingabeeinheit wie beispielsweise ein Tastenfeld 215 und eine dritte Eingabeeinheit wie beispielsweise Seitentasten 245 aufweisen. Die Funktionstasten 210 sind dem ersten Körper 200 zugeordnet und das Tastenfeld 215 ist dem zweiten Körper 205 zugeordnet. Das Tastenfeld 215 enthält verschiedene Tasten (z. B. Zahlen, Buchstaben und Symbole), um einem Nutzer zu ermöglichen, einen Anruf zu tätigen, eine Text- oder Multimedianachricht vorzubereiten, und in anderer Weise das mobile Endgerät zu betreiben.
  • Der erste Körper 200 ist relativ zu dem zweiten Körper 205 zwischen einer Offen und einer Geschlossen-Position verschiebbar. In einer Geschlossen-Position ist der erste Körper 200 über dem zweiten Körper 205 derart positioniert, dass das Tastenfeld 215 im Wesentlichen oder komplett durch den ersten Körper 200 verdeckt wird. In der Offen-Position ist ein Nutzerzugriff auf das Tastenfeld 215 sowie die Anzeige bzw. das Display 151 und Funktionstasten 210 möglich. Die Funktionstasten 210 sind für einen Nutzer dienlich zum Eingeben von Befehlen, wie beispielsweise Start, Stopp und Scrollen bzw. Blättern.
  • Das mobile Endgerät 100 ist sowohl in einem Standby-Modus (z. B. kann einen Anruf oder eine Nachricht empfangen, Netzwerksteuersignalisierung empfangen und darauf antworten) oder einem aktiven Anrufmodus betreibbar. Typischerweise arbeitet das mobile Endgerät in einem Standby-Modus, wenn es sich in der Geschlossen-Position befindet und in einem Aktiv-Modus, wenn es sich in der Offen-Position befindet. Diese Modus-Konfiguration kann wie erforderlich oder gewünscht geändert werden.
  • Der erste Körper 200 ist als aus einem ersten Gehäuse 220 und einem zweiten Gehäuse 225 gebildet gezeigt und der zweite Körper ist als aus einem ersten Gehäuse 230 und einem zweiten Gehäuse 235 gebildet gezeigt. Diese ersten und zweiten Gehäuse werden gewöhnlich aus einem geeigneten biegesteifen Material, wie beispielsweise einem Spritzgusskunststoff oder unter Verwendung von metallischen Materialien, wie beispielsweise rostfreiem Stahl (Stainless Steel, STS) und Titan (Ti), gebildet.
  • Falls gewünscht, können ein oder mehrere Zwischengehäuse zwischen dem ersten und dem zweiten Gehäuse von einem oder beiden der ersten und zweiten Körper 200, 205 vorgesehen sein. Die ersten und zweiten Körper 200, 205 sind dimensioniert, um elektronische Komponenten zum Unterstützen der Operationen des mobilen Endgeräts 100 aufzunehmen.
  • Der erste Körper 200 ist mit einer Kamera 121 und einer Audioausgabeeinheit 152 gezeigt, die als ein Lautsprecher konfiguriert ist, der relativ zu einer Anzeige 151 positioniert ist. Falls gewünscht, kann die Kamera 121 in solch einer Weise konstruiert werden, dass sie wahlweise (beispielsweise gedreht, geschwenkt etc.) relativ zu dem ersten Körper 200 positioniert werden kann.
  • Die Funktionstasten 210 sind benachbart zu einer unteren Seite der Anzeige 151 positioniert. Die Anzeige 151 ist als LCD oder OLED implementiert. Es sei daran erinnert, dass die Anzeige auch als Berührungsbildschirm konfiguriert werden kann, der ein darunterliegendes Touchpad aufweist, welches Signale in Reaktion auf einen Nutzerkontakt (z. B. Finger oder Griffel, etc.) mit dem Berührungsbildschirm bzw. Touchscreen erzeugt.
  • Der zweite Körper 205 ist mit einem Mikrofon 122 gezeigt, welches benachbart zu dem Tastenfeld 215 positioniert ist, und den Seitentasten 245, die eine Art einer Nutzereingabeeinheit sind, welche entlang der Seite des zweiten Körpers 205 positioniert sind. Bevorzugt können die Seitentasten 245 als Schnelltasten bzw. Hot-Keys konfiguriert werden, sodass die Seitentasten einer bestimmten Funktion des mobilen Endgeräts zugeordnet sind. Eine Schnittstelleneinheit 170 ist benachbart zu den Seitentasten 245 positioniert und eine Energieversorgung 190 in Form einer Batterie befindet sich an einem unteren Abschnitt des zweiten Körpers 205.
  • 3 ist eine Rückansicht des mobilen Endgeräts, welches in 2 gezeigt ist. 3 zeigt den zweiten Körper 205 mit einer Kamera 221 und einem zugeordneten Blitz 250 und einem Spiegel 255. Der Blitz 250 arbeitet in Verbindung mit der Kamera 251 des zweiten Körpers 205. Der Spiegel 255 ist nützlich zum Assistieren eines Nutzers, um die Kamera 221 in einem Selbst-Porträt-Modus zu positionieren. Die Kamera 221 des zweiten Körpers ist in eine Richtung gerichtet, die entgegengesetzt zu einer Richtung ist, in die durch die Kamera 121 des ersten Körpers 200 (2) geblickt wird. Jede der Kameras 121 und 221 des ersten und des zweiten Körpers kann dieselben oder ähnliche Fähigkeiten aufweisen.
  • In einem Ausführungsbeispiel arbeitet die Kamera 121 des ersten Körpers 200 mit einer relativ geringeren Auflösung als die Kamera 221 des zweiten Körpers 205. Eine derartige Anordnung arbeitet gut während einer Videokonferenz, z. B. in der die Leistungsfähigkeit hinsichtlich der Bandbreite eines Rückkanals begrenzt sein kann. Die relativ höhere Auflösung der Kamera 221 des zweiten Körpers 205 (3) ist nützlich zum Erhalten qualitativ höherwertiger Bilder für eine spätere Verwendung oder zum Mitteilen an andere.
  • Der zweite Körper 205 enthält auch ein Audioausgabemodul 252, welches als ein Lautsprecher konfiguriert ist und welches sich an einer unteren Seite des zweiten Körpers befindet. Falls gewünscht, können die Audioausgabemodule 152 und 252 des ersten und des zweiten Körpers 200, 205 zusammenarbeiten, um eine Stereoausgabe bereitzustellen. Darüber hinaus kann entweder eines oder beide dieser Audioausgabemodule 152 und 252 konfiguriert werden, um als eine Freisprecheinrichtung zu fungieren. Alle Komponenten des zweiten Körpers 205, wie in 3 gezeigt, werden durch die Steuerung 180 gesteuert und sind wirkungsmäßig in dem mobilen Endgerät 100 gekoppelt.
  • Eine Rundfunksignalempfangsantenne 260 ist als an einem oberen Ende des zweiten Körpers 205 angeordnet gezeigt. Die Antenne 260 arbeitet in Kooperation mit dem Rundfunkempfangsmodul 111 (1). Falls gewünscht, kann die Antenne 260 starr sein oder in den zweiten Körper 205 einziehbar konfiguriert sein. Die Rückseite des ersten Körpers 200 enthält ein Schiebemodul 265, welches in verschiebbarer Weise mit einem korrespondierenden Schiebemodul, welches auf der Vorderseite des zweiten Körpers 205 angeordnet ist, gekoppelt ist.
  • Es versteht sich, dass die veranschaulichte Anordnung der verschiedensten Komponenten des ersten und des zweiten Körpers 200, 205 wie erforderlich oder gewünscht modifiziert werden kann. Im Allgemeinen können einige oder alle der Komponenten eines Körpers alternativ in dem anderen Körper implementiert werden. Zusätzlich ist der Ort und die relative Positionierung solcher Komponenten nicht kritisch für viele Ausführungsbeispiele und als solche können die Komponenten an Orten positioniert werden, die sich von denjenigen, die durch die repräsentativen Figuren gezeigt sind, unterscheiden.
  • Das mobile Endgerät 100 der 1 bis 3 kann konfiguriert werden, um in einem Kommunikationssystem zu arbeiten, welches Daten mittels Rahmen oder Paketen überträgt, einschließlich sowohl drahtlosen als auch drahtgebundenen Kommunikationssystemen und Satelliten-gestützten Kommunikationssystemen. Solche Kommunikationssysteme nutzen verschiedene Luftschnittstellen und/oder physikalische Schichten.
  • Beispiele derartiger Luftschnittstellen, die durch die Kommunikationssysteme verwendet werden, schließen ein aber sind nicht beschränkt auf frequenzgeteilten Mehrfachzugriff (Frequency Division Multiple Access, FDMA), zeitgeteilten Mehrfachzugriff (Time Division Multiple Access, TDMA), codegeteilten Mehrfachzugriff (Code Division Multiple Access, CDMA) und das universelle mobile Telekommunikationssystem (Universal Mobile Telecommunications System, UMTS), die langfristige Entwicklung (Long Term Evolution, LTE) des UMTS, und das globale System für mobile Kommunikation (Global System for Mobile Communications, GSM). Im Wege eines ausschließlich nicht beschränkenden Beispiels wird sich die weitere Beschreibung auf ein CDMA-Kommunikationssystem beziehen, aber solche Lehren sind gleichermaßen auf andere Systemarten anwendbar.
  • Nun Bezug nehmend auf 4, ist ein CDMA-Drahtloskommunikationssystem gezeigt, welches eine Vielzahl von mobilen Endgeräten 100, eine Vielzahl von Basisstationen 270, Basisstationssteuerungen (Base Station Controllers, BSCs) 275 und eine Mobilvermittlungszentrale (Mobile Switching Center, MSC) 280 aufweist. Das MSC 280 ist als Schnittstelle mit einem konventionellen Fernsprechnetz (Public Switch Telephone Network, PSTN) 290 konfiguriert. Das MSC 280 ist auch als Schnittstelle mit den BSCs 275 konfiguriert. Die BSCs 275 sind mit den Basisstationen 270 über Backhaul-Leitungen gekoppelt. Die Backhaul-Leitungen können gemäß einer bekannten Schnittstelle konfiguriert sein, einschließlich z. B. E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL oder xDSL. Es ist verständlich, dass das System mehr als zwei BSCs 275 enthalten kann. Alle Komponenten des Systems sind wirkungsmäßig gekoppelt und konfiguriert.
  • Jede Basisstation 270 kann enthalten einen oder mehrere Sektoren, wobei jeder Sektor eine omnidirektionale Antenne oder eine Antenne, die in eine bestimmte Richtung radial von der entsprechenden Basisstation 270 weg gerichtet ist, aufweist. Alternativ kann jeder Sektor zwei Antennen für Diversity-Empfang enthalten. Jede Basisstation 270 kann konfiguriert sein, um eine Vielzahl von Frequenzzuordnungen zu unterstützen, wobei jede Frequenzzuordnung ein bestimmtes Spektrum aufweist (z. B. 1,25 MHz, 5 MHz).
  • Die Kreuzung eines Sektors und einer Frequenzzuordnung kann als ein CDMA-Kanal bezeichnet werden. Die Basisstationen 270 können auch als Basisstation-Transceiver-Untersystem (BTS) bezeichnet werden. In einigen Fällen kann der Ausdruck ”Basisstation” verwendet werden, um sich kollektiv auf eine BSC 275, eine oder mehrere Basisstationen 270 zu beziehen. Die Basisstationen können auch als ”Zellenstandorte” bezeichnet werden. Alternativ können individuelle Sektoren einer bestimmten Basisstation 270 als Zellenstandort bezeichnet werden.
  • Ein terrestrischer digitaler Multimedia-Rundfunk(DMB)-Sender 295 (oder jede andere Art von digitalem Rundfunksender) ist gezeigt, der zu tragbaren Endgeräten 100, die in dem System arbeiten, rundfunkt bzw. (rund)sendet. Das Rundfunkempfangsmodul (111) (1) des Endgeräts 100 ist bevorzugt konfiguriert, um Rundfunksignale, die durch den DMB-Sender 295 gesendet wurden, zu empfangen. Ähnliche Anordnungen können für andere Arten von Rundfunk- und Multicast-Signalisierung (wie oben diskutiert) implementiert werden.
  • 4 stellt weiter mehrere Satelliten 300 des globalen Ortsbestimmungssystems (GPS) dar. Solche Satelliten ermöglichen eine Ortsbestimmung der Position von einigen oder allen der tragbaren Endgeräte 100. Zwei Satelliten sind dargestellt, aber es versteht sich, dass nützliche Ortungsinformationen mit mehr oder weniger Satelliten erhalten werden können. Das Positionsortungsmodul 115 (1) des tragbaren Endgeräts 100 ist typischerweise konfiguriert, um mit den Satelliten 300 zusammenzuarbeiten, um gewünschte Positionsinformationen zu erhalten. Selbstverständlich können andere Arten von Positionserfassungstechnologie (d. h. Ortungstechnologie, die zusätzlich oder anstelle der GPS-Ortungstechnologie verwendet werden kann) alternativ implementiert werden. Falls gewünscht, können einige oder alle der GPS-Satelliten 300 alternativ oder zusätzlich konfiguriert werden, um Satelliten-DMB-Übertragungen bereitzustellen.
  • Während eines Betriebs des drahtlosen Kommunikationssystems empfangen die Basisstationen 270 Sätze von Rückkanalsignalen von verschiedenen mobilen Endgeräten 100. Die mobilen Endgeräte 100 nehmen teil an Anrufen, Nachrichtenvermittlung, und ander Kommunikation. Jedes Rückkanalsignal, welches durch eine bestimmte Basisstation 270 empfangen wurde, wird in der Basisstation verarbeitet. Die resultierenden Daten werden an eine zugeordnete BSC 275 weitergeleitet. Die BSC 275 stellt Anrufressourcenzuordnung und Mobilitätsmanagementfunktionalität zur Verfügung einschließlich der Inszenierung von Soft-Übergaben zwischen Basisstationen 270. Die BSCs 275 routen außerdem die empfangenen Daten zu der MSC 280, die zusätzlich Routing-Dienste als Schnittstelle mit dem PSTN 290 bereitstellt. Ähnlich ist das PSTN 290 eine Schnittstelle zu der MSC 280 und die MSC 280 ist eine Schnittstelle mit den BSCs 275, die wiederum die Basisstationen 270 steuern, um Sätze von Abwärtskanalsignalen zu den mobilen Endgeräten 100 zu übertragen.
  • In der folgenden Beschreibung werden verschiedene Ausführungsbeispiele für ein Menü-Symbol-Anzeigeverfahren, welches in dem oben konfigurierten mobilen Endgerät implementiert ist, mit Bezug auf die begleitenden Zeichnungsfiguren, wie beispielsweise 5 bis 11 erläutert. Mit anderen Worten wird die vorliegende Beschreibung unter der Annahme gemacht, dass das Anzeigemodul 151 einen Berührungsbildschirm bzw. Touchscreen enthält. Der Berührungsbildschirm bzw. Touchscreen ist in der folgenden Beschreibung durch Referenzzeichen 400 angezeigt. Jedoch können die folgenden Ausführungsbeispiele auch in anderen Arten von Kommunikationsendgeräten implementiert werden.
  • Erstes Ausführungsbeispiel
  • Ein Menü-Symbol-Anzeigeverfahren gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung wird mit Bezug auf 5 und 6 wie folgt erklärt.
  • 5 ist ein Flussdiagramm zum Erklären eines Verfahrens zum Anzeigen von Menü-Symbole gemäß der vorliegenden Erfindung, und 6 ist ein Diagramm von Beispielen eines Anzeigebildschirms eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben.
  • Zuallererst kann eine Vielzahl von Menüs der vorliegenden Erfindung hauptsächlich in zwei Arten eingeordnet werden, d. h. Menüs, die durch eine Berührung auf dem Berührungsbildschirm (im Folgenden 'für eine Berührung verfügbare' bzw. 'Berührungs-verfügbare Menüs genannt) ausführbar sind und andere Menüs, die durch die Berührung (im Folgenden 'für eine Berührung nicht verfügbare' bzw. 'Berührungs-nicht-verfügbare-Menüs') nicht auswählbar sind. Diese werden im Einzelnen mit verschiedenen Beispielen beschrieben.
  • Bezug nehmend auf (6-1) der 6 zeigt der Berührungsbildschirm 400 ein Standby-Bild an. Und, ein 'Menü'-Symbol 410 ist in dem Standby-Bild präsentiert. Das 'Menü'-Symbol 410 kann über die Nutzereingabeeinheit 130, wie beispielsweise ein Tastenfeld, ausgewählt werden. Jedoch kann das 'Menü'-Symbol 410 nicht durch Berühren eines vorbestimmten Abschnitts des Touchscreens 400 ausgewählt werden. Somit entspricht das 'Menü'-Symbol 410 einem Berührungs-nicht-verfügbaren Symbol.
  • Es ist für Fachleute offensichtlich, dass das 'Menü'-Symbol 410 über die Nutzereingabeeinheit 130 (z. B. Softtaste) ausgewählt werden kann. So werden ihre Einzelheiten in dieser Offenbarung zur Klarheit und Freundlichkeit der Beschreibung weggelassen.
  • Zu anfangs wird kein Berührungs-verfügbares Symbol auf dem Touchscreen 400 wie in (6-1) der 6 gezeigt. Somit braucht zu diesem Zeitpunkt der Berührungsbildschirm nicht aktiviert zu werden. So ist eine Stromversorgung dorthin, um eine durch einen Endgerätenutzer gemachte Berührung zu detektieren, unnötig und kann eingespart werden.
  • Unter diesen Umständen wird eine an der Nutzereingabeeinheit 130 vorgesehene Berührungsbildschirm- bzw. Touchscreen-Aktivierungstaste (nicht gezeigt in 6) durch einen Endgerätenutzer gedrückt. Alternativ kann die Touchscreen-Aktivierungstaste mit einer Seitentaste der dritten Nutzereingabeeinheit 245 konfiguriert sein. Wenn dem so ist, wird der Touchscreen 400 durch Erfassen einer Berührung, die durch den Endgerätenutzer gemacht wurde, aktiviert [S51].
  • Nachfolgend wird ein vorbestimmter Punkt eines Bildes, der auf dem Touchscreen 400 (der in diesem Moment aktiviert ist, um eine Berührung zu detektieren), wie in (6-1) der 6 gezeigt, mit einem Pfeil oder einem Stern durch den Nutzer (z. B. den Finger des Nutzers) berührt und dann von rechts nach links (oder in eine beliebige andere bestimmte Richtung) gezogen [S52]. In der folgenden Beschreibung wird diese Aktion als ein Ausdruck repräsentiert, dass ein vorbestimmter Punkt des Touchscreens 400 berühr-gezogen wird von rechts nach links. Und es ist klar, dass das 'Berühr-Ziehen ein Konzept ist, welches einen 'Flick' bzw. 'Wischer' einschließt.
  • Dann unter Bezug auf (6-2) der 6 erscheint eine Gruppe von Berührungs-verfügbaren Symbole 420 auf der rechten Seite des Touchscreens 400 durch Schieben in den Touchscreen 400 von der rechten Endseite des Touchscreens 400 [S53]. Jedoch können die Berührungs-verfügbaren Symbole 420 konfiguriert werden, auf einem beliebigen dafür bestimmten Bereich auf dem Touchscreen 400 wie gewünscht zu erscheinen.
  • So berührt der Endgerätenutzer, um ein bestimmtes Berührungs-verfügbares Symbol aus der Gruppe der Berührungs-verfügbaren Symbole 420, die auf dem Touchscreen 400 dargestellt werden, auszuwählen, um eine Funktion, die dem ausgewählten Symbol entspricht, auszuführen.
  • Zur Klarheit der Beschreibung werden die folgenden Konzepte eingeführt.
  • Zuallererst ist der Touchscreen 400 bevorzugt mit vier Seiten (d. h. einer rechten Seite, einer linken Seite, einer oberen Seite und einer unteren Seite) konstruiert. In der folgenden Beschreibung wird ein innerer Teil, der von den vier Seiten eingeschlossen ist (d. h. ein echter Teil, der für einen Endgerätenutzer sichtbar ist), als ein 'Innenbereich des Touchscreens 400 und ein äußerer Teil außerhalb der vier Seiten (d. h. ein virtueller Teil, der für einen Endgerätenutzer nicht sichtbar ist) als ein 'Außenbereich' (verborgener Bereich) des Touchscreens bezeichnet.
  • Nämlich, die obige Beschreibung, dass die Gruppe von Berührungs-verfügbaren Symbole 420 durch Schieben in den Touchscreen 400 von der rechten Seite des Touchscreens 400 bezüglich (6-2) der 6 erscheinen, kann repräsentiert werden als eine Gruppe der Berührungs-verfügbaren Symbole, die sich in dem Außenbereich hinter der rechten Seite befinden, in den Innenbereich durch Überschreiten der Grenze zwischen dem Außen- und dem Innenbereich an der rechten Seite des Touchscreens 400 schiebt.
  • Sobald die Berührungs-verfügbaren Symbole 420 auf dem Touchscreen 400 angezeigt werden, kann ein vorbestimmter Punkt des Touchscreens 400, wie in (6-2) der 6 gezeigt, von links nach rechts berühr-gezogen werden [S52]. Wenn dem so ist, schiebt sich die Gruppe der Berührungs-verfügbaren Symbole 420, die im Moment auf dem Touchscreen 400 angezeigt werden, um in der rechten Seite zu verschwinden. Mit anderen Worten schiebt sich die Gruppe aus Berührungs-verfügbaren Symbole 420, die auf dem Innenbereich angezeigt werden, um die rechte Seite zu passieren und sich dann weg in den Außenbereich über der rechten Seite zu bewegen, wodurch die Berührungs-verfügbaren Symbole 420 nicht mehr länger für den Nutzer auf dem Touchscreen 400 sichtbar sind [S53].
  • In einem anderen Beispiel, um die Berührungs-verfügbaren Symbole verschwinden zu lassen, ist es nicht notwendig, dass das Berühr-Ziehen in einer Richtung entgegengesetzt der früheren Richtung, in der die Berührungs-verfügbaren Symbole auf dem Touchscreen erschienen, auszuführen. Z. B. im Fall, dass das Berühr-Ziehen in einer Richtung ausgeführt wird, in der die Berührungs-verfügbaren Symbole zum Erscheinen geschoben wurden, kann konfiguriert werden, dass die Berührungs-verfügbaren Symbole 420 schieben, um sich in den Außenbereich in die linke Seite durch Passieren einer Grenze an der linken Seite des Touchscreens zu bewegen.
  • Optional, selbst wenn ein vorbestimmter Punkt des Touchscreens 400 nicht berühr-gezogen wird, ist es möglich, die Berührungs-verfügbaren Symbole 420 zu konfigurieren, zu verschwinden, wenn der Touchscreen durch eine Manipulation der Touchscreenaktivierungstaste deaktiviert wird.
  • In der obigen Beschreibung wurde ein Mechanismus für das Erscheinen/Verschwinden der Berührungs-verfügbaren Symbole auf dem Touchscreen der Anzeigeeinheit nach dem Aktivieren des Touchscreens gemäß einem Ausführungsbeispiel der Erfindung beschrieben. Die vorliegende Erfindung ist außerdem anwendbar auf die Konfiguration, um den Touchscreenaktivierungsprozess in Wegfall zu bringen infolgedessen der Touchscreen immer aktiviert ist.
  • In der obigen Beschreibung ist eine Gruppe von Berührungs-verfügbaren Symbole (beispielsweise Berührungs-verfügbaren Symbole, die Menüs entsprechen, die häufig durch einen Endgerätenutzer verwendet werden) konfiguriert, sich nur über eine Seite (z. B. rechte Seite) des Touchscreens 400 zu bewegen. Optional kann die vorliegende Erfindung konfiguriert sein, einer anderen Gruppe von Berührungs-verfügbaren Symbole (z. B. Berührungs-verfügbaren Symbole, die Menüs entsprechen, die für ein Einstellen des Endgeräts bedeutsam sind) ermöglichen, sich weiter über eine andere Seite des Touchscreens 400 zu bewegen. Andere Variationen sind möglich.
  • Zweites Ausführungsbeispiel
  • In der Beschreibung des ersten Ausführungsbeispiels der vorliegenden Erfindung wurde der Vorgang zum Bewegen der Berührungs-verfügbaren Symbole zwischen dem Innen- und Außenbereich des Touchscreens erläutert. In der folgenden Beschreibung des zweiten Ausführungsbeispiels der vorliegenden Erfindung wird ein Vorgang zum Auswählen wenigstens eines von Berührungs-verfügbaren Symbole beim Anzeigen der Berührungs-verfügbaren Symbole auf dem Innenbereich des Touchscreens erläutert.
  • 7 ist ein Diagramm von Beispielen eines Anzeigebildschirms eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben.
  • Bezug nehmend auf (7-1) der 7 ist eine Gruppe von Berührungs-verfügbaren Symbole 420 auf dem Touchscreen 400 gezeigt. Da die Berührungs-verfügbaren Symbole 420 angezeigt werden, ist es offensichtlich, dass sich der Touchscreen in einem aktiven Modus befindet.
  • Es sei angenommen, dass das 'MP3'-Symbol 421 aus der Gruppe der Berührungs-verfügbaren Symbole 420, die angezeigt werden, z. B. ausgewählt wird.
  • Wenn dem so ist, wird ein Fenster 430 zum Wiedergeben einer MP3-Datei, wie in (7-2) von 7 gezeigt, auf dem Touchscreen 400 angezeigt und eine MP3-Datei-Abspielfunktion wird in dem mobilen Endgerät 100 aktiviert. Hier kann das Fenster 430 ein Menü zum Auswählen einer bestimmten MP3-Datei und/oder zum Steuern einer Wiedergabeoperation einer MP3-Datei anzeigen, oder eine bestimmte MP3-Datei kann vorausgewählt sein.
  • Nachfolgend wird ein vorbestimmter Punkt des Touchscreens 400, wie in (7-2) der 7 gezeigt, von links nach rechts berühr-gezogen.
  • Wenn dem so ist, schiebt sich eine andere Gruppe von Berührungs-verfügbaren Symbole 440 zum Erscheinen in den Touchscreen 400 von der linken Seite des Touchscreens 400. Mit anderen Worten bewegt sich eine andere Gruppe von Berührungs-verfügbaren Symbole 440, die in dem Außenbereich über der linken Seite existiert, durch eine Grenze (zwischen dem Innen- und Außenbereich) an der linken Seite und erscheint dann an der linken Seite des Touchscreens sowie sie sich in die linke Seite des Touchscreens schieben.
  • Die Berührungs-verfügbaren Symbole 440, die zu der anderen Gruppe gehören, können enthalten Symbole, die für die MP3-Datei-Abspielfunktion bedeutsam sind. Somit ist ein Endgerätenutzer in der Lage, die MP3-Datei-Abspielfunktion durch Auswählen (z. B. Berühren) eines bestimmten Symbols aus der Gruppe der Berührungs-verfügbaren Symbole 440, die gerade auf dem Touchscreen 400 angezeigt werden, zu steuern.
  • Bezug nehmend auf (7-3) der 7 wird ein vorbestimmter Punkt des Touchscreens 400 von rechts nach links berühr-gezogen.
  • Dann unter Bezug auf (7-4) der 7 wird die andere Gruppe der Berührungs-ver-fügbaren Symbole 440, die gerade auf der linken Seite des Touchscreens 400 angezeigt werden, in die linke Seite des Touchscreens 400 geschoben und verschwindet, wodurch die Berührungs-verfügbaren Symbole 440 nicht länger auf dem Touchscreen 400 sichtbar sind. Mit anderen Worten, die Berührungs-verfügbaren Symbole 440 auf dem Innen-(sichtbaren)-Bereich des Touchscreens 400 bewegen sich und schieben sich durch die Grenze links, um in den Außenbereich hinter der linken Seite des Touchscreens 400 zu verschwinden.
  • Ein Fall des Unterbrechens der MP3-Wiedergabefunktion wird nun im Folgenden erklärt.
  • Bezug nehmend auf (7-4) der 4 wird ein vorbeschriebener Punkt des Touchscreens 400 von rechts nach links berühr-gezogen. Dann Bezug nehmend auf (7-5) der 4 wird eine Gruppe von Berührungs-verfügbaren Symbole 420, um zu erscheinen, in den Touchscreen 400 durch die rechte Seite des Touchscreens 400 geschoben. Mit anderen Worten passiert die Gruppe der Berührungs-verfügbaren Symbole 420, die in dem Außenbereich (verborgenen Bereich) hinter der rechten Seite existieren, die Grenze an der rechten Seite und wird dann geschoben, um sich in den Innenbereich zu bewegen, wodurch die Berührungs-verfügbaren Symbole 420 auf der rechten Seite des Touchscreens 400 in verschiebbarer Weise erscheinen.
  • In diesem Fall wird das 'MP3'-Symbol 421 durch ein 'Home'-Symbol 427 unter der Gruppe der Berührungs-verfügbaren Symbole 420 ersetzt. Da die MP3-Datei-Abspielfunktion im Gang ist (z. B. die MP3-Datei wird abgespielt), wird das 'MP3'-Symbol 421 zu diesem Zeitpunkt nicht benötigt, so kann ein anderes Symbol mit anderen Berührungs-verfügbaren Symbole erscheinen. In einem anderen Beispiel können eine verschiedene Kombination von Berührungs-verfügbaren Symbole 420 auf dem Touchscreen erscheinen. Weiter kann eine Anzahl von Berührungs-verfügbaren Symbole 420 sowie die Weise, in der die Berührungs-verfügbaren Symbole 420 auf dem Touchscreen 400 erscheinen, durch den Nutzer, wenn gewünscht, gesteuert/ausgewählt werden.
  • Als ein Beispiel kann das 'Home'-Symbol 427 durch den Endgerätenutzer ausgewählt werden.
  • Dann unter Bezug auf (7-6) der 7 unterbricht das mobile Endgerät 100 die MP3-Datei-Abspielfunktion (z. B. wird das MP3-Datei-Abspielen gestoppt) und ein Standby-Bild wird auf dem Touchscreen 400 angezeigt. In anderen Beispielen kann der Nutzer Berühr-Auswählen jedes der angezeigten Berührungs-verfügbaren Symbole 420, um eine gewünschte Funktion auszuführen.
  • Drittes Ausführungsbeispiel
  • Wenn, während eine bestimmte Funktion (z. B. MP3-Datei-Abspielfunktion), die in dem zweiten Ausführungsbeispiel der vorliegenden Erfindung beschrieben wurde, ausgeführt wird, beispielsweise ein Ereignis wie ein Nachrichtenempfang stattfindet, wird als ein drittes Ausführungsbeispiel der vorliegenden Erfindung mit Bezug auf 8, wie folgt, beschrieben, wie dieses Ereignis zu verarbeiten ist.
  • 8 ist ein Diagramm von Beispielen eines Anzeigebildschirms eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem dritten Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben.
  • Bezug nehmend auf (8-1) der 8 wird angenommen, dass eine MP3-Datei-Abspielfunktion ausgeführt wird in dem mobilen Endgerät 100. Z. B. wird gerade eine bestimmte MP3-Datei (Audio und/oder Video) in dem mobilen Endgerät 100 abgespielt.
  • Während dieser Zeit sei angenommen, dass das mobile Endgerät 100 eine Nachricht empfängt.
  • Wenn dem so ist, wird ein Anzeiger bzw. Indikator 403, der den Nachrichtenempfang, wie in (8-2) der 8 gezeigt, auf dem Touchscreen 400 angezeigt.
  • Wenn der Touchscreen 400 sich nicht in einem Berührungs-aktiven Modus befindet, wird die Touchscreen-Aktivierungstaste ausgewählt, um den Touchscreen so zu aktivieren, dass z. B. eine Berührung auf dem Touchscreen erfasst werden kann.
  • Bezug nehmend auf (8-2) der 8 wird ein vorbestimmter Punkt des Touchscreens 400 nach oben berühr-gezogen.
  • Dann Bezug nehmend auf (8-3) der 8 schiebt sich ein Fenster 450 für die empfangene Nachricht in den Touchscreen 400 über die linke Seite des Touchscreens 400, um zu erscheinen. Mit anderen Worten passiert das Fenster 450, welches in dem Außenbereich (verborgenen Bereich des Touchscreens 400) hinter der unteren Seite des Touchscreens 400 existiert, eine Grenze an der unteren Seite und schiebt sich dann nach innen, um sich in den inneren Bereich des Touchscreens 400 zu bewegen. Das heißt, das Fenster 450 erscheint in verschiebbarer Weise auf dem Touchscreen 400 aus der unteren Seite des Touchscreens 400.
  • Ein Endgerätenutzer löscht die empfangene Nachricht durch Berühren eines 'Löschen'-Symbols 453 in dem Fenster 450 oder erstellt eine Erwiderung in Antwort auf die empfangene Nachricht durch Berühren eines 'Erwiderung'-Symbols 455 in dem Fenster 450.
  • Nachfolgend Bezug nehmend auf (8-3) der 8 wird ein vorbestimmter Punkt des Touchscreens 400 nach unten berühr-gezogen.
  • Dann Bezug nehmend auf (8-4) der 8 schiebt sich das Fenster 450 für die empfangene Nachricht nach unten, um in der unteren Seite des Touchscreens 400 aus dem Innenbereich des Touchscreens 400 zu verschwinden. Mit anderen Worten passiert das Fenster 450, welches in dem Innenbereich des Touchscreens war, die Grenze an der unteren Seite und schiebt sich dann nach außen, um in dem Außenbereich (verborgenen Bereich) hinter der unteren Seite des Touchscreens 400 zu verschwinden. Als ein Ergebnis kann das Fenster 430 für den Nutzer sichtbar sein.
  • Viertes Ausführungsbeispiel
  • In der obigen Beschreibung, wenn der Touchscreen einmal berühr-gezogen wird, erscheint eine Gruppe von Berührungs-verfügbaren Symbole gleichzeitig verschiebbar auf dem Innenbereich des Touchscreens. Alternativ ist die folgende Konfiguration möglich. Mit anderen Worten, nachdem einige der Gruppe von Berührungs-verfügbaren Symbole verschoben wurden, um in dem Innenbereich des Touchscreens zu erscheinen, wenn der Touchscreen noch einmal berühr-gezogen wird, schiebt sich der Rest der Gruppe von Berührungs-verfügbaren Symbole in den Innenbereich des Touchscreens, um zu erscheinen. Diese Konfiguration wird als ein viertes Ausführungsbeispiel der vorliegenden Erfindung mit Bezug auf 9 wie folgt erläutert.
  • 9 ist ein Diagramm von Beispielen eines Anzeigebildschirms eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem vierten Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben.
  • Bezug nehmend auf (9-1) der 9, während der Touchscreen 400 sich in einem aktiven Modus (Berühr-Modus) befindet, wird ein vorbestimmter Punkt des Touchscreens 400 von rechts nach links berühr-gezogen.
  • Wenn dem so ist, passieren einige (z. B. Symbole 421, 422 und 423) der Gruppe von Berührungs-verfügbaren Symbole 420, die es in dem Außenbereich des Touchscreens 400 hinter der rechten Seite gibt, wie in (9-2) der 9 gezeigt, die Grenze an der rechten Seite und erscheinen dann in verschiebbarer Weise in dem Innenbereich auf der rechten Seite des Touchscreens 400.
  • Nachfolgend mit Bezug auf (9-2) der 9 wird ein vorbestimmter Punkt des Touchscreens 400 noch einmal von rechts nach links berühr-gezogen.
  • Dann Bezug nehmend auf (9-3) der 9 passiert der Rest (z. B. Symbole 424, 425 und 426) der Gruppe von Berührungs-verfügbaren Symbole 420, die es in dem Außenbereich hinter der rechten Seite des Touchscreens 400 gibt, die Grenze an der rechten Seite und erscheinen dann verschiebbar auf dem Innenbereich auf der rechten Seite des Touchscreens 400.
  • Somit kann ein Endgerätenutzer ein bestimmtes der angezeigten Berührungs-verfügbaren Symbole 420, wie gewünscht, auswählen/berühren und betätigen.
  • Mittlerweile, wenn gewünscht, wird ein vorbestimmter Punkt des Touchscreens 400, wie in (9-3) der 9 gezeigt, von links nach rechts berühr-gezogen.
  • Wenn dem so ist, passieren die zuletzt angezeigten Symbole 424, 425 und 426 der Gruppe von Berührungs-verfügbaren Symbole 420 auf dem Innenbereich, wie in (9-4) der 9 gezeigt, die Grenze an der rechten Seite und bewegen sich dann in verschiebbarer Weise in den Außenbereich hinter der rechten Seite des Touchscreens 400, wodurch diese Symbole 424, 425 und 426 von dem Touchscreen 400 verschwinden.
  • Dann Bezug nehmend auf (9-4) der 9 wird ein vorbestimmter Punkt des Touchscreens 400 noch einmal von links nach rechts berühr-gezogen.
  • Wenn dem so ist, passieren einige (d. h., Symbole 421, 422 und 423) der Gruppe von Berührungs-verfügbaren Symbole 420, die es in dem Innenbereich gibt, die Grenze an der rechten Seite und bewegen sich in verschiebbarer Weise in den Außenbereich hinter der rechten Seite des Touchscreens 400, wodurch alle Symbole 420 vollständig aus dem Touchscreen 400 verschwinden und das Standby-Bild kann auf dem Touchscreen erscheinen.
  • In der obigen Beschreibung werden einige oder alle der Gruppe von Berührungs-verfügbaren Symbole zum Erscheinen auf dem Touchscreen geschoben gemäß einer Anzahl (Nummer) von Berühr-Ziehungen auf dem Touchscreen. Die vorliegende Erfindung ermöglicht weiter eine folgende Konfiguration. Nämlich einige oder alle der Gruppe von Berührungs-verfügbaren Symbole wird zum Erscheinen auf dem Touchscreen in Übereinstimmung mit einer Länge bzw. Dauer des Berühr-Ziehens auf dem Touchscreen geschoben. Dies ist offensichtlich für Fachleute. Daher werden seine Einzelheiten in der folgenden Beschreibung zur Klarheit dieser Offenbarung weggelassen.
  • Fünftes Ausführungsbeispiel
  • Ein Verfahren zum Anzeigen von Menü-Symbole gemäß einem fünften Ausführungsbeispiel der vorliegenden Erfindung wird mit Bezug auf 10 wie folgt erläutert.
  • 10 ist ein Diagramm von Beispielen eines Anzeigebildschirms eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem fünften Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben.
  • Bezug nehmend auf (10-1) der 10 wird angenommen, dass eine MP3-Datei-Abspielfunktion in dem mobilen Endgerät 100 ausgeführt wird.
  • Wenn ein Endgerätenutzer die Touchscreen-Aktivierungstaste manipuliert, wird der Touchscreen 400 in den Berührungsmodus aktiviert.
  • Bezug nehmend auf (10-2) der 10 wird eine Gruppe von Berührungs-verfügbaren Symbole 440, die relevant für die MP3-Datei-Abspielfunktion sind, erzeugt und auf dem Touchscreen 400 angezeigt. Wenn der Touchscreen 400 aktiviert wird, wird keine Begrenzung gesetzt für den Mechanismus der Gruppe von Berührungs-verfügbaren Symbole 440, um zu erscheinen. Z. B., wie in der vorstehenden Beschreibung erwähnt, ist es möglich, die Gruppe von Berührungs-verfügbaren Symbole 440 zu konfigurieren, zum Erscheinen in dem Innenbereich aus dem Außenbereich hinter der linken Seite des Touchscreens 400 geschoben zu werden.
  • Dann mit Bezug auf (10-2) der 10 wird ein vorbestimmter Punkt des Touchscreens 400 von rechts nach links berühr-gezogen.
  • Dann mit Bezug auf (10-3) der 10 wird die Gruppe der Berührungs-verfügbaren Symbole 440 zum Verschwinden in dem Außenbereich hinter der linken Seite des Touchscreens 400 aus dem Innenbereich nach außen geschoben. Gleichzeitig wird eine andere Gruppe von Berührungs-verfügbaren Symbole 420 (z. B. Berührungs-verfügbare Symbole entsprechend einem Menü, welches häufig durch einen Endgerätenutzer verwendet wird) nach innen, um in dem Innenbereich aus dem Außenbereich an der rechten Seite des Touchscreens 400 zu erscheinen. Z. B. verschwinden die Symbole 440 verschiebbar von dem Touchscreen 400 und die Symbole 420 erscheinen verschiebbar auf dem Touchscreen 400 zur selben Zeit, zur im Wesentlichen selben Zeit oder in einer bestimmten Reihenfolge nacheinander.
  • Dann Bezug nehmend auf (10-3) der 10 wird ein vorbestimmter Punkt des Touchscreens 400 von links nach rechts berühr-gezogen.
  • Wenn dem so ist, wird die Gruppe von Berührungs-verfügbaren Symbole 420, wie in (10-3) der 10 gezeigt, in den Außenbereich hinter die rechte Seite des Touchscreens 400 aus dem Innenbereich geschoben, um zu verschwinden. Gleichzeitig wird die Gruppe von Berührungs-verfügbaren Symbole 440 in den Innenbereich aus dem Außenbereich hinter der linken Seite des Touchscreens in derselben Weise wie (10-2) der 10 geschoben, um zu erscheinen.
  • Nachfolgend deaktiviert der Endgerätenutzer den Touchscreen 400 durch Manipulieren der Touchscreen-Aktivierungstaste.
  • Wenn dem so ist, verschwindet die Gruppe von Berührungs-verfügbaren Symbole 440, wie in (10-2) der 10 gezeigt, aus dem Touchscreen 400, wie in (10-1) der 10 gezeigt. Wenn der Touchscreen 400 deaktiviert wird, ist keine Beschränkung auf den Mechanismus für die Gruppe von Berührungs-verfügbaren Symbole 440 zum Verschwinden eingestellt. Z. B., wie in der vorstehenden Beschreibung erwähnt, ist es möglich, die Gruppe von Berührungs-verfügbaren Symbole 440 zu konfigurieren, um zum Verschwinden aus dem Innenbereich in den Außenbereich hinter die linke Seite des Touchscreens 400 hinausgeschoben zu werden.
  • In der obigen Beschreibung, während das mobile Endgerät eine MP3-Datei-Abspielfunktion ausführt, geht der Touchscreen in den aktiven Modus. So, nach der Abdunklung des Touchscreens ist eine Gruppe von Berührungs-verfügbaren Symbole, welche für die MP3-Datei-Abspielfunktion relevant sind, konfiguriert, zuerst zu erscheinen. Und die vorliegende Erfindung ermöglicht weiter eine folgende Konfiguration. Nämlich, während das mobile Endgerät sich in einem Standby-Modus befindet, wenn der Touchscreen aktiviert ist, ist es möglich, eine Gruppe von Berührungs-verfügbaren Symbole 420 entsprechend Menüs, die durch den Endgerätenutzer häufig verwendet werden, zuerst zu erscheinen, zu konfigurieren.
  • Sechstes Ausführungsbeispiel
  • Ein Verfahren zum Anzeigen von Menü-Symbole gemäß einem sechsten Ausführungsbeispiel der vorliegenden Erfindung wird mit Bezug auf 11 wie folgt erläutert.
  • 11 ist ein Diagramm von Beispielen von einem Anzeigebildschirm eines mobilen Endgeräts, um ein Bildanzeigeverfahren gemäß einem sechsten Ausführungsbeispiel der vorliegenden Erfindung zu beschreiben.
  • Bezug nehmend auf (11-1) der 11 wird angenommen, dass eine MP3-Datei-Abspielfunktion in dem mobilen Endgerät 100 ausgeführt wird. Und es wird außerdem angenommen, dass der Touchscreen 400 sich in einem aktiven Modus befindet.
  • In diesem Fall ist der Innenbereich des Touchscreens 400 in eine Vielzahl von Bereichen partitioniert bzw. aufgeteilt. Zur Klarheit der Beschreibung für das vorliegende Ausführungsbeispiel wird angenommen, dass der Innenbereich in einen linken Bereich I und einen rechten Bereich II aufgeteilt wird. Der linke und der rechte Bereich I und II sind einer Abwanderung von Berührungs-verfügbaren Symbole 440 hinter die linke Seite des Touchscreens 400 bzw. einer Abwanderung von Berührungs-empfindlichen Symbole 420 hinter die rechte Seite des Touchscreens 400 zugeordnet. Dies wird im Einzelnen wie folgt erläutert. Jedoch ist die Erfindung nicht darauf beschränkt und umfasst ein Betreiben des Touchscreens unterteilt in verschiedene Bereiche und/oder verschiedene Richtungen (z. B. untere und obere Bereiche).
  • Ein vorbestimmter Punkt auf dem linken Bereich I des Touchscreens 400, wie in (11-1) der 11 gezeigt, wird von links nach rechts berühr-gezogen.
  • Wenn dem so ist, passiert eine Gruppe von Berührungs-verfügbaren Symbole 440, die es in dem Außenbereich hinter der linken Seite des Touchscreens 400 gibt, die Grenze an der linken Seite des Touchscreens 400, wie in (11-2) der 11 gezeigt und wird zum Erscheinen in den Innenbereich geschoben. Z. B. erscheinen die Symbole 440 in verschiebbarer Weise auf dem linken Bereich I des Touchscreens 400.
  • Bezug nehmend auf (11-2) der 11 wird ein vorbestimmter Punkt auf dem rechten Bereich II des Touchscreens 400 von rechts nach links berühr-gezogen.
  • Wenn dem so ist, passiert eine andere Gruppe von Berührungs-verfügbaren Symbole 420, die es in dem Außenbereich hinter der rechten Seite des Touchscreens 400 gibt, wie in (11-3) der 11 gezeigt, die Grenze an der rechten Seite des Touchscreens und schieben sich dann zum Erscheinen in den Innenbereich. Das heißt, die Symbole 420 erscheinen in verschiebbarer Weise auf dem rechten Bereich II des Touchscreens 400.
  • Dann Bezug nehmend auf (11-3) der 11, wird ein vorbestimmter Punkt des linken Bereichs I des Touchscreens 400 von rechts nach links berühr-gezogen.
  • Wenn dem so ist, passiert die Gruppe von Berührungs-verfügbaren Symbole 440, die gerade angezeigt werden, wie in (11-4) der 11 gezeigt, die Grenze an der linken Seite aus dem Innenbereich und wird dann in den Außenbereich hinter die linke Seite des Touchscreens 400 zum Verschwinden geschoben. Z. B. verschwinden die angezeigten Symbole 440 verschiebbar aus dem linken Bereich I.
  • Bezug nehmend auf (11-4) der 11 wird ein vorbestimmter Punkt des rechten Bereichs II des Touchscreens 400 von links nach rechts berühr-gezogen.
  • Wenn dem so ist, passiert die andere Gruppe der Berührungs-verfügbaren Symbole 420, die gerade angezeigt wurden, wie in (11-1) der 11 gezeigt, die Grenze an der rechten Seite aus dem inneren Bildschirm und werden in den Außenbereich hinter der rechten Seite des Touchscreens geschoben, um zu verschwinden. Z. B. verschwinden die Symbole 420 verschiebbar aus dem rechten Bereich II des Touchscreens 400. In den obigen Beispielen wurden Berühr-Ziehen-Operationen in Verbindung mit bestimmten Richtungen (z. B. rechts nach links, oder links nach rechts) diskutiert. Die vorliegende Erfindung ist nicht auf die vorstehend gegebenen Beispiele beschränkt und umfasst vollständig andere Richtungen von Berühr-Ziehen-Operationen.
  • Demgemäß stellt die vorliegende Erfindung die folgenden Effekte und Vorteile bereit.
  • Zuallererst, gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung wird ein Touchscreen nur mit Strom zum Erfassen einer Berührung versorgt, wenn Berührungs-verfügbare Symbole auf dem Touchscreen angezeigt werden. Somit minimiert die vorliegende Erfindung den Energieverbrauch bei der Verwendung des Touchscreens.
  • Zweitens wird es gemäß einem Ausführungsbeispiel der vorliegenden Erfindung einem Endgerätenutzer erleichtert, bestimmte Berührungs-verfügbare Symbole auf einem Touchscreen über ein Berühr-Ziehen auf dem Touchscreen anzuzeigen. Somit ermöglicht es die vorliegende Erfindung dem Endgerätenutzer, eine bestimmte Menü-Funktion auszuführen.
  • Es ist für Fachleute klar, dass verschiedene Modifikationen und Veränderungen bei der vorliegenden Erfindung durchgeführt werden können, ohne vom Geiste oder Bereich der Erfindungen abzuweichen. Z. B. können die vorstehend beschriebenen Verfahren auf einem Programmspeichermedium als Computer-lesbare Befehle implementiert sein. Das Computer-lesbare Medium erfasst alle Arten von Aufnahmeeinrichtungen, in denen Daten, die durch ein Computersystem lesbar sind, gespeichert werden. Die Computer-lesbaren Medien erfassen z. B. ein ROM, RAM, CD-ROM, Magnetbänder, Floppy Disks, optische Datenspeichereinrichtungen und Ähnliches und außerdem erfassen sie Implementationen vom Trägerwellen-Typ ein (z. B. Übertragung über Internet). Und der Computer kann die Steuerung 180 des Endgeräts aufweisen. So ist beabsichtigt, dass die vorliegende Erfindung die Modifikationen und Veränderungen dieser Erfindung, abdeckt, vorausgesetzt, sie befinden sich im Bereich der angefügten Ansprüche und ihrer Äquivalente.

Claims (16)

  1. Endgerät (100) aufweisend: einen Touchscreen (400); und eine Steuereinheit, die konfiguriert ist: wenigstens ein Berührungs-verfügbares Symbol (420) zu steuern, sich in verschiebbarer Weise in den und in verschiebbarer Weise aus dem Touchscreen (400) in einer ersten Richtung eines ersten Berühr-Ziehens auf dem Touchscreen (400) zu bewegen, wenn eines des wenigstens einen Berührungs-verfügbaren Symbols (420) berührt wird, eine bestimmte Funktion auszuführen, um ein erstes Bild (430), welches mit der ausgeführten Funktion in Beziehung steht, auf dem Touchscreen (400) anzuzeigen, eine Nachricht zu empfangen, während die bestimmte Funktion ausgeführt wird, einen Nachrichtenempfangsindikator (403) anzuzeigen, ein zweites Berühr-Ziehen in einer zweiten Richtung auf dem Touchscreen (400) zu empfangen, wobei die zweite Richtung senkrecht zu der ersten Richtung ist, ein Nachrichtenfenster (450) für die empfangene Nachricht zu steuern, in verschiebbarer Weise über dem ersten Bild (430) in der zweiten Richtung derart zu erscheinen, dass das Nachrichtenfenster (450) komplett das erste Bild (430) auf dem Touchscreen (400) verdeckt, ein drittes Berühr-Ziehen in einer dritten Richtung entgegengesetzt zu der zweiten Richtung auf dem Touchscreen (400) zu empfangen, und das Nachrichtenfenster (450) für die empfangene Nachricht zu steuern, in verschiebbarer Weise zu verschwinden, um das erste Bild (430) gemäß der dritten Richtung aufzudecken.
  2. Endgerät (100) gemäß Anspruch 1, wobei die erste Richtung eine horizontale Richtung ist.
  3. Endgerät (100) gemäß Anspruch 2, wobei die zweite Richtung eine Aufwärtsrichtung und die dritte Richtung eine Abwärtsrichtung ist.
  4. Endgerät (100) gemäß einem der Ansprüche 1 bis 3, weiter aufweisend eine Touchscreen-Aktivierungstaste zum Aktivieren des Touchscreens (400), wobei die Steuereinheit weiter das wenigstens eine Berührungs-verfügbare Symbol steuert, sich in Reaktion auf eine Manipulation der Touchscreen-Aktivierungstaste zu bewegen.
  5. Endgerät (100) gemäß einem der vorhergehenden Ansprüche, wobei es mehr als zwei Berührungs-verfügbare Symbole (420) zu bewegen gibt, wobei die Steuereinheit die Berührungs-verfügbaren Symbole (420) steuert, in eine Vielzahl von Gruppen eingeordnet zu sein, wobei die Steuereinheit die Berührungs-verfügbaren Symbole (420), die zu jeder der Gruppen gehören, steuert, wenigstens einer Seite des Touchscreens (400) zu entsprechen, und wobei die Steuereinheit die Berührungs-verfügbaren Symbole (420), die zu jeder der Gruppen gehören, steuert, sich in den und aus dem Touchscreen (400) durch Annehmen jeder entsprechenden Seite als eine Grenze zu bewegen.
  6. Endgerät (100) gemäß Anspruch 5, wobei, wenn das erste Berühr-Ziehen in einer vorbestimmten Richtung auf dem Touchscreen ausgeführt wird, die Steuereinheit die Berührungs-verfügbaren Symbole (420), die zu der Gruppe gehören, die sich in dem Außenbereich hinter der Seite, die der Gegenrichtung entspricht, befinden, steuert, in verschiebbarer Weise in dem Touchscreen (400) unter Verwendung von der Seite, die der Gegenrichtung entspricht, als eine Grenze zu erscheinen.
  7. Endgerät (100) gemäß Anspruch 6, wobei, wenn das erste Berühr-Ziehen in der Richtung entgegengesetzt zu der vorbestimmten Richtung auf dem Touchscreen (400) ausgeführt wird, die Steuereinheit die Berührungs-verfügbaren Symbolen (420) auf dem Touchscreen (400) steuert, in verschiebbarer Weise aus dem Touchscreen (400) unter Verwendung von der Seite, die der Gegenrichtung entspricht, als die Grenze zu verschwinden.
  8. Endgerät (100) gemäß Anspruch 6, wobei, wenn die Berührungs-verfügbaren Symbole (420), die zu der Gruppe gehören, in eine erste Untergruppe aus Berührungs-verfügbaren Symbolen und in eine zweite Untergruppe aus Berührungs-verfügbaren Symbolen unterteilt sind und wenn das erste Berühr-Ziehen in der vorbestimmten Richtung auf dem Touchscreen (400) ausgeführt wird, die Steuereinheit die erste Untergruppe aus Berührungs-verfügbaren Symbolen steuert, in verschiebbarer Weise in dem Touchscreen (400) unter Verwendung von der Seite, die der Gegenrichtung entspricht, als die Grenze zu erscheinen.
  9. Endgerät (100) gemäß Anspruch 8, wobei, wenn das erste Berühr-Ziehen auf dem Touchscreen (400) noch einmal ausgeführt wird, die Steuereinheit die zweite Untergruppe aus Berührungs-verfügbaren Symbolen steuert, in verschiebbarer Weise in dem Touchscreen (400) unter Verwendung von der Seite, die der Gegenrichtung entspricht, als die Grenze zu erscheinen.
  10. Endgerät (100) gemäß Anspruch 9, wobei, wenn das erste Berühr-Ziehen in der Gegenrichtung auf dem Touchscreen (400) ausgeführt wird, die Steuereinheit die zweite Untergruppe aus Berührungs-verfügbaren Symbolen steuert, aus dem Touchscreen (400) unter Verwendung von der Seite, die der Gegenrichtung entspricht, als die Grenze zu verschwinden.
  11. Endgerät (100) gemäß Anspruch 10, wobei, wenn das erste Berühr-Ziehen noch einmal in der Gegenrichtung auf dem Touchscreen (400) ausgeführt wird, die Steuereinheit die erste Untergruppe aus Berührungs-verfügbaren Symbolen steuert, aus dem Touchscreen (400) unter Verwendung von der Seite, die der Gegenrichtung entspricht, als die Grenze zu verschwinden.
  12. Endgerät (100) gemäß Anspruch 1, wobei es mehr als zwei Berührungs-verfügbare Symbole (420) gibt, die in eine erste Gruppe und eine zweite Gruppe eingeordnet sind, wobei die Steuereinheit jede der ersten und zweiten Gruppe steuert, sich in den und aus dem Touchscreen durch Annehmen einer korrespondierenden der Seiten des Touchscreens (400) als eine Grenze zu bewegen, wobei, wenn das erste Berühr-Ziehen in einer ersten Richtung auf dem Touchscreen (400) ausgeführt wird, die Steuereinheit die erste Gruppe steuert, in verschiebbarer Weise aus dem Touchscreen (400) unter Verwendung einer ersten Seite, die der ersten Richtung entspricht, als eine erste Grenze zu verschwinden, und außerdem die zweite Gruppe steuert, in verschiebbarer Weise in dem Touchscreen (400) unter Verwendung einer zweiten Seite, die der ersten Seite entgegengesetzt ist, als eine zweite Grenze zu erscheinen.
  13. Endgerät (100) gemäß Anspruch 12, wobei die Steuerung weiter konfiguriert ist, ein Bild (430) hinter der ersten und der zweiten Gruppe anzuzeigen und das Bild (430) feststehend auf dem Touchscreen (400) zu rendern, während die erste Gruppe in verschiebbarer Weise aus dem Touchscreen (400) verschwindet und die zweite Gruppe in verschiebbarer Weise in dem Touchscreen (400) erscheint.
  14. Endgerät (100) gemäß Anspruch 5, wobei die Steuereinheit die Berührungs-verfügbaren Symbole (420), die zu der Gruppe gehören, die der Seite entspricht, die zu einem Startpunkt des ersten Berühr-Ziehens am nächsten ist, steuert, auf das erste Berühr-Ziehen zu reagieren.
  15. Endgerät (100) gemäß einem der vorhergehenden Ansprüche, wobei in Reaktion auf Empfangen der Nachricht, die Steuereinheit den Nachrichtenempfangsindikator (403) oben auf dem Touchscreen (400) anzeigt.
  16. Endgerät (100) gemäß einem der vorhergehenden Ansprüche, wobei das Nachrichtenfenster (450) einen für eine Berührung sensitiven Bereich zum Anzeigen der Nachricht und wenigstens ein für eine Berührung sensitives Symbol zum Verarbeiten der Nachricht (453, 455) aufweist.
DE202008018301U 2007-12-06 2008-03-17 Mobiles Endgerät Expired - Lifetime DE202008018301U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20070126147 2007-12-06
KR1020070126147A KR101387527B1 (ko) 2007-12-06 2007-12-06 단말기 및 그 메뉴 아이콘 디스플레이 방법

Publications (1)

Publication Number Publication Date
DE202008018301U1 true DE202008018301U1 (de) 2012-09-20

Family

ID=40521407

Family Applications (2)

Application Number Title Priority Date Filing Date
DE202008018297U Expired - Lifetime DE202008018297U1 (de) 2007-12-06 2008-03-17 Mobiles Endgerät
DE202008018301U Expired - Lifetime DE202008018301U1 (de) 2007-12-06 2008-03-17 Mobiles Endgerät

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE202008018297U Expired - Lifetime DE202008018297U1 (de) 2007-12-06 2008-03-17 Mobiles Endgerät

Country Status (7)

Country Link
US (3) US9112988B2 (de)
EP (4) EP2743811B1 (de)
KR (1) KR101387527B1 (de)
CN (2) CN101452365B (de)
DE (2) DE202008018297U1 (de)
ES (1) ES2485967T3 (de)
PL (1) PL2076000T3 (de)

Families Citing this family (306)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9092190B2 (en) * 2010-10-01 2015-07-28 Z124 Smartpad split screen
US9274807B2 (en) * 2006-04-20 2016-03-01 Qualcomm Incorporated Selective hibernation of activities in an electronic device
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US8683362B2 (en) 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8554868B2 (en) 2007-01-05 2013-10-08 Yahoo! Inc. Simultaneous sharing communication interface
US20090091541A1 (en) * 2007-10-09 2009-04-09 Stephen Chen Method for controlling appearing and disappearing of screen keyboard tables
US8159469B2 (en) * 2008-05-06 2012-04-17 Hewlett-Packard Development Company, L.P. User interface for initiating activities in an electronic device
US8570279B2 (en) 2008-06-27 2013-10-29 Apple Inc. Touch screen device, method, and graphical user interface for inserting a character from an alternate keyboard
US8427438B2 (en) 2009-03-26 2013-04-23 Apple Inc. Virtual input tools
KR101646922B1 (ko) * 2009-05-19 2016-08-23 삼성전자 주식회사 휴대 단말기의 통신 관련 기능 운용 방법 및 이를 지원하는 휴대 단말기
KR100966848B1 (ko) * 2009-09-16 2010-06-29 주식회사 아크로디아코리아 회전식 직육면체 메뉴 바 디스플레이 방법 및 장치
US10101898B2 (en) * 2009-10-23 2018-10-16 Autodesk, Inc. Multi-touch graphical user interface for interacting with menus on a handheld device
KR101768540B1 (ko) 2009-10-30 2017-08-18 삼성전자주식회사 모바일 기기 및 이에 적용되는 ui 제공방법
JP5418187B2 (ja) * 2009-12-02 2014-02-19 ソニー株式会社 接触操作判定装置、接触操作判定方法およびプログラム
AU2010326827A1 (en) * 2009-12-02 2012-06-21 Nestec S.A. Beverage preparation machine with touch menu functionality
FR2953610B1 (fr) * 2009-12-04 2013-09-06 Alcatel Lucent Procede de manipulation directe des interactions entrantes dans une application cliente de communication instantanee
KR20110075404A (ko) * 2009-12-28 2011-07-06 삼성전자주식회사 이벤트 분리 방법 및 장치
US8806362B2 (en) * 2010-01-06 2014-08-12 Apple Inc. Device, method, and graphical user interface for accessing alternate keys
JP4823369B2 (ja) * 2010-03-09 2011-11-24 株式会社東芝 情報処理装置
US9170732B2 (en) * 2010-03-18 2015-10-27 Nippon Telegraph And Telephone Corporation Information input device, information input method, and information input program
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9058186B2 (en) 2010-04-07 2015-06-16 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
KR101668240B1 (ko) 2010-04-19 2016-10-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP2011248768A (ja) * 2010-05-28 2011-12-08 Sony Corp 情報処理装置、情報処理システム及びプログラム
CN102375664B (zh) * 2010-08-20 2013-09-04 中国移动通信集团公司 一种图标移动方法和装置
US20130190977A1 (en) * 2010-08-26 2013-07-25 Honda Motor Co., Ltd. Operating device for vehicle
US20120072953A1 (en) * 2010-09-22 2012-03-22 Qualcomm Incorporated Method and device for revealing images obscured by a program guide in electronic devices
CN101980136A (zh) * 2010-11-08 2011-02-23 广东欧珀移动通信有限公司 一种手持终端滑动控制交互方法
WO2012068551A1 (en) * 2010-11-18 2012-05-24 Google Inc. Surfacing off-screen visible objects
KR101749529B1 (ko) * 2010-11-25 2017-06-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR101735836B1 (ko) * 2010-12-13 2017-05-15 삼성전자주식회사 휴대단말기의 메뉴실행 장치 및 방법
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
JP5718042B2 (ja) * 2010-12-24 2015-05-13 株式会社ソニー・コンピュータエンタテインメント タッチ入力処理装置、情報処理装置およびタッチ入力制御方法
KR102033599B1 (ko) * 2010-12-28 2019-10-17 삼성전자주식회사 페이지간 오브젝트 이동 방법 및 인터페이스 장치
JP5810554B2 (ja) * 2011-02-28 2015-11-11 ソニー株式会社 電子装置、表示方法、およびプログラム
TW201237649A (en) * 2011-03-04 2012-09-16 Hon Hai Prec Ind Co Ltd System and method for file managing
US9563337B2 (en) 2011-03-23 2017-02-07 Nec Corporation Information processing device, method for controlling an information processing device, and program
US10222974B2 (en) 2011-05-03 2019-03-05 Nokia Technologies Oy Method and apparatus for providing quick access to device functionality
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) * 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
CN102207868B (zh) * 2011-06-01 2013-07-10 奇智软件(北京)有限公司 一种菜单显示方法
JP5360140B2 (ja) * 2011-06-17 2013-12-04 コニカミノルタ株式会社 情報閲覧装置及び制御プログラム並びに制御方法
MX2014000392A (es) 2011-07-12 2014-04-30 Mobli Technologies 2010 Ltd Metodos y sistemas para proporcionar funciones de edicion de contenido visual.
US9454299B2 (en) * 2011-07-21 2016-09-27 Nokia Technologies Oy Methods, apparatus, computer-readable storage mediums and computer programs for selecting functions in a graphical user interface
CN102243573A (zh) * 2011-07-27 2011-11-16 北京风灵创景科技有限公司 一种应用程序中元素属性管理的方法和装置
CN102955644A (zh) * 2011-08-19 2013-03-06 幻音科技(深圳)有限公司 一种控制资源显示的方法及系统
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
KR101860341B1 (ko) * 2011-09-09 2018-05-24 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
KR20130030022A (ko) * 2011-09-16 2013-03-26 삼성전자주식회사 휴대단말기의 알람 방법 및 장치
KR101160681B1 (ko) 2011-10-19 2012-06-28 배경덕 이동 통신 단말기의 활성화 시에 특정 동작이 수행되도록 하기 위한 방법, 이동 통신 단말기 및 컴퓨터 판독 가능 기록 매체
CN103092494A (zh) * 2011-10-28 2013-05-08 腾讯科技(深圳)有限公司 触摸屏终端的应用程序切换方法和装置
KR20130054579A (ko) * 2011-11-17 2013-05-27 삼성전자주식회사 디스플레이장치 및 그 제어방법
US10338937B2 (en) * 2011-11-30 2019-07-02 Red Hat, Inc. Multi-pane graphical user interface with dynamic panes to present web data
US20130155108A1 (en) * 2011-12-15 2013-06-20 Mitchell Williams Augmented Reality User Interaction Methods, Computing Devices, And Articles Of Manufacture
KR20130071908A (ko) * 2011-12-21 2013-07-01 삼성전자주식회사 휴대단말기의 화면편집 장치 및 방법
KR20130093724A (ko) * 2011-12-23 2013-08-23 삼성전자주식회사 디스플레이 장치 및 그 잠금 해제 방법
CN102520876A (zh) * 2012-01-04 2012-06-27 北京飞漫软件技术有限公司 一种触屏智能设备的操作方法
US11734712B2 (en) 2012-02-24 2023-08-22 Foursquare Labs, Inc. Attributing in-store visits to media consumption based on data collected from user devices
US8972357B2 (en) 2012-02-24 2015-03-03 Placed, Inc. System and method for data collection to validate location data
KR102027879B1 (ko) * 2012-04-04 2019-10-02 삼성전자주식회사 미디어 기기의 메뉴 제어 방법 및 장치와 그 방법에 대한 프로그램 소스를 저장한 기록 매체
WO2013166588A1 (en) 2012-05-08 2013-11-14 Bitstrips Inc. System and method for adaptable avatars
JP6023879B2 (ja) 2012-05-18 2016-11-09 アップル インコーポレイテッド 指紋センサ入力に基づくユーザインタフェースを操作するための機器、方法、及びグラフィカルユーザインタ−フェース
JP5634442B2 (ja) * 2012-06-26 2014-12-03 京セラドキュメントソリューションズ株式会社 表示入力装置および画像形成装置
KR101412419B1 (ko) * 2012-08-20 2014-06-25 주식회사 팬택 개선된 사용자 인터페이스 기능을 갖는 이동통신 단말과 사용자 인터페이스 제공 방법
WO2014031899A1 (en) 2012-08-22 2014-02-27 Goldrun Corporation Augmented reality virtual content platform apparatuses, methods and systems
KR102080741B1 (ko) * 2012-08-29 2020-02-24 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
JP2014061729A (ja) * 2012-09-20 2014-04-10 Nippon Seiki Co Ltd 車両用表示装置
KR101957173B1 (ko) 2012-09-24 2019-03-12 삼성전자 주식회사 터치 디바이스에서 멀티윈도우 제공 방법 및 장치
US8473871B1 (en) * 2012-10-16 2013-06-25 Google Inc. Multiple seesawing panels
US8775972B2 (en) 2012-11-08 2014-07-08 Snapchat, Inc. Apparatus and method for single action control of social network profile access
KR102044460B1 (ko) * 2012-11-12 2019-11-13 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR102102438B1 (ko) * 2012-12-06 2020-04-20 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US10585553B2 (en) 2012-12-06 2020-03-10 Samsung Electronics Co., Ltd. Display device and method of controlling the same
JP5858582B2 (ja) * 2012-12-26 2016-02-10 京セラドキュメントソリューションズ株式会社 表示入力装置および画像形成装置
CN103106018B (zh) * 2013-02-07 2015-11-25 广州市久邦数码科技有限公司 一种快速删除桌面元素的方法
CN103116468A (zh) * 2013-03-12 2013-05-22 上海揆志网络科技有限公司 对文件/文件夹进行管理的触摸操控系统及方法
WO2014149473A1 (en) * 2013-03-15 2014-09-25 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9477404B2 (en) 2013-03-15 2016-10-25 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
DE102013008950A1 (de) * 2013-05-27 2014-11-27 Volkswagen Aktiengesellschaft Controller für ein Informationswiedergabesystem für ein Fahrzeug
US9742713B2 (en) 2013-05-30 2017-08-22 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9705831B2 (en) 2013-05-30 2017-07-11 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US20140365968A1 (en) * 2013-06-07 2014-12-11 Apple Inc. Graphical User Interface Elements
KR101384054B1 (ko) * 2013-07-02 2014-04-28 이용환 부가 기능 실행 중 음악을 재생하기 위한 전자기기 및 그 제어방법
ES2820653T3 (es) * 2013-08-20 2021-04-21 Volkswagen Ag Método de mando para un dispositivo de mando y visualización en un vehículo y dispositivo de mando y visualización en un vehículo
US8914752B1 (en) * 2013-08-22 2014-12-16 Snapchat, Inc. Apparatus and method for accelerated display of ephemeral messages
US9083770B1 (en) 2013-11-26 2015-07-14 Snapchat, Inc. Method and system for integrating real time communication features in applications
CN103645828A (zh) * 2013-12-05 2014-03-19 杭州云清科技有限公司 一种带滑动动画效果的主界面菜单的显示方法
US20150159895A1 (en) 2013-12-11 2015-06-11 Honeywell International Inc. Building automation system with user defined lifestyle macros
CN103838508A (zh) * 2014-01-03 2014-06-04 浙江宇天科技股份有限公司 控制智能终端界面显示的方法及其装置
CA2863124A1 (en) 2014-01-03 2015-07-03 Investel Capital Corporation User content sharing system and method with automated external content integration
US9628950B1 (en) 2014-01-12 2017-04-18 Investment Asset Holdings Llc Location-based messaging
KR102166833B1 (ko) * 2014-01-28 2020-10-16 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102377785B1 (ko) 2014-02-10 2022-03-23 삼성전자주식회사 사용자 단말 장치 및 이의 디스플레이 방법
KR102119843B1 (ko) 2014-02-10 2020-06-05 삼성전자주식회사 사용자 단말 장치 및 이의 디스플레이 방법
KR102331956B1 (ko) 2014-02-10 2021-11-29 삼성전자주식회사 사용자 단말 장치 및 이의 디스플레이 방법
WO2015119482A1 (en) * 2014-02-10 2015-08-13 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US10082926B1 (en) 2014-02-21 2018-09-25 Snap Inc. Apparatus and method for alternate channel communication initiated through a common message thread
US8909725B1 (en) 2014-03-07 2014-12-09 Snapchat, Inc. Content delivery network for ephemeral objects
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
EP2955686A1 (de) 2014-06-05 2015-12-16 Mobli Technologies 2010 Ltd. Automatische artikelanreicherung durch trends sozialer medien
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
KR101631966B1 (ko) * 2014-06-19 2016-06-20 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US20160041702A1 (en) * 2014-07-08 2016-02-11 Nan Wang Pull and Swipe Navigation
US10055717B1 (en) 2014-08-22 2018-08-21 Snap Inc. Message processor with application prompts
US10423983B2 (en) 2014-09-16 2019-09-24 Snap Inc. Determining targeting information based on a predictive targeting model
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
US9015285B1 (en) 2014-11-12 2015-04-21 Snapchat, Inc. User interface for accessing media at a geographic location
US9854219B2 (en) 2014-12-19 2017-12-26 Snap Inc. Gallery of videos set to an audio time line
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US11388226B1 (en) 2015-01-13 2022-07-12 Snap Inc. Guided personal identity based actions
US10133705B1 (en) 2015-01-19 2018-11-20 Snap Inc. Multichannel system
US9521515B2 (en) 2015-01-26 2016-12-13 Mobli Technologies 2010 Ltd. Content request by location
US9294425B1 (en) 2015-02-06 2016-03-22 Snapchat, Inc. Storage and processing of ephemeral messages
KR20160098752A (ko) * 2015-02-11 2016-08-19 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법 및 컴퓨터 판독가능 기록매체
US10223397B1 (en) 2015-03-13 2019-03-05 Snap Inc. Social graph based co-location of network users
KR102371138B1 (ko) 2015-03-18 2022-03-10 스냅 인코포레이티드 지오-펜스 인가 프로비저닝
US9692967B1 (en) 2015-03-23 2017-06-27 Snap Inc. Systems and methods for reducing boot time and power consumption in camera systems
US9881094B2 (en) 2015-05-05 2018-01-30 Snap Inc. Systems and methods for automated local story generation and curation
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
KR20220166362A (ko) 2015-05-06 2022-12-16 스냅 인코포레이티드 단기 그룹 채팅을 위한 시스템 및 방법
CN104866176A (zh) * 2015-05-26 2015-08-26 山东蚁巡网络科技有限公司 一种图标拖动分组的导航方法
CN104898978A (zh) * 2015-06-10 2015-09-09 努比亚技术有限公司 一种选择应用菜单的方法及装置
US9906479B1 (en) 2015-06-16 2018-02-27 Snap Inc. Storage management for ephemeral messages
US10503264B1 (en) 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
US10993069B2 (en) 2015-07-16 2021-04-27 Snap Inc. Dynamically adaptive media content delivery
US10817898B2 (en) 2015-08-13 2020-10-27 Placed, Llc Determining exposures to content presented by physical objects
CN107924251B (zh) * 2015-08-24 2021-01-29 华为技术有限公司 降低触摸屏设备功耗的方法及设备
US11121997B1 (en) 2015-08-24 2021-09-14 Snap Inc. Systems, devices, and methods for determining a non-ephemeral message status in a communication system
US10616162B1 (en) 2015-08-24 2020-04-07 Snap Inc. Systems devices and methods for automatically selecting an ephemeral message availability
US10157333B1 (en) 2015-09-15 2018-12-18 Snap Inc. Systems and methods for content tagging
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US11119628B1 (en) 2015-11-25 2021-09-14 Snap Inc. Dynamic graphical user interface modification and monitoring
US9984499B1 (en) 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US10474321B2 (en) 2015-11-30 2019-11-12 Snap Inc. Network resource location linking and visual content sharing
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
US10353564B2 (en) 2015-12-21 2019-07-16 Sap Se Graphical user interface with virtual extension areas
US20170195736A1 (en) 2015-12-31 2017-07-06 Opentv, Inc. Systems and methods for enabling transitions between items of content
US11023514B2 (en) 2016-02-26 2021-06-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10679389B2 (en) 2016-02-26 2020-06-09 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10285001B2 (en) 2016-02-26 2019-05-07 Snap Inc. Generation, curation, and presentation of media collections
US10530731B1 (en) 2016-03-28 2020-01-07 Snap Inc. Systems and methods for chat with audio and video elements
US10270839B2 (en) 2016-03-29 2019-04-23 Snap Inc. Content collection navigation and autoforwarding
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
US11900418B2 (en) 2016-04-04 2024-02-13 Snap Inc. Mutable geo-fencing system
US10686899B2 (en) 2016-04-06 2020-06-16 Snap Inc. Messaging achievement pictograph display system
US9813642B1 (en) 2016-05-06 2017-11-07 Snap Inc. Dynamic activity-based image generation
US10474353B2 (en) 2016-05-31 2019-11-12 Snap Inc. Application control using a gesture based trigger
US11876941B1 (en) 2016-06-20 2024-01-16 Pipbin, Inc. Clickable augmented reality content manager, system, and network
US11785161B1 (en) 2016-06-20 2023-10-10 Pipbin, Inc. System for user accessibility of tagged curated augmented reality content
US10334134B1 (en) 2016-06-20 2019-06-25 Maximillian John Suiter Augmented real estate with location and chattel tagging system and apparatus for virtual diary, scrapbooking, game play, messaging, canvasing, advertising and social interaction
US11044393B1 (en) 2016-06-20 2021-06-22 Pipbin, Inc. System for curation and display of location-dependent augmented reality content in an augmented estate system
US11201981B1 (en) 2016-06-20 2021-12-14 Pipbin, Inc. System for notification of user accessibility of curated location-dependent content in an augmented estate
US10805696B1 (en) 2016-06-20 2020-10-13 Pipbin, Inc. System for recording and targeting tagged content of user interest
US10638256B1 (en) 2016-06-20 2020-04-28 Pipbin, Inc. System for distribution and display of mobile targeted augmented reality content
US10430838B1 (en) 2016-06-28 2019-10-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections with automated advertising
US9681265B1 (en) 2016-06-28 2017-06-13 Snap Inc. System to track engagement of media items
US11507977B2 (en) 2016-06-28 2022-11-22 Snap Inc. Methods and systems for presentation of media collections with automated advertising
US10182047B1 (en) 2016-06-30 2019-01-15 Snap Inc. Pictograph password security system
US10733255B1 (en) 2016-06-30 2020-08-04 Snap Inc. Systems and methods for content navigation with automated curation
US11334768B1 (en) 2016-07-05 2022-05-17 Snap Inc. Ephemeral content management
US10855632B2 (en) 2016-07-19 2020-12-01 Snap Inc. Displaying customized electronic messaging graphics
US10488062B2 (en) 2016-07-22 2019-11-26 Ademco Inc. Geofence plus schedule for a building controller
KR102267482B1 (ko) 2016-08-30 2021-06-22 스냅 인코포레이티드 동시 로컬화 및 매핑을 위한 시스템 및 방법
JP6466887B2 (ja) * 2016-09-01 2019-02-06 本田技研工業株式会社 情報端末用プログラム及び情報端末
US10552968B1 (en) 2016-09-23 2020-02-04 Snap Inc. Dense feature scale detection for image matching
US10609036B1 (en) 2016-10-10 2020-03-31 Snap Inc. Social media post subscribe requests for buffer user accounts
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
CN113206959B (zh) 2016-11-01 2024-01-09 斯纳普公司 用于确定自动包围配置的方法和服务器
KR20180051002A (ko) * 2016-11-07 2018-05-16 삼성전자주식회사 터치 스크린을 이용하는 전자 장치에서 애플리케이션의 실행을 제어하는 방법과 이를 위한 전자 장치
EP3535756B1 (de) 2016-11-07 2021-07-28 Snap Inc. Selektive identifizierung und reihenfolge von bildmodifikatoren
US10203855B2 (en) 2016-12-09 2019-02-12 Snap Inc. Customized user-controlled media overlays
US10740939B1 (en) 2016-12-09 2020-08-11 Snap Inc. Fast image style transfers
KR20180073327A (ko) * 2016-12-22 2018-07-02 삼성전자주식회사 영상 표시 방법, 저장 매체 및 전자 장치
US11616745B2 (en) 2017-01-09 2023-03-28 Snap Inc. Contextual generation and selection of customized media content
US10242477B1 (en) 2017-01-16 2019-03-26 Snap Inc. Coded vision system
US10454857B1 (en) 2017-01-23 2019-10-22 Snap Inc. Customized digital avatar accessories
US10915911B2 (en) 2017-02-03 2021-02-09 Snap Inc. System to determine a price-schedule to distribute media content
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US11250075B1 (en) 2017-02-17 2022-02-15 Snap Inc. Searching social media content
US10074381B1 (en) 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US11019001B1 (en) 2017-02-20 2021-05-25 Snap Inc. Selective presentation of group messages
US10374993B2 (en) 2017-02-20 2019-08-06 Snap Inc. Media item attachment system
US10878837B1 (en) 2017-03-01 2020-12-29 Snap Inc. Acoustic neural network scene detection
US10565795B2 (en) 2017-03-06 2020-02-18 Snap Inc. Virtual vision system
US10523625B1 (en) 2017-03-09 2019-12-31 Snap Inc. Restricted group content collection
US10582277B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10581782B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US11170393B1 (en) 2017-04-11 2021-11-09 Snap Inc. System to calculate an engagement score of location based media content
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
US10382372B1 (en) 2017-04-27 2019-08-13 Snap Inc. Processing media content based on original context
CN111010882B (zh) 2017-04-27 2023-11-03 斯纳普公司 在基于地图的社交媒体平台上的位置隐私关联
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US10467147B1 (en) 2017-04-28 2019-11-05 Snap Inc. Precaching unlockable data elements
US10943255B1 (en) 2017-04-28 2021-03-09 Snap Inc. Methods and systems for interactive advertising with media collections
US10679428B1 (en) 2017-05-26 2020-06-09 Snap Inc. Neural network-based image stream modification
US10803120B1 (en) 2017-05-31 2020-10-13 Snap Inc. Geolocation based playlists
US10788900B1 (en) 2017-06-29 2020-09-29 Snap Inc. Pictorial symbol prediction
US11216517B1 (en) 2017-07-31 2022-01-04 Snap Inc. Methods and systems for selecting user generated content
US11323398B1 (en) 2017-07-31 2022-05-03 Snap Inc. Systems, devices, and methods for progressive attachments
US11164376B1 (en) 2017-08-30 2021-11-02 Snap Inc. Object modeling using light projection
US9980100B1 (en) 2017-08-31 2018-05-22 Snap Inc. Device location based on machine learning classifications
US11475254B1 (en) 2017-09-08 2022-10-18 Snap Inc. Multimodal entity identification
US10474900B2 (en) 2017-09-15 2019-11-12 Snap Inc. Real-time tracking-compensated image effects
US10740974B1 (en) 2017-09-15 2020-08-11 Snap Inc. Augmented reality system
US10891723B1 (en) 2017-09-29 2021-01-12 Snap Inc. Realistic neural network based image style transfer
US10499191B1 (en) 2017-10-09 2019-12-03 Snap Inc. Context sensitive presentation of content
US10872292B1 (en) 2017-10-09 2020-12-22 Snap Inc. Compact neural networks using condensed filters
US10573043B2 (en) 2017-10-30 2020-02-25 Snap Inc. Mobile-based cartographic control of display content
US10599289B1 (en) 2017-11-13 2020-03-24 Snap Inc. Interface to display animated icon
US11551059B1 (en) 2017-11-15 2023-01-10 Snap Inc. Modulated image segmentation
US10885564B1 (en) 2017-11-28 2021-01-05 Snap Inc. Methods, system, and non-transitory computer readable storage medium for dynamically configurable social media platform
US11265273B1 (en) 2017-12-01 2022-03-01 Snap, Inc. Dynamic media overlay with smart widget
US10217488B1 (en) 2017-12-15 2019-02-26 Snap Inc. Spherical video editing
US11017173B1 (en) 2017-12-22 2021-05-25 Snap Inc. Named entity recognition visual context and caption data
US10523606B2 (en) 2018-01-02 2019-12-31 Snap Inc. Generating interactive messages with asynchronous media content
US10678818B2 (en) 2018-01-03 2020-06-09 Snap Inc. Tag distribution visualization system
US10482565B1 (en) 2018-02-12 2019-11-19 Snap Inc. Multistage neural network processing using a graphics processor
US11507614B1 (en) 2018-02-13 2022-11-22 Snap Inc. Icon based tagging
US10726603B1 (en) 2018-02-28 2020-07-28 Snap Inc. Animated expressive icon
US10885136B1 (en) 2018-02-28 2021-01-05 Snap Inc. Audience filtering system
US10979752B1 (en) 2018-02-28 2021-04-13 Snap Inc. Generating media content items based on location information
US10327096B1 (en) 2018-03-06 2019-06-18 Snap Inc. Geo-fence selection system
EP3766028A1 (de) 2018-03-14 2021-01-20 Snap Inc. Erzeugung von sammelbaren gegenständen auf der basis von ortsinformationen
US11163941B1 (en) 2018-03-30 2021-11-02 Snap Inc. Annotating a collection of media content items
US11310176B2 (en) 2018-04-13 2022-04-19 Snap Inc. Content suggestion system
KR20240027845A (ko) 2018-04-18 2024-03-04 스냅 인코포레이티드 증강 표현 시스템
US10219111B1 (en) 2018-04-18 2019-02-26 Snap Inc. Visitation tracking system
US11487501B2 (en) 2018-05-16 2022-11-01 Snap Inc. Device control using audio data
US10896197B1 (en) 2018-05-22 2021-01-19 Snap Inc. Event detection system
US10679393B2 (en) 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
US10698583B2 (en) 2018-09-28 2020-06-30 Snap Inc. Collaborative achievement interface
US10778623B1 (en) 2018-10-31 2020-09-15 Snap Inc. Messaging and gaming applications communication platform
US11409430B2 (en) * 2018-11-02 2022-08-09 Benjamin Firooz Ghassabian Screen stabilizer
US11199957B1 (en) 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
US10939236B1 (en) 2018-11-30 2021-03-02 Snap Inc. Position service to determine relative position to map features
US11032670B1 (en) 2019-01-14 2021-06-08 Snap Inc. Destination sharing in location sharing system
US10939246B1 (en) 2019-01-16 2021-03-02 Snap Inc. Location-based context information sharing in a messaging system
US11294936B1 (en) 2019-01-30 2022-04-05 Snap Inc. Adaptive spatial density based clustering
US11297027B1 (en) 2019-01-31 2022-04-05 Snap Inc. Automated image processing and insight presentation
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
US10936066B1 (en) 2019-02-13 2021-03-02 Snap Inc. Sleep detection in a location sharing system
US10838599B2 (en) 2019-02-25 2020-11-17 Snap Inc. Custom media overlay system
US10964082B2 (en) 2019-02-26 2021-03-30 Snap Inc. Avatar based on weather
US10852918B1 (en) 2019-03-08 2020-12-01 Snap Inc. Contextual information in chat
US11868414B1 (en) 2019-03-14 2024-01-09 Snap Inc. Graph-based prediction for contact suggestion in a location sharing system
US11852554B1 (en) 2019-03-21 2023-12-26 Snap Inc. Barometer calibration in a location sharing system
US11249614B2 (en) 2019-03-28 2022-02-15 Snap Inc. Generating personalized map interface with enhanced icons
US10810782B1 (en) 2019-04-01 2020-10-20 Snap Inc. Semantic texture mapping system
US10560898B1 (en) 2019-05-30 2020-02-11 Snap Inc. Wearable device location systems
US10582453B1 (en) 2019-05-30 2020-03-03 Snap Inc. Wearable device location systems architecture
US10893385B1 (en) 2019-06-07 2021-01-12 Snap Inc. Detection of a physical collision between two client devices in a location sharing system
US11134036B2 (en) 2019-07-05 2021-09-28 Snap Inc. Event planning in a content sharing platform
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
US11812347B2 (en) 2019-09-06 2023-11-07 Snap Inc. Non-textual communication and user states management
US11821742B2 (en) 2019-09-26 2023-11-21 Snap Inc. Travel based notifications
US11218838B2 (en) 2019-10-31 2022-01-04 Snap Inc. Focused map-based context information surfacing
US11128715B1 (en) 2019-12-30 2021-09-21 Snap Inc. Physical friend proximity in chat
US11429618B2 (en) 2019-12-30 2022-08-30 Snap Inc. Surfacing augmented reality objects
US10880496B1 (en) 2019-12-30 2020-12-29 Snap Inc. Including video feed in message thread
US11343323B2 (en) 2019-12-31 2022-05-24 Snap Inc. Augmented reality objects registry
US11169658B2 (en) 2019-12-31 2021-11-09 Snap Inc. Combined map icon with action indicator
US11265281B1 (en) 2020-01-28 2022-03-01 Snap Inc. Message deletion policy selection
US11316806B1 (en) 2020-01-28 2022-04-26 Snap Inc. Bulk message deletion
US11228551B1 (en) 2020-02-12 2022-01-18 Snap Inc. Multiple gateway message exchange
US11516167B2 (en) 2020-03-05 2022-11-29 Snap Inc. Storing data based on device location
US11619501B2 (en) 2020-03-11 2023-04-04 Snap Inc. Avatar based on trip
US10956743B1 (en) 2020-03-27 2021-03-23 Snap Inc. Shared augmented reality system
US11430091B2 (en) 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
US11625873B2 (en) 2020-03-30 2023-04-11 Snap Inc. Personalized media overlay recommendation
WO2021203120A1 (en) 2020-03-31 2021-10-07 Snap Inc. Augmented reality beauty product tutorials
US11700225B2 (en) 2020-04-23 2023-07-11 Snap Inc. Event overlay invite messaging system
US11843574B2 (en) 2020-05-21 2023-12-12 Snap Inc. Featured content collection interface
WO2021252662A1 (en) 2020-06-10 2021-12-16 Snap Inc. Visual search to launch application
US11423652B2 (en) 2020-06-10 2022-08-23 Snap Inc. Adding beauty products to augmented reality tutorials
US11290851B2 (en) 2020-06-15 2022-03-29 Snap Inc. Location sharing using offline and online objects
US11503432B2 (en) 2020-06-15 2022-11-15 Snap Inc. Scalable real-time location sharing framework
US11483267B2 (en) 2020-06-15 2022-10-25 Snap Inc. Location sharing using different rate-limited links
US11314776B2 (en) 2020-06-15 2022-04-26 Snap Inc. Location sharing using friend list versions
US11308327B2 (en) 2020-06-29 2022-04-19 Snap Inc. Providing travel-based augmented reality content with a captured image
US11899905B2 (en) 2020-06-30 2024-02-13 Snap Inc. Selectable items providing post-viewing context actions
KR20230047480A (ko) 2020-08-13 2023-04-07 스냅 인코포레이티드 포즈 구동형 가상 효과들을 위한 사용자 인터페이스
US11349797B2 (en) 2020-08-31 2022-05-31 Snap Inc. Co-location connection service
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
US11606756B2 (en) 2021-03-29 2023-03-14 Snap Inc. Scheduling requests for location data
US11645324B2 (en) 2021-03-31 2023-05-09 Snap Inc. Location-based timeline media content system
CN115185440B (zh) * 2021-04-07 2024-05-10 华为技术有限公司 一种控件显示方法及相关设备
US11829834B2 (en) 2021-10-29 2023-11-28 Snap Inc. Extended QR code
US11973730B2 (en) 2022-06-02 2024-04-30 Snap Inc. External messaging function for an interaction system

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5305435A (en) * 1990-07-17 1994-04-19 Hewlett-Packard Company Computer windows management system and method for simulating off-screen document storage and retrieval
FR2693810B1 (fr) * 1991-06-03 1997-01-10 Apple Computer Systemes d'interfaces d'utilisateurs a acces direct a une zone secondaire d'affichage.
US5956030A (en) * 1993-06-11 1999-09-21 Apple Computer, Inc. Computer system with graphical user interface including windows having an identifier within a control region on the display
US5664128A (en) * 1995-02-23 1997-09-02 Apple Computer, Inc. Object storage apparatus for use with data sets in computer applications
US5917493A (en) * 1996-04-17 1999-06-29 Hewlett-Packard Company Method and apparatus for randomly generating information for subsequent correlating
US6169789B1 (en) * 1996-12-16 2001-01-02 Sanjay K. Rao Intelligent keyboard system
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20040049743A1 (en) * 2000-03-31 2004-03-11 Bogward Glenn Rolus Universal digital mobile device
CN1357810A (zh) * 2000-12-06 2002-07-10 腾研科技股份有限公司 浏览器界面操作装置及其浏览方法
US20050024341A1 (en) * 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
JP2003195998A (ja) 2001-12-26 2003-07-11 Canon Inc 情報処理装置及び情報処理装置の制御方法及び情報処理装置の制御プログラム及び記憶媒体
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US6850255B2 (en) * 2002-02-28 2005-02-01 James Edward Muschetto Method and apparatus for accessing information, computer programs and electronic communications across multiple computing devices using a graphical user interface
GB2386707B (en) * 2002-03-16 2005-11-23 Hewlett Packard Co Display and touch screen
TWI238348B (en) * 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US8230359B2 (en) * 2003-02-25 2012-07-24 Microsoft Corporation System and method that facilitates computer desktop use via scaling of displayed objects with shifts to the periphery
US7890960B2 (en) * 2003-03-26 2011-02-15 Microsoft Corporation Extensible user context system for delivery of notifications
JP4240293B2 (ja) * 2003-05-27 2009-03-18 株式会社ソニー・コンピュータエンタテインメント マルチメディア再生装置およびマルチメディア再生方法
WO2005039157A1 (ja) * 2003-10-22 2005-04-28 Sanyo Electric Co., Ltd. 携帯電話機、表示方法、及びプログラム
GB0406056D0 (en) * 2004-03-18 2004-04-21 Ibm Method and apparatus for two-dimensional scrolling in a graphical display window
US7681141B2 (en) * 2004-05-11 2010-03-16 Sony Computer Entertainment America Inc. Fast scrolling in a graphical user interface
US20060241864A1 (en) * 2005-04-22 2006-10-26 Outland Research, Llc Method and apparatus for point-and-send data transfer within an ubiquitous computing environment
EP1768364B1 (de) * 2005-09-23 2013-11-06 LG Electronics Inc. Mobiles Kommunikationsgerät und Verfahren zur Nachrichtenanzeige
US7730425B2 (en) * 2005-11-30 2010-06-01 De Los Reyes Isabelo Function-oriented user interface
US7924270B2 (en) * 2006-02-06 2011-04-12 Abacalab, Inc. Apparatus and method for mobile graphical cheminformatic
TWI307855B (en) * 2006-03-08 2009-03-21 Htc Corp Item selection method, and machine readable medium thereof
JP4933129B2 (ja) * 2006-04-04 2012-05-16 クラリオン株式会社 情報端末および簡略−詳細情報の表示方法
CN100517206C (zh) * 2006-04-21 2009-07-22 宏达国际电子股份有限公司 项目选择方法
US20070257895A1 (en) * 2006-05-08 2007-11-08 Sunrise Telecom Incorporated Tactile display locking and marker system
US7934156B2 (en) * 2006-09-06 2011-04-26 Apple Inc. Deletion gestures on a portable multifunction device
US8253695B2 (en) * 2006-09-06 2012-08-28 Apple Inc. Email client for a portable multifunction device
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US7956848B2 (en) * 2007-09-04 2011-06-07 Apple Inc. Video chapter access and license renewal

Also Published As

Publication number Publication date
EP2736236A1 (de) 2014-05-28
KR20090059336A (ko) 2009-06-11
EP2736236B1 (de) 2019-05-22
US9436378B2 (en) 2016-09-06
EP2743811A1 (de) 2014-06-18
CN101452365A (zh) 2009-06-10
ES2485967T3 (es) 2014-08-14
CN104980593A (zh) 2015-10-14
EP2076000A2 (de) 2009-07-01
EP2076000A3 (de) 2011-11-16
EP2743811B1 (de) 2017-11-29
KR101387527B1 (ko) 2014-04-23
PL2076000T3 (pl) 2014-10-31
EP2076000B1 (de) 2014-04-30
DE202008018297U1 (de) 2012-08-21
CN104980593B (zh) 2018-09-07
EP2735954A1 (de) 2014-05-28
EP2735954B1 (de) 2017-12-06
US20160357397A1 (en) 2016-12-08
US10437456B2 (en) 2019-10-08
CN101452365B (zh) 2015-08-12
US20150277695A1 (en) 2015-10-01
US9112988B2 (en) 2015-08-18
US20100131880A1 (en) 2010-05-27

Similar Documents

Publication Publication Date Title
DE202008018301U1 (de) Mobiles Endgerät
DE102008051119A1 (de) Zoom-Steuerung für einen Anzeigebildschirm eines mobilen Kommunikationsendgeräts
DE202009018696U1 (de) Mobiles Endgerät
DE202011110898U1 (de) Mobilgerät
DE202009018709U1 (de) Mobiles Endgerät
DE202014010551U1 (de) Mobiles Endgerät
DE202009018916U1 (de) Endgerät, Steuerverfahren und aufzeichnungsfähiges Medium dafür
DE202008018302U1 (de) Mobiles Endgerät
DE202011110735U1 (de) Mobiles Endgerät
DE102007061993A1 (de) Mobiles Endgerät mit einer Anzeigeeinheit sowie Anzeigeverfahren für ein mobiles Endgerät
DE202011110758U1 (de) Mobiles Endgerät
DE202013012304U1 (de) Mobiles Endgerät
DE112008000144B4 (de) Scrollen von Listen und Verschieben, Skalieren und Rotieren von Dokumenten auf einer Berührungsbildschirmanzeige
DE202009019104U1 (de) Mobiles Endgerät und Benutzerschnittstelle eines mobilen Endgeräts
DE202012013560U1 (de) Mobiles Endgerät
DE202014011064U1 (de) Mobiles Endgerät
DE202013012417U1 (de) Mobiles Endgerät
DE202009018938U1 (de) Mobiles Endgerät und Bildschirmanzeigeverfahren dafür
DE102008018166B4 (de) Endgerät und Verfahren zum Unterstützen einer Mehrsprachigkeit
DE202011110595U1 (de) Mobiles Endgerät
DE202011110922U1 (de) Mobiles Endgerät
DE202008018283U1 (de) Menüanzeige für ein mobiles Kommunikationsendgerät
DE202013012389U1 (de) Mobiles Endgerät
US20100022276A1 (en) Menu display method of mobile terminal
DE202007019583U1 (de) Tragbare elektronische Vorrichtung für Fotoverwaltung

Legal Events

Date Code Title Description
R150 Utility model maintained after payment of first maintenance fee after three years
R207 Utility model specification

Effective date: 20121115

R151 Utility model maintained after payment of second maintenance fee after six years
R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20140217

R152 Utility model maintained after payment of third maintenance fee after eight years
R082 Change of representative

Representative=s name: SCHMITT-NILSON SCHRAUD WAIBEL WOHLFROM PATENTA, DE

R071 Expiry of right