FR3021136A1 - Terminal mobile et procede de commande de celui-ci - Google Patents
Terminal mobile et procede de commande de celui-ci Download PDFInfo
- Publication number
- FR3021136A1 FR3021136A1 FR1554257A FR1554257A FR3021136A1 FR 3021136 A1 FR3021136 A1 FR 3021136A1 FR 1554257 A FR1554257 A FR 1554257A FR 1554257 A FR1554257 A FR 1554257A FR 3021136 A1 FR3021136 A1 FR 3021136A1
- Authority
- FR
- France
- Prior art keywords
- region
- word
- touch
- input
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04164—Connections between sensors and controllers, e.g. routing lines between electrodes and connection pads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0489—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
- G06F3/04892—Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04804—Transparency, e.g. transparent or translucent windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
Un terminal mobile (100) incluant une communication sans fil (110) configurée pour assurer une communication sans fil ; un écran tactile ; et un organe de commande (180) configuré pour afficher sur l'écran tactile une région d'entrée (410) incluant une pluralité de touches de caractère et une pluralité de touches d'édition (411a, 411b, 421a, 421b) et une région de sortie (310), afficher sur l'écran tactile une région d'affichage d'état d'édition (510) entre la région d'entrée (410) et la région de sortie (310) et pour l'affichage d'un mot correspondant à des touches de caractère touchées, sélectionner ou éditer le mot affiché dans la région d'affichage d'état d'édition (510) en se basant sur une entrée tactile appliquée à la région d'entrée (410), et afficher le mot sélectionné ou édité sur la région de sortie (310).
Description
TERMINAL MOBILE ET PROCEDE DE COMMANDE DE CELUI-CI La présente invention concerne un terminal mobile incluant une unité d'affichage et un procédé correspondant permettant de sortir des caractères par une entrée tactile.
Les terminaux peuvent être classés de manière générale en terminaux mobiles/portables ou terminaux fixes. Les terminaux mobiles peuvent être également classés en terminaux à main ou terminaux montés sur véhicule. Comme les fonctions du terminal se diversifient de plus en plus, le terminal peut supporter des fonctions plus compliquées telles que capturer des images ou de la vidéo, reproduire des fichiers de musique ou vidéo, jouer à des jeux, recevoir des signaux de radiodiffusion et similaires. En implémentant de telles fonctions de manière exhaustive et collective, le terminal mobile peut être réalisé sous la forme d'un lecteur multimédia ou d'un dispositif multimédia. Les terminaux mobiles incluent un capteur tactile permettant de recevoir une entrée tactile et de sortir un clavier virtuel ayant une pluralité de touches sur une région d'une unité d'affichage. Lorsqu'une entrée tactile est appliquée à un clavier virtuel, un caractère est sorti sur une région différenciée du clavier virtuel. Dans ce cas, l'utilisateur a à vérifier une région de sortie dans laquelle un caractère est sorti, afin de vérifier le caractère tout en appliquant une entrée tactile au clavier virtuel, occasionnant des désagréments pour l'utilisateur. En conséquence, un aspect de la description détaillée est de proposer une unité d'affichage permettant à un utilisateur d'entrer un caractère lors de l'application d'une entrée tactile à un clavier virtuel sans qu'il bouge ses yeux pour vérifier une région de sortie.
Pour atteindre ces avantages et autres et en conformité avec le but de cette description, tel qu'intégré et largement décrit ici, la présente invention propose un terminal mobile incluant : un écran tactile incluant une région d'entrée incluant une pluralité de touches de caractère et une pluralité de touches d'édition et une région de sortie ; et une unité de commande configurée pour sortir une région d'affichage d'état d'édition incluant un mot correspondant à des touches de caractère en se basant sur des entrées tactiles appliquées aux touches de caractère, entre la région d'entrée et la région de sortie, dans lequel, en se basant sur une entrée tactile appliquée à la région d'entrée, l'unité de commande sélectionne ou édite le mot dans la région d'affichage d'état d'édition, et commande l'écran tactile pour afficher le mot sélectionné ou le mot édité sur la région de sortie. Dans un autre aspect, la présente invention propose un procédé de commande d'un terminal mobile incluant un écran tactile divisé en une région de sortie et une région d'entrée incluant une pluralité de touches de caractère et une pluralité de touches d'édition. Le procédé inclut la sortie d'un mot sur une région d'affichage d'état d'édition entre la région d'entrée et la région de sortie en se basant sur une entrée tactile appliquée aux touches de caractère ; l'édition ou la sélection du mot dans la région d'affichage d'état d'édition en se basant sur une entrée tactile appliquée à une portion de la pluralité de touches de caractère ; et l'affichage du mot sur la région de sortie en se basant sur une entrée tactile appliquée à une portion de la pluralité de touches de caractère. Une plus large portée d'applicabilité de la présente demande ressortira de la description détaillée donnée ci-après. Néanmoins, il faut comprendre que la description détaillée et les exemples spécifiques, tout en indiquant des modes de réalisation préférés de l'invention, sont donnés à titre d'illustration uniquement, car divers changements et modifications dans l'esprit et la portée de l'invention apparaîtront plus clairement à l'homme du métier à partir de la description détaillée.
Les dessins annexés, qui sont inclus pour donner une meilleure compréhension de l'invention et sont incorporés dans et constituent une partie de ce mémoire, illustrent des modes de réalisation et, conjointement avec la description, servent à expliquer les principes de l'invention. Sur les dessins : la figure 1 A est un schéma fonctionnel d'un terminal mobile selon un mode de réalisation de la présente invention. Les figures 1B et 1C sont des vues conceptuelles d'un exemple du terminal mobile vu depuis différentes directions. La figure 2 est un organigramme illustrant un procédé de commande selon un mode de réalisation de la présente invention. Les figures 3A(a) à 3B(c) sont des vues conceptuelles illustrant un procédé de commande de la figure 2.
Les figures 4A à 4F(c) sont des vues conceptuelles illustrant un procédé de commande de changement d'une position d'entrée dans une région d'affichage d'état d'édition. Les figures 5A et 5B sont des vues conceptuelles illustrant un procédé de commande d'effacement d'un mot sorti sur une région d'affichage d'état d'édition selon divers modes de réalisation de la présente invention. Les figures 6(a) à 6(d) sont des vues conceptuelles illustrant un procédé de commande consistant à commander une position de sortie d'un mot en se basant sur une entrée tactile dans une région d'affichage d'état d'édition.
Les figures 7A à 7E(d) sont des vues conceptuelles illustrant un procédé de commande consistant à entrer un mot sur une région d'entrée. La figure 8 est une vue conceptuelle illustrant un procédé de commande consistant à afficher clairement un mot en se basant sur une entrée tactile appliquée à une région d'entrée dans une région d'affichage d'état d'édition.
Les figures 9A à 9D(d) sont des vues conceptuelles illustrant des informations d'écran sorties sur une région d'entrée. Les figures 10A à 10C(b) sont des vues conceptuelles illustrant un procédé de commande utilisant des informations d'écran sorties sur une région d'entrée. Les figures 11A(a) à 11B(b) sont des vues conceptuelles illustrant un procédé de commande consistant à changer une taille d'un clavier virtuel selon un état d'entrée d'un utilisateur. Les figures 12A et 12B sont des vues conceptuelles illustrant un procédé de commande consistant à sortir des informations de notification en se basant sur une entrée tactile appliquée à une région d'entrée.
Les figures 13(a) et 13(b) sont des vues conceptuelles illustrant un procédé de commande consistant à analyser des informations incluses dans une région d'entrée et à sortir un mot de recommandation. On donnera à présent une description en détail des modes de réalisation divulgués ici, en référence aux dessins annexés. Pour une brève description en référence aux dessins, les composants identiques ou équivalents peuvent être dotés des mêmes références numériques ou des références numériques similaires, et leur description ne sera pas répétée. En général, un suffixe tel que « module » et « unité » peut être utilisé pour désigner des éléments ou composants. L'utilisation d'un tel suffixe est ici simplement censée faciliter la description du mémoire, et le suffixe lui-même n'est pas censé donner une signification ou fonction spéciale quelconque. Les dessins annexés sont utilisés pour aider à comprendre facilement diverses particularités techniques et il faut comprendre que les modes de réalisation présentés ici ne sont pas limités aux dessins annexés. En tant que telle, la présente invention devrait être interprétée comme s'étendant à toutes modifications, tous équivalents et substituts en plus de ceux qui sont précisés en particulier dans les dessins annexés. Bien que les termes premier, deuxième, etc. puissent être utilisés ici pour décrire divers éléments, ces éléments ne devront pas être limités par ces termes. Ces termes sont généralement uniquement utilisés pour distinguer un élément d'un autre. Lorsqu'un élément est désigné comme étant « connecté à» un autre élément, l'élément peut être connecté à l'autre élément ou des éléments intervenants peuvent également être présents. Par contraste, lorsqu'un élément est désigné comme étant « directement connecté à » un autre élément, aucun élément intervenant n'est présent.
Une représentation au singulier peut inclure une représentation au pluriel à moins qu'elle représente une signification absolument différente du contexte. Des termes tels que « inclure » ou « avoir » sont utilisés ici et doivent être compris comme étant censés indiquer l'existence de plusieurs composants, fonctions ou étapes, divulgués dans le mémoire, et il est également entendu que l'on peut de même utiliser des composants, fonctions, ou étapes en plus grand ou plus petit nombre. Les terminaux mobiles présentés ici peuvent être implémentés en utilisant une variété de types différents de terminaux. Les exemples de tels terminaux incluent les téléphones cellulaires, les téléphones intelligents, le matériel utilisateur, les ordinateurs portatifs, les terminaux de radiodiffusion numérique, les assistants numériques personnels (PDA), les lecteurs multimédias portables (PMP), les navigateurs, les ordinateurs portables (PC), les PC ardoises, les PC tablettes, les ultrabooks, les dispositifs vestimentaires (par exemple, les montres intelligentes, les lunettes intelligentes, les visiocasques (HMD)), et similaires.
A titre d'exemple non limitant uniquement, on donnera une description supplémentaire en référence à des types particuliers de terminaux mobiles. Néanmoins, ces enseignements s'appliquent également à d'autres types de terminaux, tels que des types notés ci-dessus. De surcroît, ces enseignements peuvent aussi être appliqués à des terminaux fixes tels qu'une TV numérique, des ordinateurs de bureau, et similaires. On fait désormais référence aux figures lA à 1C, où la figure lA est un schéma fonctionnel d'un terminal mobile en conformité avec la présente invention, et les figures 1B et 1C sont des vues conceptuelles d'un exemple du terminal mobile, vu depuis différentes directions. Le terminal mobile 100 est montré ayant des composants tels qu'une unité de communication sans fil 110, une unité d'entrée 120, une unité de détection 140, une unité de sortie 150, une unité d'interface 160, une mémoire 170, un organe de commande 180 et une unité de source d'alimentation 190. 11 faut comprendre que l'implémentation de tous les composants illustrés n'est pas une exigence, et que l'on peut implémenter en variante des composants en plus grand ou plus petit nombre. En se référant à présent à la figure 1A, le terminal mobile 100 est montré ayant une unité de communication sans fil 110 configurée avec plusieurs composants implémentés en commun. Par exemple, l'unité de communication sans fil 110 inclut typiquement un ou plusieurs composants qui permettent une communication sans fil entre le terminal mobile 100 et un système ou réseau de communication sans fil au sein duquel le terminal mobile est situé. L'unité de communication sans fil 110 inclut typiquement un ou plusieurs modules qui permettent des communications telles que des communications sans fil entre le terminal mobile 100 et un système de communication sans fil, des communications entre le terminal mobile 100 et un autre terminal mobile, des communications entre le terminal mobile 100 et un serveur externe. En outre, l'unité de communication sans fil 110 inclut typiquement un ou plusieurs modules qui connectent le terminal mobile 100 à un ou plusieurs réseaux. Pour faciliter de telles communications, l'unité de communication sans fil 110 inclut un ou plusieurs parmi un module de réception de radiodiffusion 111, un module de communication mobile 112, un module Internet sans fil 113, un module de communication de courte portée 114 et un module d'informations de localisation 115.
L'unité d'entrée 120 inclut une caméra 121 permettant d'obtenir des images ou de la vidéo, un microphone 122, qui est un type de dispositif d'entrée audio permettant d'entrer un signal audio, et une unité d'entrée utilisateur 123 (par exemple, une touche tactile, une touche poussoir, une touche mécanique, une touche de fonction et similaire) permettant à un utilisateur d'entrer des informations. Des données (par exemple audio, vidéo, image et similaire) sont obtenues par l'unité d'entrée 120 et peuvent être analysées et traitées par l'organe de commande 180 selon des paramètres de dispositif, des ordres d'utilisateur et leurs combinaisons.
L'unité de détection 140 est typiquement implémentée en utilisant un ou plusieurs capteurs configurés pour détecter des informations internes du terminal mobile, l'environnement alentour du terminal mobile, des informations utilisateurs et similaires. Par exemple, sur la figure 1A, l'unité de détection 140 est montrée ayant un capteur de proximité 141 et un capteur d'illumination 142.
Si on le souhaite, l'unité de détection 140 peut inclure en variante ou en outre d'autres types de capteurs ou dispositifs, tels qu'un capteur tactile, un capteur d'accélération, un capteur magnétique, un capteur G, un capteur de gyroscope, un capteur de mouvement, un capteur RVB, un capteur infrarouge (IR), un capteur lecteur de doigt, un capteur ultrasonore, un capteur optique (par exemple une caméra 121), un microphone 122, une jauge de batterie, un capteur d'environnement (par exemple un baromètre, un hygromètre, un thermomètre, un capteur de détection de rayonnement, un capteur thermique et un capteur de gaz, entre autres), et un capteur chimique (par exemple un nez électronique, un capteur de soin de santé, un capteur biométrique et similaire) pour n'en nommer que quelques- uns. Le terminal mobile 100 peut être configuré pour utiliser des informations obtenues à partir de l'unité de détection 140, et en particulier, des informations obtenues à partir d'un ou plusieurs capteurs de l'unité de détection 140, et leurs combinaisons. L'unité de sortie 150 est typiquement configurée pour sortir divers types d'informations, tels qu'une sortie audio, vidéo, tactile et similaire. L'unité de sortie 150 est montrée ayant une unité d'affichage 151, une unité de sortie audio 152, un module haptique 153 et un module de sortie optique 154. L'unité d'affichage 151 peut avoir une structure intercouche ou une structure intégrée avec un capteur tactile afin de faciliter un écran tactile. L'écran tactile peut fournir une interface de sortie entre le terminal mobile 100 et un utilisateur, ainsi que fonctionner comme l'unité d'entrée utilisateur 123 qui fournit une interface d'entrée entre le terminal mobile 100 et l'utilisateur.
L'unité d'interface 160 sert d'interface avec divers types de dispositifs externes qui peuvent être couplés au terminal mobile 100. L'unité d'interface 160, par exemple, peut inclure l'un quelconque de ports filaires ou sans fil, de ports de source d'alimentation externes, de ports de données filaires ou sans fil, de ports de carte mémoire, de ports pour connecter un dispositif ayant un module d'identification, de ports d'entrée/sortie (E/S) audio, de ports E/S vidéo, de ports d'écouteur et similaires. Dans certains cas, le terminal mobile 100 peut réaliser des fonctions de commande variées associées à un dispositif externe connecté, en réponse à la connexion du dispositif externe à l'unité d'interface 160.
La mémoire 170 est typiquement implémentée pour stocker des données en vue de supporter diverses fonctions ou particularités du terminal mobile 100. Par exemple, la mémoire 170 peut être configurée pour stocker des programmes d'application exécutés dans le terminal mobile 100, des données ou instructions pour des opérations du terminal mobile 100 et similaires. Certains de ces programmes d'application peuvent être téléchargés depuis un serveur externe via une communication sans fil. D'autres programmes d'application peuvent être installés au sein du terminal mobile 100 au moment de la fabrication ou de l'expédition, ce qui est typiquement le cas pour des fonctions de base du terminal mobile 100 (par exemple, recevoir un appel, passer un appel, recevoir un message, envoyer un message et similaire). Il est courant que les programmes d'application soient stockés dans la mémoire 170, installés dans le terminal mobile 100, et exécutés par l'organe de commande 180 pour réaliser une opération (ou fonction) pour le terminal mobile 100. L'organe de commande 180 fonctionne typiquement pour commander le fonctionnement global du terminal mobile 100, en plus des opérations associées aux programmes d'application. L'organe de commande 180 peut fournir ou traiter des informations ou fonctions appropriées pour un utilisateur en traitant des signaux, des données, des informations et similaires, qui sont entrées ou sorties par les divers composants représentés sur la figure 1A, ou activer des programmes d'application stockés dans la mémoire 170. A titre d'exemple, l'organe de commande 180 commande tout ou partie des composants illustrés sur les figures lA à 1C selon l'exécution d'un programme d'application qui a été stocké dans la mémoire 170.
L'unité de source d'alimentation 190 peut être configurée pour recevoir une alimentation externe ou fournir une alimentation interne afin de fournir une alimentation appropriée requise pour exploiter les éléments et composants inclus dans le terminal mobile 100. L'unité de source d'alimentation 190 peut inclure une batterie, et la batterie peut être configurée pour être embarquée dans le corps du terminal, ou configurée pour être détachable du corps du terminal. En se référant encore à la figure 1A, on décrira à présent plus en détail divers composants représentés sur cette figure. Concernant l'unité de communication sans fil 110, le module de réception de radiodiffusion 111 est typiquement configuré pour recevoir un signal de radiodiffusion et/ou des informations associées à la radiodiffusion depuis une entité de gestion de radiodiffusion externe via un canal de radiodiffusion. Le canal de radiodiffusion peut inclure un canal satellite, un canal terrestre ou les deux. Dans certains modes de réalisation, on peut utiliser deux ou plus de deux modules de réception de radiodiffusion 111 pour faciliter la réception simultanée de deux ou plus de deux canaux de radiodiffusion, ou supporter une commutation parmi des canaux de radiodiffusion. L'entité de gestion de radiodiffusion peut être implémentée en utilisant un serveur ou système qui génère et transmet un signal de radiodiffusion et/ou des informations associées à la radiodiffusion, ou un serveur qui reçoit un signal de radiodiffusion prégénéré et/ou des informations associées à la radiodiffusion, et envoie de tels articles au terminal mobile. Le signal de radiodiffusion peut être implémenté en utilisant l'un quelconque d'un signal de radiodiffusion TV, un signal de radiodiffusion radio, un signal de radiodiffusion de données et leurs combinaisons, entre autres. Le signal de radiodiffusion peut dans certains cas inclure en outre un signal de radiodiffusion de données combiné à un signal de radiodiffusion TV ou radio. Le signal de radiodiffusion peut être encodé selon l'un quelconque d'une variété de normes techniques ou de procédés de radiodiffusion (par exemple l'Organisation internationale de normalisation (IS 0), la Commission électrotechnique internationale (CET), la radiodiffusion vidéonumérique (DVB), le Comité de systèmes de télévision évolués (ATSC), et similaires) pour transmission et réception de signaux de radiodiffusion numériques. Le module de réception de radiodiffusion 111 peut recevoir les signaux de radiodiffusion numériques en utilisant un procédé approprié au procédé de transmission utilisé. Les exemples d'informations associées à la radiodiffusion peuvent inclure des informations associées à un canal de radiodiffusion, un programme de radiodiffusion, un évènement de radiodiffusion, un fournisseur de service de radiodiffusion ou similaire. Les informations associées à la radiodiffusion peuvent également être fournies via un réseau de communication mobile, et dans ce cas, reçues par le module de communication mobile 112. Les informations associées à la radiodiffusion peuvent être implémentées dans divers formats. Par exemple, les informations associées à la radiodiffusion peuvent inclure un guide de programme électronique (EPG) de télédiffusion multimédia numérique (DMB), un guide de service électronique (ES G) de radiodiffusion vidéo numérique-portable (DVB-H) et similaires. Les signaux de radiodiffusion et/ou informations associées à la radiodiffusion reçus via le module de réception de radiodiffusion 111 peuvent être stockés dans un dispositif adéquat, tel qu'une mémoire 160. Le module de communication mobile 112 peut transmettre et/ou recevoir des signaux sans fil à et depuis une ou plusieurs entités de réseau. Les exemples typiques d'une entité de réseau incluent une station de base, un terminal mobile externe, un serveur et similaire. De telles entités de réseau font partie d'un réseau de communication sans fil, qui est construit selon des normes techniques ou des procédés de communication pour des communications mobiles (par exemple, le système mondial de communications mobiles (GSM), l'accès multiple par répartition en code (CDMA), CDMA2000 (Code Division Multi Access 2000), EV- DO (communication de voix/données améliorée et optimisée ou communication de voix/données uniquement améliorée), CDMA large bande (WCDMA), l'accès par paquets en liaison descendante à haut débit (HSDPA), HSUPA (accès par paquets en liaison montante à haut débit), l'évolution à long terme (LTE), LTE-A (évolution à long terme améliorée), et similaires). Les exemples de signaux sans fil transmis et/ou reçus via le module de communication mobile 112 incluent des signaux d'appel audio, des signaux d'appel vidéo (téléphonie) ou divers formats de données pour supporter une communication de messages texte et multimédia.
Le module Internet sans fil 113 est configuré pour faciliter l'accès à Internet sans fil. Ce module peut être couplé au terminal mobile 100 de façon interne ou externe. Le module Internet sans fil 113 peut transmettre et/ou recevoir des signaux sans fil via des réseaux de communication selon des technologies Internet sans fil.
Les exemples d'un tel accès à Internet sans fil incluent le réseau local sans fil (WLAN), le Wi-Fi (Wi-Fi), le Wi-Fi direct, Digital Living Network Alliance (DLNA), le sans fil à large bande (WiBro), le WiMAX (Worldwide Interoperability for Microwave Access), l'accès par paquets en liaison descendante à haut débit (HSDPA), HSUPA (accès par paquets en liaison montante à haut débit) l'évolution à long terme (LTE), LTE-A (évolution à long terme améliorée), et similaires. Le module Internet sans fil 113 peut transmettre/recevoir des données selon une ou plusieurs de ces technologies Internet sans fil, et ainsi que d'autres technologies Internet. Dans certains modes de réalisation, lorsque l'accès à Internet sans fil est implémenté selon, par exemple, WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A et similaires, en tant que partie d'un réseau de communication mobile, le module Internet sans fil 113 réalise un tel accès à Internet sans fil. En tant que tel, le module Internet sans fil 113 peut coopérer avec, ou fonctionner comme, le module de communication mobile 112.
Le module de communication de courte portée 114 est configuré pour faciliter des communications de courte portée. Les technologies adéquates pour implémenter de telles communications de courte portée incluent BLUETOOTHTM , l'identification par radiofréquence (RFID), l'association de données infrarouges (IrDA), la bande ultra-large (UWB), ZigBee, la communication en champ proche (NFC), le Wi-Fi (Wi-Fi), le Wi-Fi direct, le Wireless USB (bus série universel sans fil), et similaires. Le module de communication de courte portée 114 supporte en général des communications sans fil entre le terminal mobile 100 et un système de communication sans fil, des communications entre le terminal mobile 100 et un autre terminal mobile 100, ou des communications entre le terminal mobile et un réseau où un autre terminal mobile 100 (ou un serveur externe) est situé, via des réseaux locaux sans fil. Un exemple des réseaux locaux sans fil est un réseau local personnel sans fil. Dans certains modes de réalisation, un autre terminal mobile (qui peut être configuré de façon similaire au terminal mobile 100) peut être un dispositif vestimentaire, par exemple une montre intelligente, des lunettes intelligentes ou un visiocasque (HMD), qui peut échanger des données avec le terminal mobile 100 (ou sinon coopérer avec le terminal mobile 100). Le module de communication de courte portée 114 peut détecter ou reconnaître le dispositif vestimentaire, et permettre une communication entre le dispositif vestimentaire et le terminal mobile 100. De surcroît, lorsque le dispositif vestimentaire détecté est un dispositif qui est authentifié pour communiquer avec le terminal mobile 100, l'organe de commande 180, par exemple, peut entraîner une transmission de données traitées dans le terminal mobile 100 au dispositif vestimentaire via le module de communication de courte portée 114. De là, un utilisateur du dispositif vestimentaire peut utiliser les données traitées dans le terminal mobile 100 sur le dispositif vestimentaire. Par exemple, lorsqu'un appel est reçu dans le terminal mobile 100, l'utilisateur peut répondre à l'appel en utilisant le dispositif vestimentaire. De même, lorsqu'un message est reçu dans le terminal mobile 100, l'utilisateur peut vérifier le message reçu en utilisant le dispositif vestimentaire. Le module d'information de localisation 115 est généralement configuré pour détecter, calculer, dériver ou sinon identifier une position du terminal mobile. A titre d'exemple, le module d'information de localisation 115 inclut un module de système mondial de positionnement (GPS), un module Wi-Fi ou les deux. Si on le souhaite, le module d'information de localisation 115 peut en variante ou de surcroît fonctionner avec l'un quelconque des autres modules de l'unité de communication sans fil 110 pour obtenir des données relatives à la position du terminal mobile. A titre d'exemple, lorsque le terminal mobile utilise un module GPS, une position du terminal mobile peut être acquise en utilisant un signal envoyé depuis un satellite GPS. A titre d'autre exemple, lorsque le terminal mobile utilise le module Wi-Fi, une position du terminal mobile peut être acquise en se basant sur des informations relatives à un point d'accès (AP) sans fil qui transmet ou reçoit un signal sans fil à ou depuis le module Wi-Fi. L'unité d'entrée 120 peut être configurée pour permettre divers types d'entrée dans le terminal mobile 120. Les exemples de telles entrées incluent une entrée audio, d'image, vidéo, de données et d'utilisateur. Une entrée d'image et vidéo est souvent obtenue en utilisant une ou plusieurs caméras 121. De telles caméras 121 peuvent traiter des trames d'image d'images fixes ou de vidéo obtenues par des capteurs d'image dans un mode de capture vidéo ou d'image. Les trames d'image traitées peuvent être affichées sur l'unité d'affichage 151 ou stockées dans la mémoire 170. Dans certains cas, les caméras 121 peuvent être agencées dans une configuration de matrice pour permettre à une pluralité d'images ayant divers angles ou points focaux d'être entrés dans le terminal mobile 100. A titre d'autre exemple, les caméras 121 peuvent être localisées dans un agencement stéréoscopique pour acquérir des images gauche et droite permettant d'implémenter une image stéréoscopique. Le microphone 122 est généralement implémenté pour permettre une entrée audio dans le terminal mobile 100. L'entrée audio peut être traitée de diverses manières selon une fonction exécutée dans le terminal mobile 100. Si on le souhaite, le microphone 122 peut inclure des algorithmes de suppression de bruit variés pour supprimer le bruit indésirable généré au cours de la réception de l' audio externe. L'unité d'entrée utilisateur 123 est un composant qui permet une entrée par un utilisateur. Une telle entrée d'utilisateur peut permettre à l'organe de 15 commande 180 de commander le fonctionnement du terminal mobile 100. L'unité d'entrée utilisateur 123 peut inclure un ou plusieurs d'un élément d'entrée mécanique (par exemple une touche, un bouton situé sur une surface avant et/ou arrière ou une surface latérale du terminal mobile 100, un interrupteur dôme, une roue à main, un interrupteur à main et similaire), ou une entrée sensible au toucher, 20 entre autres. A titre d'exemple, l'entrée sensible au toucher peut être une touche virtuelle ou une touche de fonction, qui est affichée sur un écran tactile par traitement logiciel, ou une touche tactile qui est située sur le terminal mobile à un emplacement qui est autre que sur l'écran tactile. En outre, la touche virtuelle ou la touche visuelle peut être affichée sur l'écran tactile sous diverses formes, par exemple graphique, 25 texte, icône, vidéo ou l'une de leurs combinaisons. L'unité de détection 140 est généralement configurée pour détecter une ou plusieurs parmi des informations internes du terminal mobile, des informations de l'environnement alentour du terminal mobile, des informations utilisateurs ou similaires. L'organe de commande 180 coopère généralement avec l'unité 30 d'envoi 140 pour commander le fonctionnement du terminal mobile 100, ou exécuter un traitement de données, une fonction ou une opération associée à un programme d'application installé dans le terminal mobile en se basant sur la détection fournie par l'unité de détection 140. L'unité de détection 140 peut être implémentée en utilisant l'un quelconque d'une variété de capteurs, dont certains seront désormais décrits plus en détail. Le capteur de proximité 141 peut inclure un capteur pour détecter la présence ou l'absence d'un objet se rapprochant d'une surface, ou un objet situé près d'une surface, en utilisant un champ électromagnétique, des rayons infrarouges ou similaires sans contact mécanique. Le capteur de proximité 141 peut être agencé au niveau d'une région interne du terminal mobile couvert par l'écran tactile, ou près de l'écran tactile. Le capteur de proximité 141 peut par exemple inclure l'un quelconque d'un capteur photoélectrique de type capteur transmissif, d'un capteur photoélectrique de type réfléchissant direct, d'un capteur photoélectrique de type réfléchissant miroir, d'un capteur de proximité à oscillation haute fréquence, d'un capteur de proximité de type capacité, d'un capteur de proximité de type magnétique, d'un capteur de proximité à rayons infrarouges et similaires. Lorsque l'écran tactile est implémenté comme un type capacité, le capteur de proximité 141 peut détecter la proximité d'un pointeur par rapport à l'écran tactile par des changements d'un champ électromagnétique, qui réagit à l'approche d'un objet ayant une conductivité. Dans ce cas, l'écran tactile (capteur tactile) peut également être catégorisé comme un capteur de proximité.
L'expression « toucher de proximité » sera souvent employée ici pour désigner le scénario dans lequel un pointeur est positionné pour être à proximité de l'écran tactile sans venir en contact avec l'écran tactile. L'expression « toucher de contact » sera souvent utilisée ici pour désigner le scénario dans lequel un pointeur réalise un contact physique avec l'écran tactile. Pour la position correspondant au toucher de proximité du pointeur par rapport à l'écran tactile, une telle position correspondra à une position où le pointeur est perpendiculaire à l'écran tactile. Le capteur de proximité 141 peut détecter un toucher de proximité, et des motifs de toucher de proximité (par exemple distance, direction, vitesse, temps, position, statut de déplacement et similaire).
En général, l'organe de commande 180 traite des données correspondant à des touchers de proximité et des motifs de toucher de proximité détectés par le capteur de proximité 141, et entraîne la sortie d'informations visuelles sur l'écran tactile. De surcroît, l'organe de commande 180 peut commander le terminal mobile 100 pour exécuter des opérations différentes ou traiter des données différentes selon si un toucher par rapport à un point sur l'écran tactile est soit un toucher de proximité soit un toucher de contact. Un capteur tactile peut détecter un toucher appliqué à l'écran tactile, tel que l'unité d'affichage 151, en utilisant l'un quelconque d'une variété de procédés de toucher. Les exemples de tels procédés de toucher incluent un type résistif, un type capacitif, un type infrarouge, et un type champ magnétique, entre autres. Comme exemple, le capteur tactile peut être configuré pour convertir des changements de pression appliquée à une partie spécifique de l'unité d'affichage 151, ou convertir une capacité se produisant au niveau d'une partie spécifique de l'unité d'affichage 151, en signaux d'entrée électrique. Le capteur tactile peut également être configuré pour détecter non seulement une position touchée et une zone touchée, mais également une pression de toucher et/ou une capacité de toucher. Un objet tactile est généralement utilisé pour appliquer une entrée tactile au capteur tactile.
Les exemples d'objets tactiles typiques incluent un doigt, un crayon de touche, un stylet, un pointeur, ou similaire. Lorsqu'une entrée tactile est détectée par un capteur tactile, des signaux correspondants peuvent être transmis à un organe de commande de toucher. L'organe de commande de toucher peut traiter les signaux reçus, puis transmettre des données 20 correspondantes à l'organe de commande 180. En conséquence, l'organe de commande 180 peut détecter quelle région de l'unité d'affichage 151 a été touchée. Ici, l'organe de commande de toucher peut être un composant séparé de l'organe de commande 180, combiné à l'organe de commande 180, et leurs combinaisons. Dans certains modes de réalisation, l'organe de commande 180 peut exécuter 25 des commandes identiques ou différentes selon un type d'objet tactile qui touche l'écran tactile ou une touche tactile fournie en plus de l'écran tactile. On peut décider s'il faut exécuter la même commande ou une commande différente selon l'objet qui fournit une entrée tactile en se basant sur un état de fonctionnement actuel du terminal mobile 100 ou un programme d'application exécuté actuellement, par 30 exemple. Le capteur tactile et le capteur de proximité peuvent être implémentés individuellement, ou en combinaison, pour détecter divers types de touchers. De tels touchers incluent un toucher court (ou tape), un toucher long, un toucher multiple, un toucher de glissement, un toucher avec léger coup, un toucher de pincement vers l'intérieur, un toucher de pincement vers l'extérieur, un toucher par balayage, un toucher de pointage et similaires. Si on le souhaite, un capteur ultrasonore peut être implémenté pour reconnaître des informations de position relatives à un objet tactile en utilisant des ondes ultrasonores. L'organe de commande 180 peut par exemple calculer une position d'une source de génération d'ondes en se basant sur des informations détectées par un capteur d'illumination et une pluralité de capteurs ultrasonores. Etant donné que la lumière est bien plus rapide que les ondes ultrasonores, le temps nécessaire à la lumière pour atteindre le capteur optique est bien plus court que le temps nécessaire à l'onde ultrasonore pour atteindre le capteur ultrasonore. La position de la source de génération d'onde peut être calculée en utilisant ce fait. Par exemple, la position de la source de génération d'onde peut être calculée en utilisant la différence de temps à partir du temps nécessaire à l'onde ultrasonore pour atteindre le capteur en se basant sur la lumière comme signal de référence. La caméra 121 inclut typiquement au moins un capteur de caméra (CCD, CMOS, etc.), un capteur photosensible (ou des capteurs d'image) et un capteur laser. L'implémentation de la caméra 121 avec un capteur laser peut permettre la détection d'un toucher d'un objet physique par rapport à une image stéréoscopique en 3D. Le capteur photosensible peut être stratifié sur, ou chevauché par, le dispositif d'affichage. Le capteur photosensible peut être configuré pour balayer le mouvement de l'objet physique à proximité de l'écran tactile. Plus en détail, le capteur photosensible peut inclure des photodiodes et des transistors au niveau de lignes et de colonnes pour balayer le contenu reçu au niveau du capteur photosensible en utilisant un signal électrique qui change selon la quantité de lumière appliquée. A savoir, le capteur photosensible peut calculer les coordonnées de l'objet physique selon une variation de lumière pour ainsi obtenir des informations de position de l'objet physique. L'unité d'affichage 151 est généralement configurée pour sortir des informations traitées dans le terminal mobile 100. Par exemple, l'unité d'affichage 151 peut afficher des informations d'écran d'exécution d'un programme d'application s'exécutant au niveau du terminal mobile 100 ou de l'interface utilisateur (UI) et des informations d'interface utilisateur graphique (GUI) en réponse aux informations d'écran d'exécution. Dans certains modes de réalisation, l'unité d'affichage 151 peut être implémentée comme une unité d'affichage stéréoscopique permettant d'afficher des images stéréoscopiques. Une unité d'affichage stéréoscopique typique peut employer un schéma d'affichage stéréoscopique tel qu'un schéma stéréoscopique (un schéma avec lunettes), un schéma autostéréoscopique (un schéma sans lunettes), un schéma de projection (schéma holographique) ou similaire. L'unité de sortie audio 152 est généralement configurée pour sortir des données audio. De telles données audio peuvent être obtenues à partir de l'une quelconque d'un certain nombre de sources différentes, de telle sorte que les données audio peuvent être reçues à partir de l'unité de communication sans fil 110 ou peuvent avoir été stockées dans la mémoire 170. Les données audio peuvent être sorties pendant des modes tels qu'un mode de réception de signal, un mode d'appel, un mode d'enregistrement, un mode de reconnaissance vocale, un mode de réception de radiodiffusion et similaire. L'unité de sortie audio 152 peut fournir une sortie audible relative à une fonction particulière (par exemple, un son de réception de signal d'appel, un son de réception de message, etc.) réalisée par le terminal mobile 100. L'unité de sortie audio 152 peut également être implémentée comme un récepteur, un haut-parleur, un avertisseur sonore ou similaire. Un module haptique 153 peut être configuré pour générer divers effets tactiles qu'un utilisateur ressent, perçoit ou sinon subit. Un exemple typique d'un effet tactile généré par le module haptique 153 est une vibration. L'intensité, le motif et similaire de la vibration générée par le module haptique 153 peuvent être commandés par une sélection d'utilisateur ou par réglage par l'unité de commande. Par exemple, le module haptique 153 peut sortir différentes vibrations de manière combinée ou de manière séquentielle. Outre la vibration, le module haptique 153 peut générer divers autres effets tactiles, dont un effet par stimulation tel qu'un agencement de broche se déplaçant verticalement pour contacter la peau, une force de pulvérisation ou une force d'aspiration d'air à travers un orifice à jets ou une ouverture d'aspiration, un toucher de la peau, un contact d'une électrode, une force électrostatique, un effet reproduisant la sensation de froid et de chaleur en utilisant un élément qui peut absorber ou générer de la chaleur, et similaire. Le module haptique 153 peut également être implémenté pour permettre à l'utilisateur de ressentir un effet tactile par l'intermédiaire d'une sensation musculaire telle que les doigts ou le bras de l'utilisateur, ainsi qu'en transférant l'effet tactile par contact direct. Deux ou plus de deux modules haptiques 153 peuvent être prévus selon la configuration particulière du terminal mobile 100. Un module de sortie optique 154 peut sortir un signal permettant d'indiquer une génération d'évènement en utilisant la lumière d'une source de lumière. Les exemples d'évènements générés dans le terminal mobile 100 peuvent inclure la réception de message, la réception de signal d'appel, un appel en absence, une alarme, une annonce de calendrier, une réception de courriel, la réception d'information à travers une application, et similaire. Un signal sorti par le module de sortie optique 154 peut être implémenté pour 15 que le terminal mobile émette une lumière monochromatique ou une lumière d'une pluralité de couleurs. La sortie de signal peut être terminée lorsque le terminal mobile détecte qu'un utilisateur a vérifié l'évènement généré, par exemple. L'unité d'interface 160 sert d'interface pour des dispositifs externes à connecter au terminal mobile 100. Par exemple, l'unité d'interface 160 peut recevoir 20 des données transmises depuis un dispositif externe, recevoir l'alimentation pour transfert à des éléments et des composants au sein du terminal mobile 100, ou transmettre des données internes du terminal mobile 100 à un tel dispositif externe. L'unité d'interface 160 peut inclure des ports d'écouteur filaire ou sans fil, des ports de source d'alimentation externes, des ports de données filaires ou sans fil, des ports 25 de carte mémoire, des ports pour connexion d'un dispositif ayant un module d'identification, des ports d'entrée/sortie (E/S) audio, des ports E/S vidéo, des ports d'écouteur ou similaires. Le module d'identification peut être une puce qui stocke diverses informations pour authentifier le droit d'utilisation du terminal mobile 100 et peut 30 inclure un module d'identité d'utilisateur (UIM), un module d'identité d'abonné (SIM), un module d'identité d'abonné universel (USIM) et similaire. De plus, le dispositif comportant le module d'identification (également désigné ici par « dispositif identifiant ») peut prendre la forme d'une carte à puce intelligente. En conséquence, le dispositif identifiant peut être connecté au terminal 100 via l'unité d'interface 160. Lorsque le terminal mobile 100 est connecté à un berceau externe, l'unité d'interface 160 peut servir de passage pour permettre de fournir l'alimentation du berceau au terminal mobile 100 ou peut servir de passage pour permettre de transférer divers signaux d'ordre entrés par l'utilisateur depuis le berceau au terminal mobile. Divers signaux d'ordre ou l'alimentation entrée depuis le berceau peuvent fonctionner comme des signaux permettant de reconnaître que le terminal mobile est correctement monté sur le berceau.
La mémoire 170 peut stocker des programmes pour supporter des opérations de l'organe de commande 180 et stocker des données d'entrée/sortie (par exemple annuaire téléphonique, messages, images fixes, vidéos, etc.). La mémoire 170 peut stocker des données relatives à divers motifs de vibrations et audio qui sont sortis en réponse à des entrées tactiles sur l'écran tactile.
La mémoire 170 peut inclure un ou plusieurs types de supports de stockage dont une mémoire flash, un disque dur, un disque à semi-conducteur, un disque de silicium, un type micro de carte multimédia, une mémoire de type carte (par exemple mémoire SD ou DX, etc.), une mémoire vive (RAM), une mémoire vive statique (SRAM), une mémoire morte (ROM), une mémoire morte programmable effaçable électriquement (EEPROM), une mémoire morte programmable (PROM), une mémoire magnétique, un disque magnétique, un disque optique et similaire. Le terminal mobile 100 peut également être exploité en relation avec un dispositif de stockage de réseau qui réalise la fonction de stockage de la mémoire 170 sur un réseau, tel qu'Internet.
L'organe de commande 180 peut typiquement commander les opérations générales du terminal mobile 100. Par exemple, l'organe de commande 180 peut fixer ou libérer un état de verrouillage pour restreindre l'entrée par un utilisateur d'un ordre de commande par rapport à des applications lorsqu'un statut du terminal mobile satisfait une condition préétablie.
L'organe de commande 180 peut également réaliser la commande et le traitement associés à des appels vocaux, des communications de données, des appels vidéo et similaires, ou réaliser un traitement de reconnaissance de motif pour reconnaître une entrée manuscrite ou une entrée dessinée réalisée sur l'écran tactile sous forme de caractères (ou mot) ou images, respectivement. De surcroît, l'organe de commande 180 peut commander un composant ou une combinaison de ces composants afin d'implémenter divers modes de réalisation divulgués ici. L'unité de source d'alimentation 190 reçoit une alimentation externe ou fournit une alimentation interne et fournit l'alimentation appropriée requise pour exploiter les éléments et composants respectifs inclus dans le terminal mobile 100. L'unité de source d'alimentation 190 peut inclure une batterie, qui est typiquement rechargeable ou est couplée de façon détachable au corps du terminal pour une charge.
L'unité de source d'alimentation 190 peut inclure un port de connexion. Le port de connexion peut être configuré comme un exemple de l'unité d'interface 160 à laquelle un chargeur externe pour fournir l'alimentation pour recharger la batterie est électriquement connecté. A titre d'autre exemple, l'unité de source d'alimentation 190 peut être configurée pour recharger la batterie sans fil sans l'utilisation du port de connexion. Dans cet exemple, l'unité de source d'alimentation 190 peut recevoir l'alimentation, transférée depuis un émetteur d'alimentation sans fil externe, en utilisant l'un d'un procédé de couplage inductif qui est basé sur l'induction magnétique ou d'un procédé de couplage par résonance magnétique qui est basé sur la résonance électromagnétique. Divers modes de réalisation décrits ici peuvent être implémentés dans un support lisible par ordinateur, un support lisible par machine ou un support similaire en utilisant, par exemple, un logiciel, du matériel, ou l'une de leurs combinaisons. En se référant à présent aux figures 1B et 1C, le terminal mobile 100 est décrit en référence à un corps du terminal de type barre. Toutefois, le terminal mobile 100 peut en variante être implémenté dans l'une quelconque d'une variété de configurations différentes. Les exemples de telles configurations incluent le type montre, le type attache, le type lunettes, ou en tant que type pliable, type à clapet, type coulissant, type basculant et type pivotant dans lequel deux et plus de deux corps sont combinés les uns aux autres de manière relativement déplaçable, et leurs combinaisons. La présente discussion concerne souvent un type particulier de terminal mobile (par exemple type barre, type montre, type lunettes et similaires).
Néanmoins, de tels enseignements quant à un type particulier de terminal mobile s'appliqueront aussi généralement à d'autres types de terminaux mobiles. Le terminal mobile 100 inclura généralement un boîtier (par exemple un cadre, un logement, une coque et similaire) formant l'aspect du terminal. Dans ce mode de réalisation, le boîtier est formé à l'aide d'un boîtier avant 101 et d'un boîtier arrière 102. Divers composants électroniques sont incorporés dans un espace formé entre le boîtier avant 101 et le boîtier arrière 102. Au moins un boîtier milieu peut de surcroît être positionné entre le boîtier avant 101 et le boîtier arrière 102. L'unité d'affichage 151 est montrée située sur le côté avant du corps du terminal pour sortir des informations. Comme illustré, une fenêtre 151a de l'unité d'affichage 151 peut être montée sur le boîtier avant 101 pour former la surface avant du corps de terminal conjointement avec le boîtier avant 101. Dans certains modes de réalisation, des composants électroniques peuvent également être montés sur le boîtier arrière 102. Les exemples de tels composants électroniques incluent une batterie détachable 191, un module d'identification, une carte mémoire et similaire. La coque arrière 103 est montrée couvrant les composants électroniques, et cette coque peut être couplée de façon détachable au boîtier arrière 102. En conséquence, lorsque la coque arrière 103 est détachée du boîtier arrière 102, les composants électroniques montés sur le boîtier arrière 102 sont exposés à l'extérieur. Comme illustré, lorsque la coque arrière 103 est couplée au boîtier arrière 102, une surface latérale du boîtier arrière 102 est partiellement exposée. Dans certains cas, lors du couplage, le boîtier arrière 102 peut être complètement masqué par la coque arrière 103. Dans certains modes de réalisation, la coque arrière 103 peut inclure une ouverture permettant d'exposer à l'extérieur une caméra 121b ou une unité de sortie audio 152b. Les boîtiers 101, 102, 103 peuvent être formés par moulage par injection d'une résine synthétique ou peuvent être formés en un métal, par exemple l'acier inoxydable (AI), l'aluminium (Al), le titane (Ti) ou similaire. A titre d'alternative à l'exemple dans lequel la pluralité de boîtiers forme un espace interne pour loger des composants, le terminal mobile 100 peut être configuré de telle sorte qu'un boîtier forme l'espace interne. Dans cet exemple, un terminal mobile 100 ayant une monocoque est formé de sorte qu'une résine synthétique ou qu'un métal s'étende d'une surface latérale à une surface arrière. Si on le souhaite, le terminal mobile 100 peut inclure une unité d'étanchement à l'eau pour empêcher l'introduction d'eau dans le corps du terminal.
Par exemple, l'unité d'étanchement à l'eau peut inclure un organe d'étanchéité à l'eau qui est situé entre la fenêtre 151a et le boîtier avant 101, entre le boîtier avant 101 et le boîtier arrière 102, ou entre le boîtier arrière 102 et la coque arrière 103, pour sceller hermétiquement un espace interne lorsque ces boîtiers sont couplés.
Le terminal mobile 100 peut inclure l'unité d'affichage 151, des première et seconde unités de sortie audio 152a et 152b, le capteur de proximité 141, un capteur d'illumination 142, un module de sortie optique 154, des première et seconde caméras 121a et 121b, des première et seconde unités de manipulation 123a et 123b, un microphone 122, une unité d'interface 160 et similaire.
Ci-après, comme l'illustrent les figures 1B et 1C, le terminal mobile 100 dans lequel l'unité d'affichage 151, la première unité de sortie audio 152a, le capteur de proximité 141, le capteur d'illumination 142, le module de sortie optique 154, la première caméra 121a et la première unité de manipulation 123a sont disposés sur une surface avant du corps du terminal, la seconde unité de manipulation 123b, le microphone 122 et l'unité d'interface 160 sont disposés sur le côté du corps du terminal, et la seconde unité de sortie audio 152b et la seconde caméra 121b sont disposées sur une surface arrière du corps du terminal seront décrits à titre d'exemple. Toutefois, les composants ne sont pas limités à la configuration. Les composants peuvent être exclus, remplacés ou disposés sur d'autres surfaces si nécessaire. Par exemple, la première unité de manipulation 123a peut ne pas être ménagée sur la surface avant du corps du terminal, et la seconde unité de sortie audio 152b peut être ménagée sur le côté du corps du terminal, plutôt que sur la surface arrière du corps du terminal. L'unité d'affichage 151 peut afficher (ou sortir) des informations traitées dans le terminal mobile 100. Par exemple, l'unité d'affichage 151 peut afficher des informations d'écran exécutées d'un programme d'application entraîné dans le terminal mobile 100, ou des informations d'interface utilisateur (UI) ou des informations d'interface utilisateur graphique (GUI) selon les informations d'écran exécutées. L'unité d'affichage 151 peut inclure un afficheur à cristaux liquides (LCD), un afficheur à cristaux liquides à transistor à film mince (TFT-LCD), une diode électroluminescente organique (DELO), un afficheur souple, un afficheur à 3 dimensions (3D) et un afficheur à encre électronique. L'unité d'affichage 151 peut être implémentée en utilisant deux dispositifs d'affichage, qui peuvent implémenter la même technologie d'affichage ou une technologie différente. Par exemple, une pluralité des unités d'affichage 151 peuvent être agencées sur un côté, soit espacées les unes des autres, soit ces dispositifs peuvent être intégrés, ou bien ces dispositifs peuvent être agencés sur des surfaces différentes. L'unité d'affichage 151 peut également inclure un capteur tactile qui détecte une entrée tactile reçue au niveau de l'unité d'affichage. Lorsqu'un toucher est entré sur l'unité d'affichage 151, le capteur tactile peut être configuré pour détecter ce toucher et l'organe de commande 180 peut par exemple générer un ordre de commande ou un autre signal correspondant au toucher. Le contenu qui est entré par toucher peut être un texte ou une valeur numérique, ou un article de menu qui peut être indiqué ou désigné dans divers modes. Le capteur tactile peut être configuré sous la forme d'un film ayant un motif de toucher, disposé entre la fenêtre 151a et un afficheur sur une surface arrière de la fenêtre 151a, ou un fil de métal qui est modelé directement sur la surface arrière de la fenêtre 151a. En variante, le capteur tactile peut être formé solidairement avec l'afficheur. Par exemple, le capteur tactile peut être disposé sur un substrat de l'afficheur ou au sein de l'afficheur.
L'unité d'affichage 151 peut également former un écran tactile conjointement avec le capteur tactile. Ici, le capteur tactile peut servir d'unité d'entrée utilisateur 123 (voir la figure 1A). En conséquence, l'écran tactile peut remplacer au moins une partie des fonctions de la première unité de manipulation 123a. Le premier module de sortie audio 152a peut être implémenté sous la forme d'un récepteur et la seconde unité de sortie audio 152b peut être implémentée sous la forme d'un haut-parleur pour sortir de l'audio vocal, des sons d'alarme, une reproduction audio multimédia et similaire.
La fenêtre 151a de l'unité d'affichage 151 inclura typiquement une ouverture pour permettre à l' audio généré par la première unité de sortie audio 152a de passer. Une variante consiste à permettre la libération d'audio le long d'un interstice d'assemblage entre les corps structuraux (par exemple un interstice entre la fenêtre 151a et le boîtier avant 101). Dans ce cas, un trou formé indépendamment pour sortir des sons audio peut ne pas être vu ou est sinon caché en termes d'aspect, ce qui simplifie encore l'aspect et la fabrication du terminal mobile 100. Le module de sortie optique 154 peut être configuré pour sortir de la lumière en vue d'indiquer la génération d'un évènement. Les exemples de tels évènements incluent une réception de message, une réception de signal d'appel, un appel en absence, une alarme, une annonce de calendrier, une réception de courriel, une réception d'informations à travers une application, et similaire. Lorsqu'un utilisateur a vérifié un évènement généré, l'unité de commande peut commander au module de sortie optique 154 d'arrêter la sortie de lumière.
La première caméra 121a peut traiter des trames d'image ainsi que des images fixes ou mobiles obtenues par le capteur d'image dans un mode de capture ou un mode d'appel vidéo. Les trames d'image traitées peuvent ensuite être affichées sur l'unité d'affichage 151 ou stockées dans la mémoire 170. Les première et seconde unités de manipulation 123a et 123b sont des exemples de l'unité d'entrée utilisateur 123, qui peut être manipulée par un utilisateur pour fournir une entrée au terminal mobile 100. Les première et seconde unités de manipulation 123a et 123b peuvent également être communément désignées comme une portion de manipulation, et peuvent employer tout procédé tactile qui permet à l'utilisateur de réaliser une manipulation telle qu'un toucher, une poussée, un défilement ou similaire. Les première et seconde unités de manipulation 123a et 123b peuvent également employer tout procédé non tactile qui permet à l'utilisateur de réaliser une manipulation telle qu'un toucher de proximité, un pointage ou similaire. La figure 1B illustre la première unité de manipulation 123a en tant que touche tactile, mais des variantes possibles incluent une touche mécanique, une touche poussoir, une touche tactile et leurs combinaisons. Une entrée reçue au niveau des première et seconde unités de manipulation 123a et 123b peut être utilisée de diverses manières. Par exemple, la première unité de manipulation 123a peut être utilisée par l'utilisateur pour fournir une entrée à un menu, une touche début, annulation, recherche, ou similaire, et la seconde unité de manipulation 123b peut être utilisée par l'utilisateur pour fournir une entrée pour commander un niveau de volume qui est sorti par la première ou la seconde unité de sortie audio 152a ou 152b, pour passer à un mode de reconnaissance tactile de l'unité d'affichage 151, ou similaire. A titre d'autre exemple de l'unité d'entrée utilisateur 123, une unité d'entrée arrière peut être située sur la surface arrière du corps du terminal. L'unité d'entrée arrière peut être manipulée par un utilisateur pour fournir une entrée au terminal mobile 100. L'entrée peut être utilisée dans une variété de manières différentes. Par exemple, l'unité d'entrée arrière peut être utilisée par l'utilisateur pour fournir une entrée de marche/arrêt, début, fin, défilement, commande du niveau de volume sorti par la première ou seconde unité de sortie audio 152a ou 152b, passage à un mode de reconnaissance tactile de l'unité d'affichage 151, et similaires. L'unité d'entrée arrière peut être configurée pour permettre une entrée tactile, une entrée par poussée ou leurs combinaisons. L'unité d'entrée arrière peut être située pour chevaucher l'unité d'affichage 151 du côté avant dans une direction de l'épaisseur du corps du terminal. A titre d'exemple, l'unité d'entrée arrière peut être située sur une portion d'extrémité supérieure du côté arrière du corps du terminal de telle sorte qu'un utilisateur puisse facilement la manipuler en utilisant un index lorsque l'utilisateur saisit le corps du terminal d'une main. Toutefois, la présente invention ne s'y limite pas et une position de l'unité d'entrée arrière peut être modifiée. Lorsque l'unité d'entrée arrière est ménagée sur la surface arrière du corps du terminal, une nouvelle interface utilisateur peut être implémentée. Egalement, lorsque l'écran tactile ou l'unité d'entrée arrière telle que décrite ci-dessus remplace au moins certaines fonctions de la première unité de manipulation 123a ménagée sur la surface avant du corps du terminal de sorte que la première unité de manipulation 123a soit omise de la surface avant du corps du terminal, l'unité d'affichage 151 peut avoir un plus grand écran. A titre de variante supplémentaire, le terminal mobile 100 peut inclure un capteur lecteur de doigt qui balaie l'empreinte digitale d'un utilisateur. L'organe de commande 180 peut alors utiliser des informations d'empreinte digitale détectées par le capteur lecteur de doigt comme partie d'une procédure d'authentification. Le capteur lecteur de doigt peut également être installé dans l'unité d'affichage 151 ou implémenté dans l'unité d'entrée utilisateur 123. Le microphone 122 est montré localisé à une extrémité du terminal mobile 100, mais d'autres emplacements sont possibles. Si on le souhaite, de multiples microphones peuvent être implémentés, un tel agencement permettant la réception de sons stéréo. L'unité d'interface 160 peut servir de chemin permettant au terminal mobile 100 d'interfacer avec des dispositifs externes. Par exemple, l'unité d'interface 160 peut inclure un ou plusieurs d'un terminal de connexion pour connexion à un autre dispositif (par exemple un écouteur, un haut-parleur externe ou similaire), un port pour une communication en champ proche (par exemple, un port association des données infrarouges (IrDA), un port Bluetooth, un port LAN sans fil et similaires), ou un terminal de source d'alimentation permettant de fournir l'alimentation au terminal mobile 100. L'unité d'interface 160 peut être implémentée sous la forme d'une fiche permettant d'accueillir une carte externe, telle qu'un module d'identification d'abonné (SIM), un module d'identité utilisateur (UIM), ou une carte mémoire pour le stockage d'informations. La seconde caméra 121b est montrée située au niveau du côté arrière du corps du terminal et inclut une direction de capture d'image qui est sensiblement opposée à la direction de capture d'image de la première unité de caméra 121a. La seconde caméra 121b peut inclure une pluralité de lentilles agencées le long d'au moins une ligne. La pluralité de lentilles peut également être agencée dans une configuration de matrice. Les caméras peuvent être désignées par « caméra en réseau ». Lorsque la seconde caméra 121b est implémentée comme une caméra en réseau, des images peuvent être capturées de diverses manières en utilisant la pluralité de lentilles et images avec de meilleures qualités. Comme le montre la figure 1C, un flash 124 est montré adjacent à la seconde caméra 121b. Lorsqu'une image d'un sujet est capturée avec la caméra 121b, le flash 124 peut illuminer le sujet. Comme le montre la figure 1C, la seconde unité de sortie audio 152b peut être située sur le corps du terminal. La seconde unité de sortie audio 152b peut implémenter des fonctions de son stéréophonique conjointement avec la première unité de sortie audio 152a, et peut également être utilisée pour implémenter un mode téléphone haut-parleur pour la communication d'appel. Au moins une antenne pour une communication sans fil peut être située sur le corps du terminal. L'antenne peut être installée dans le corps du terminal ou formée par le boîtier. Par exemple, une antenne qui configure une partie du module de réception de radiodiffusion 111 peut être rétractable dans le corps du terminal. En variante, une antenne peut être formée en utilisant un film attaché à une surface interne de la coque arrière 103, ou un boîtier qui inclut un matériau conducteur. Une unité de source d'alimentation 190 permettant de fournir l'alimentation au terminal mobile 100 peut inclure une batterie 191, qui est montée dans le corps du terminal ou couplée de façon détachable à un extérieur du corps du terminal. La batterie 191 peut recevoir l'alimentation via un câble de source d'alimentation connecté à l'unité d'interface 160. Egalement, la batterie 191 peut être rechargée sans fil en utilisant un chargeur sans fil. La charge sans fil peut être implémentée par induction magnétique ou résonance électromagnétique. La coque arrière 103 est montrée couplée au boîtier arrière 102 pour masquer la batterie 191, pour empêcher une séparation de la batterie 191, et pour protéger la batterie 191 vis-à-vis d'un impact externe ou d'un corps étranger. Lorsque la batterie 191 est détachable du corps du terminal, le boîtier arrière 103 peut être couplé de façon détachable au boîtier arrière 102. Un accessoire permettant de protéger un aspect ou d'assister ou d'étendre les fonctions du terminal mobile 100 peut également être ménagé sur le terminal mobile 100. A titre d'exemple d'accessoire, une coque ou un étui permettant de couvrir ou d'accueillir au moins une surface du terminal mobile 100 peut être ménagé. La coque ou l'étui peut coopérer avec l'unité d'affichage 151 pour étendre la fonction du terminal mobile 100. Un autre exemple de l'accessoire est un crayon de touche permettant d'assister ou d'étendre une entrée tactile sur un écran tactile. Le terminal mobile 100 selon un mode de réalisation de la présente invention inclut une fonction d'entrée d'un mot basée sur une entrée tactile appliquée à l'unité d'affichage 151. Dans un mode de réalisation de la présente invention, pendant qu'un utilisateur entre des caractères (mot) en appliquant une entrée tactile à une région de l'unité d'affichage 151, un état d'édition d'un mot entré pour être adjacent à la région particulière à laquelle le toucher est appliqué est affiché. Ci-après, on décrira un procédé de commande consistant à sortir une région d'affichage d'état d'édition selon divers modes de réalisation de la présente invention. L'unité d'affichage est implémentée comme un écran tactile qui reçoit une entrée tactile pour commander un terminal mobile. Ainsi, ci-après, la référence numérique 151 sera donnée à un écran tactile et décrite. En particulier, la figure 2 est un organigramme illustrant un procédé de commande selon un mode de réalisation de la présente invention, et les figures 3A(a) à 3B(c) sont des vues conceptuelles illustrant un procédé de commande de la figure 2. En se référant aux figures 2 et 3A, l'écran tactile 151 inclut une région de sortie 310 et une région d'entrée 410. Par exemple, lorsqu'une application mémo permettant d'entrer et de stocker du contenu tel qu'un mot, une image et similaire, est exécutée, la région d'entrée 410 peut être implémentée comme un clavier virtuel. Le clavier virtuel peut inclure une pluralité de touches tactiles. Le clavier virtuel 410 peut inclure une pluralité de touches de caractère 412 correspondant à une pluralité de caractères entrables et une pluralité de touches d'édition 411 recevant une entrée tactile pour commander l'édition telle que l'effacement d'un mot, le changement d'une ligne, un espacement, le changement d'une langue d'un caractère, et similaires. A savoir, l'organe de commande 180 affiche une pluralité de touches d'édition 411 et une pluralité de touches de caractère 412 sur une région d'entrée 410 de l'écran tactile 151 à l'étape S210. Un mot (caractères) basé sur une entrée tactile appliquée à la touche de caractère 412 du clavier virtuel 410, et similaire, peut être sorti sur la région de sortie 310. En se basant sur une entrée tactile appliquée à la touche de caractère 412, l'organe de commande 180 peut commander l'écran tactile 151 pour sortir un mot correspondant à la touche de caractère 412, qui a reçu l'entrée tactile, à la région de sortie 310, mais la présente invention n'y est pas limitée. A savoir, l'organe de commande 180 du terminal mobile 100 selon un mode de réalisation de la présente invention peut commander l'écran tactile 151 pour sortir la région d'affichage d'état d'édition 510 incluant le mot correspondant à la touche de caractère par une entrée tactile appliquée à la touche de caractère 412 à l'étape S220. Sur l'écran tactile 151, la région d'affichage d'état d'édition 510 peut être affichée pour être adjacente à la région d'entrée 310. Par exemple, la région d'affichage d'état d'édition 510 peut être disposée entre la région de sortie 310 et la région d'entrée 410. La région d'affichage d'état d'édition 510 peut avoir une forme de barre s'étendant dans une direction de la largeur perpendiculaire à une direction de la longueur du terminal mobile 100. Ci-après, on décrira la région d'affichage d'état d'édition 510 ayant la forme de barre, mais la présente invention ne s'y limite pas. La région d'affichage d'état d'édition 510 peut être positionnée au-dessus du clavier virtuel 410. A savoir, l'organe de commande 180 commande l'écran tactile 151 pour afficher un mot dans la région d'affichage d'état d'édition 510 en temps réel en se basant sur une entrée tactile appliquée sur la région d'entrée 310. En conséquence, l'utilisateur peut visualiser et vérifier un mot à sortir sur la région de sortie 310 à l'avance ou en temps réel, tout en appliquant une entrée tactile à la région d'entrée 410. Egalement, lorsqu'une entrée tactile est appliquée à l'une quelconque de la pluralité de touches d'édition 411, l'organe de commande 180 commande l'écran tactile 151 pour sortir des informations visuelles en se basant sur la touche d'édition 411 à laquelle est appliquée une entrée tactile à la région d'affichage d'état d'édition 510 à l'étape S230. L'organe de commande 180 réalise différentes fonctions d'édition selon des types des touches d'édition 411, et commande l'écran tactile 151 pour sortir des images représentant les fonctions d'édition. En se référant à (b) et (c) de la figure 3A, en se basant sur une entrée tactile appliquée à une première touche d'édition 411a, l'organe de commande 180 commande l'écran tactile 151 pour sortir un premier mot 501 affiché sur la région d'affichage d'état d'édition 510, sur la région de sortie 310. Par exemple, la première touche d'édition 411a peut correspondre à une barre d'espacement. A savoir, lorsque le premier mot 501 est sorti sur la région d'affichage d'état d'édition 510, et lorsqu'une entrée tactile est appliquée à la première touche d'édition 411a, l'organe de commande 180 sort le premier mot 501 sur la région de sortie 310 et termine la sortie du premier mot dans la région d'affichage d'état d'édition 510. Après cela, lorsqu'une entrée tactile est appliquée à la première touche d'édition 411a, l'organe de commande 180 forme un espace à partir du premier mot dans la région de sortie 310. En variante, en se basant sur une entrée tactile appliquée à la première touche d'édition 411a, une position de sortie du premier mot 501 est changée et un espace peut être formé à partir du premier mot 501. Dans le même temps, lorsqu'une entrée tactile est appliquée à la première touche d'édition 411a, l'organe de commande 180 commande l'écran tactile 151 pour sortir les premières informations visuelles 501'. Ici, les premières informations visuelles 501' peuvent être une image d'animation du premier mot 501 se déplaçant de la région d'affichage d'état d'édition 510 à la région de sortie 310. Par exemple, l'image d'animation peut être le premier mot 501 qui est progressivement déplacé vers la région de sortie 310 selon l'écoulement du temps et qui est progressivement modifié pour être diminué ou augmenté en taille. Dans le même temps, en se référant aux figures 3A(b) et 3A(d), en se basant sur une entrée tactile appliquée à une seconde touche d'édition préétablie 411b, l'organe de commande 180 efface une portion du premier mot 501 affiché dans la région d'affichage d'état d'édition 510. A savoir, la seconde touche d'édition 411b peut correspondre à une touche d'annulation d'entrée pour détecter un mot, ou similaire. Lorsqu'une entrée tactile est appliquée à la seconde touche d'édition 411b, l'organe de commande 180 commande l'écran tactile 151 pour sortir des deuxièmes informations visuelles 511 sur la région d'affichage d'état d'édition 510. Les deuxièmes informations visuelles 511 peuvent correspondre à une forme préétablie de la région d'affichage d'état d'édition 510. Par exemple, les deuxièmes informations visuelles 511 peuvent correspondre à une forme, une couleur et similaire, formant la région d'affichage d'état d'édition 510. Par exemple, les deuxièmes informations visuelles 511 peuvent inclure une forme d'une ligne ou une couleur formant le bord d'une région dans laquelle le premier mot 501 est affiché ou bien la région d'affichage d'état d'édition 510. Par exemple, les deuxièmes informations visuelles 511 peuvent correspondre à une image à lignes formée dans la région de bord de la région d'affichage d'état d'édition 510 et ayant une couleur préétablie. A savoir, par les deuxièmes informations visuelles 511, une région du bord de la région d'affichage d'état d'édition 510 est montrée comme étant changée en une couleur particulière. Par exemple, par les deuxièmes informations visuelles 511, des bords supérieur et inférieur de la région d'affichage d'état d'édition 510 peuvent être affichés en couleur rouge. Selon le présent mode de réalisation, puisqu'un mot d'entrée est affiché en temps réel dans la région d'affichage d'état d'édition 510 affichée pour être adjacent à la région d'entrée 410 incluant des touches de caractère, l'utilisateur peut facilement reconnaître un mot qui est actuellement entré ou un état d'édition d'un mot sans déplacer les yeux vers la région de sortie 310. De plus, l'organe de commande 180 affiche un état permettant de sortir le premier mot entré par une entrée tactile sur la région de sortie 310, en tant que les premières informations visuelles 501', et affiche un état permettant d'effacer le premier mot 501 qui est sorti sur la région d'affichage d'état d'édition 510, en tant que les deuxièmes informations visuelles 511. En conséquence, l'utilisateur peut reconnaître visuellement un état dans lequel un mot est édité par une entrée tactile. Ainsi, l'utilisateur peut reconnaître si un mot (et un contenu) est entré comme prévu selon un toucher appliqué, sans avoir à déplacer les yeux vers la région de sortie. Dans le même temps, en se référant aux figures 3B(a) à 3B(c), l'écran tactile 151 peut sortir uniquement la région d'entrée 410 et la région de sortie 310, avant qu'une entrée tactile soit appliquée à la région d'entrée 410. Dans ce cas, l'organe de commande 180 peut commander l'écran tactile 151 pour sortir la région d'affichage d'état d'édition 510 entre la région d'entrée 410 et la région de sortie 310 en se basant sur une entrée tactile appliquée à la région d'entrée 410. Dans ce cas, une taille d'au moins l'une de la région d'entrée 410 et de la région de sortie 310 peut être ajustée. En se basant sur une entrée tactile appliquée à une touche de caractère 412 de la région d'entrée 410, l'organe de commande 180 peut commander l'écran tactile 151 pour sortir un mot correspondant à la touche de caractère 412 à entrée tactile appliquée sur la région d'affichage d'état d'édition 510, et sortir simultanément le mot sur la région de sortie 310. A savoir, l'écran tactile 151 peut sortir le mot correspondant à la touche de caractère 412 sur la région de sortie 310 et la région d'affichage d'état d'édition 510 en temps réel. Dans ce cas, un procédé de commande consistant à sortir le mot correspondant à la touche de caractère 412 sur la région de sortie 310 et la région d'affichage d'état d'édition 510 en temps réel ou un procédé de commande consistant à sortir préférentiellement le mot correspondant à la touche de caractère 412 uniquement sur la région d'affichage d'état d'édition 510 comme décrit ci-dessus en référence aux figures 3A(a) à (d) peut être changé selon une sélection d'utilisateur.
Les figures 4A à 4F(c) sont des vues conceptuelles illustrant un procédé de commande consistant à changer une position d'entrée dans une région d'affichage d'état d'édition. Lorsque la fonction d'entrée d'un mot est exécutée et qu'une entrée tactile d'utilisateur est appliquée, l'écran tactile 151 peut afficher un indicateur indiquant une position à laquelle un mot doit être entré, dans une région. L'utilisateur peut entrer des caractères dans un ordre basé sur une entrée tactile et peut ajouter un nouveau caractère entre des caractères. Ci-après, on décrira un procédé de commande consistant à changer une position d'entrée lorsqu'un mot est sorti en appliquant un toucher selon divers modes de réalisation. En se référant à la figure 4A, l'écran tactile 151 sort la région d'affichage d'état d'édition 510 incluant un caractère d'entrée entre la région de sortie 310 et la région d'entrée 410. Lorsque le mot est sorti sur la région d'affichage d'état d'édition 510, et lorsqu'une entrée tactile est appliquée à la région d'affichage d'état d'édition 510, l'organe de commande 180 commande l'écran tactile 151 pour sortir un curseur 520 sur une région correspondant à l'entrée tactile.
Par exemple, lorsqu'une entrée tactile est appliquée entre deux caractères, l'organe de commande 180 peut afficher le curseur 520 entre les caractères. Egalement, lorsque le curseur 520 est sorti, l'organe de commande 180 commande l'écran tactile 151 pour sortir un caractère additionnel correspondant à une entrée tactile appliquée à la région d'entrée 410, sur la région où le curseur 520 est positionné. Egalement, en se basant sur une entrée tactile continue appliquée à la région d'affichage d'état d'édition 510, l'organe de commande 180 peut changer la position du curseur 520. L'utilisateur peut appliquer une entrée tactile à la région d'affichage d'état d'édition 510 pour désigner une position entre des caractères afin d'entrer un caractère additionnel. Dans le même temps, lorsqu'une entrée tactile permettant de former le curseur 520 ou de déplacer le curseur 520 est appliquée à la région d'affichage d'état d'édition 510, l'organe de commande 180 commande l'écran tactile 151 pour sortir des troisièmes informations visuelles 512. Ici, les troisièmes informations visuelles 512 peuvent avoir une forme et une couleur préétablies de la région d'affichage d'état d'édition 510 différenciée des deuxièmes informations visuelles 511. En conséquence, lorsque les troisièmes informations visuelles 512 sont sorties, l'utilisateur peut vérifier qu'une position d'entrée est désignée et changée par une entrée tactile. Par exemple, les deuxièmes informations visuelles 511 peuvent être implémentées comme une image à lignes formant des bords partiels de la région d'affichage d'état d'édition 510 affichée en couleur rouge, et des troisièmes informations visuelles 512 peuvent être implémentées comme une image à lignes formant un bord partiel de la région d'affichage d'état d'édition 510. A savoir, l'utilisateur peut reconnaître l'état d'édition en cours lorsqu'il voit le changement de couleur des bords de la région d'affichage d'état d'édition 510. Dans le même temps, lorsqu'un mot est sorti sur la région d'affichage d'état d'édition 510 en se basant sur une entrée tactile appliquée à une touche de caractère 412, l'organe de commande 180 peut afficher une portion des bords de la région d'affichage d'état d'édition 510 sous forme de ligne bleue. A savoir, l'utilisateur peut facilement reconnaître lorsqu'un caractère est entré, lorsqu'un caractère est effacé, et lorsqu'une position d'entrée est changée, en se basant sur la couleur de bord de la région d'affichage d'état d'édition 510. Dans le même temps, l'organe de commande 180 peut sortir le premier mot 501 sorti par une entrée tactile appliquée à la touche de caractère 412, également à la région de sortie 310 en temps réel avec l'entrée tactile. Dans ce cas, l'organe de commande 180 peut sortir le curseur 520 conjointement avec le premier mot 501 sorti sur la région de sortie 310. A savoir, l'écran tactile 151 peut afficher un état d'édition sorti dans la région d'affichage d'état d'édition 510, également dans la région de sortie 310 simultanément. On décrira un procédé de commande consistant à changer une position d'entrée sur la région d'affichage d'état d'édition 510 par une entrée tactile appliquée à la région d'entrée 410 en référence à la figure 4B. En se basant sur une entrée tactile particulière appliquée à la région d'entrée 410, l'organe de commande 180 peut changer la région d'entrée 410 en une région de clavier numérique 410'. Par exemple, lorsque la région de clavier numérique 410' est activée, l'écran tactile 151 peut sortir le clavier virtuel comme une image semi-transparente. A savoir, lorsque la région d'entrée 410 est changée en la région de clavier numérique 410', l'organe de commande 180 limite la réception d'une entrée tactile appliquée à une pluralité de touches formant le clavier virtuel. L'entrée tactile particulière peut inclure une région préétablie et un type de toucher préétabli. Par exemple, l'entrée tactile particulière peut correspondre à un toucher long appliqué à la première touche d'édition 411a. Lorsque l'entrée tactile particulière est appliquée, l'organe de commande 180 10 change la région d'entrée 410 en la région de clavier numérique 410', et commande l'écran tactile 151 pour changer la forme du clavier virtuel 410. Par exemple, l'écran tactile 151 peut ajuster une couleur ou une transparence du clavier virtuel 410. La région de clavier numérique 410' reçoit une entrée tactile continue de l'utilisateur, et en se basant sur l'entrée tactile continue, l'organe de commande 180 15 peut changer une position d'entrée de la région d'affichage d'état d'édition 510. En gros, la position d'entrée est positionnée du côté droit du mot, et la position d'entrée peut être déplacée vers la gauche en se basant sur une entrée tactile qui se déplace vers la gauche. De même, lorsqu'une entrée tactile est appliquée à la région de clavier numérique 410', l'organe de commande 180 commande l'écran tactile 151 20 pour sortir les troisièmes informations visuelles 512 sur la région d'affichage d'état d'édition 510. Ici, le toucher long appliqué à la première touche d'édition 411a peut être défini comme un premier toucher et l'entrée tactile continue pour changer la position d'entrée peut être définie comme un deuxième toucher. Les première et seconde 25 entrées tactiles peuvent correspondre à l'entrée tactile continue. A savoir, après que le premier toucher est appliqué, lorsque le toucher est relâché de l'écran tactile 151, l'organe de commande 180 peut changer la région de clavier numérique 410' en la région d'entrée 410. Lorsque le deuxième toucher est relâché, l'organe de commande 180 peut 30 changer la région de clavier numérique 410' en la région d'entrée 410 et entrer un caractère additionnel à une position d'entrée désignée par le deuxième toucher. Un procédé de commande consistant à sortir un mot modifié lorsqu'un mot d'entrée comporte une erreur typographique (coquille) sera décrit en référence à la figure 4C. L'organe de commande 180 peut entrer un mot à la position d'entrée désignée. Lorsque le premier mot 501 est affiché dans la région d'affichage d'état d'édition 510, l'organe de commande 180 détermine si l'orthographe du premier mot 501 est correcte. A savoir, l'organe de commande 180 peut déterminer si le premier mot 501 existe dans un dictionnaire. Lorsque le premier mot 501 est une erreur typographique, l'organe de commande 180 commande l'écran tactile 151 pour modifier le premier mot en un mot modifié 501' et sort celui-ci. Le premier mot modifié 501' peut inclure des mots sensiblement identiques à ceux du premier mot 501, mais est une forme différente de celui-ci. Par exemple, le premier mot modifié 501' peut être implémenté pour avoir une police, un style de police et une couleur différents ou se voir donner un effet d'animation sur le premier mot modifié 501'. Ainsi, l'utilisateur peut reconnaître facilement que le mot d'entrée est une erreur typographique.
On décrira un procédé de commande consistant à corriger un mot dans la région d'affichage d'état d'édition 510 en référence aux figures 4D(a) à 4D(d). La région d'affichage d'état d'édition 510 (figure 4D(a)) sort des troisièmes informations visuelles 512. Lorsque les troisièmes informations visuelles 512 sont sorties, l'organe de commande 180 peut désigner une position d'entrée permettant d'entrer un mot additionnel en se basant sur une entrée tactile d'utilisateur. Egalement, l'écran tactile 151 peut sortir un curseur indiquant une position d'entrée conjointement avec le mot 501 sur la région d'affichage d'état d'édition 510. Lorsque le curseur est sorti entre des caractères, l'organe de commande 180 commande l'écran tactile 151 pour sortir une fenêtre d'écriture 411' sur la région de clavier numérique 410'. Egalement, afin d'effacer le caractère dans la région de clavier numérique 410', l'organe de commande 180 commande l'écran tactile 151 pour sortir une touche d'annulation d'entrée 412' pour recevoir une entrée tactile. Par exemple, lorsque le clavier virtuel 410 passe à la région de clavier numérique 410', l'organe de commande 180 limite l'entrée d'une pluralité de touches de fonction et d'une pluralité de caractères inclus dans le clavier virtuel. Toutefois, lorsque la région de clavier numérique passe à une fenêtre d'écriture, l'organe de commande 180 active la touche d'annulation d'entrée 412' pour recevoir une entrée tactile d'utilisateur.
Dans le même temps, lorsqu'une entrée tactile est appliquée à la fenêtre d'écriture 411', l'organe de commande 180 commande l'écran tactile 151 pour sortir une image en se basant sur l'entrée tactile. Par exemple, l'organe de commande 180 commande l'écran tactile 151 pour analyser une entrée tactile appliquée à la fenêtre d'écriture 411', analyser un mot similaire et sortir un mot concordant avec l'image sur la région d'affichage d'état d'édition 510. En conséquence, lorsqu'au moins l'un des caractères est entré de façon erronée, tout en entrant des caractères, l'utilisateur peut simplement ajouter un caractère, sans avoir à effacer ou éditer les caractères entiers.
En se référant aux figures 4D(a) et (d), lorsque le mot sorti sur la région d'affichage d'état d'édition 510 est mal orthographié, l'organe de commande 180 commande l'écran tactile 151 pour sortir des mots de recommandation 413a et 413b apparentés au mot. L'écran tactile 151 sort des premier et deuxième mots de recommandation 413a et 413b disposés des deux côtés du premier mot 501. Les mots de recommandation peuvent inclure des mots ayant une signification dans le dictionnaire. Egalement, dans ce cas, au moins l'une de la touche d'annulation d'entrée 412' et de la fenêtre d'écriture 411' peut être sortie conjointement avec les premier et deuxième mots de recommandation 413a et 413b. On décrira un procédé de commande consistant à éditer un mot de sortie sorti sur la région de sortie 310 en référence à la figure 4E. Des caractères basés sur la région d'entrée 410 sont séquentiellement sortis sur la région de sortie 310. Un mot 501 correspondant aux touches de caractère de la région d'entrée 410 à laquelle des entrées tactiles ont été appliquées est sorti sur la région d'affichage d'état d'édition 510. Dans le même temps, en se basant sur une entrée tactile particulière appliquée à la première touche d'édition 411a, l'organe de commande 180 fait passer la région d'entrée 410 à la région de clavier numérique 410'. En se basant sur une entrée tactile continue appliquée à la région de clavier numérique 410', l'organe de commande 180 peut progressivement déplacer le curseur 520 affiché sur le côté droit du premier mot 501 vers la gauche du premier mot 501. Lorsque l'entrée tactile continue est appliquée en continu, l'organe de commande 180 peut séquentiellement sortir le mot entré auparavant. En se référant à la figure 4E, lorsqu'un deuxième mot 502 (SOY) est sorti sur la région de sortie 310 et que le premier mot 501 est sorti sur la région d'affichage d'état d'édition 510, et lorsque des entrées tactiles sont appliquées en continu sur la région de clavier numérique 410, le deuxième mot 502 est sorti sur la région d'affichage d'état d'édition 510. De même, dans ce cas, l'organe de commande 180 peut commander l'écran tactile 151 pour sortir les troisièmes informations visuelles 512. Lorsque le premier mot 501 est changé en le deuxième mot 502 dans la région d'affichage d'état d'édition 510, l'organe de commande 180 peut extraire des troisième et quatrième mots de recommandation 531a et 531b par rapport au deuxième mot 502, et commande l'écran tactile 151 pour sortir les troisième et quatrième mots de recommandation 531a et 53 lb. Ici, les premier à quatrième mots de recommandation 413a, 413b, 531a et 53 lb peuvent être sortis peu importe si le mot affiché dans la région d'affichage d'état d'édition 510 est bien ou mal orthographié. A savoir, lorsqu'un mot est apparenté au mot affiché dans la région d'affichage d'état d'édition 510, le mot peut être sélectionné comme un mot de recommandation. En conséquence, l'utilisateur peut vérifier séquentiellement les mots sortis sur la région de sortie 310 en appliquant des entrées tactiles à la région d'entrée 410, sans avoir à appliquer des entrées tactiles à la région de sortie 310 ou avoir à déplacer les yeux. Un procédé de commande consistant à changer une position d'entrée sur la région de sortie 310 sera décrit en référence aux figures 4F(a) à 4F(c). En se référant à la figure 4F(a), l'écran tactile 151 sort des mots dans une pluralité de rangées. « GOOD MORNING » est sorti dans la première rangée, et « SAY » est sorti dans la deuxième rangée. En se basant sur l'entrée tactile appliquée à la première touche d'édition 411a, l'organe de commande 180 fait passer la région d'entrée 410 en la région de clavier numérique 410'. En se basant sur une entrée tactile continue depuis une entrée tactile appliquée à la première touche d'édition 411a et en se déplaçant vers le haut et vers le bas sur l'écran tactile 51, l'organe de commande 180 peut changer des rangées des positions d'entrée. Ici, la direction haut/bas correspond à une direction de la longueur du terminal mobile 100. En se référant aux figures 4F(a) et 4F(b), en se basant sur une entrée tactile dans une direction vers le bas, l'organe de commande 180 peut changer une position d'entrée en une nouvelle rangée dans la région d'entrée 310. Le curseur 520 peut être affiché dans une nouvelle rangée. En se référant aux figures 4F(a) et 4F(c), en se basant sur une entrée tactile appliquée dans une direction vers le haut, l'organe de commande 180 peut changer la position d'entrée à entre « GOO » et «O » dans la région d'entrée 310, et commander l'écran tactile 151 pour sortir le curseur 520.
Lorsqu'une position d'entrée est désignée entre des caractères formant un mot, l'organe de commande 180 peut commander l'écran tactile 151 pour sortir le mot sur la région d'affichage d'état d'édition 510. Selon le présent mode de réalisation, lorsque l'utilisateur veut entrer un mot ou éditer un mot au milieu d'une longue phrase créée dans une pluralité de rangées, l'utilisateur peut désigner une position d'entrée sans avoir à appliquer une entrée tactile sur la région d'entrée 310. Les figures 5A et 5B sont des vues conceptuelles illustrant un procédé de commande consistant à effacer un mot sorti sur la région d'affichage d'état d'édition selon divers modes de réalisation de la présente invention. En se référant à la figure 5A, lorsqu'une entrée tactile est appliquée à la seconde touche d'édition 411b correspondant à une touche d'annulation d'entrée parmi les touches d'édition 411, l'organe de commande 180 commande l'écran tactile 151 pour sortir les deuxièmes informations visuelles 511 sur la région d'affichage d'état d'édition 510. En se basant sur une entrée tactile appliquée à la seconde touche d'édition 412b, l'organe de commande 180 efface une portion du mot en se basant sur l'entrée tactile appliquée à la seconde touche d'édition 411b. Lorsque l'entrée tactile appliquée à la seconde touche d'édition 411b est relâchée, l'organe de commande 180 commande l'écran tactile 151 pour limiter la sortie des deuxièmes informations visuelles 511. Par exemple, lorsque les deuxièmes informations visuelles 511 correspondent à une couleur changée de la région d'affichage d'état d'édition 510, l'organe de commande 180 peut commander l'écran tactile 151 pour rétablir la couleur de la région d'affichage d'état d'édition 510. A savoir, l'utilisateur peut vérifier rapidement l'état d'édition selon une touche d'édition à laquelle une entrée tactile est appliquée par les deuxièmes informations visuelles affichées dans la région d'affichage d'état d'édition 510, sans avoir à déplacer les yeux sur la région d'entrée 310. On décrira un procédé de commande consistant à effacer une portion d'un mot en se basant sur une entrée tactile appliquée à une région de clavier numérique en référence à la figure 5B. Lorsqu'un troisième toucher de type particulier préétabli est appliqué à la seconde touche d'édition 411b correspondant à une touche d'annulation d'entrée, parmi les touches d'édition 411, l'organe de commande 180 fait passer la région d'entrée 410 à la région de clavier numérique 410'. Ici, le troisième toucher de type particulier préétabli peut correspondre à une entrée tactile longue appliquée pendant une période de temps préétablie (quelques secondes). Egalement, l'organe de commande 180 commande l'écran tactile 151 pour sortir les deuxièmes informations visuelles 511 sur la région d'affichage d'état d'édition 510. Dans le même temps, en se basant sur un quatrième toucher appliqué en continu avec le troisième toucher, l'organe de commande 180 sélectionne une 10 portion du mot. Le quatrième toucher peut correspondre à une entrée tactile continue se déplaçant dans une direction particulière. Par exemple, lorsque le quatrième toucher se déplace dans une direction vers la gauche, au moins une portion de caractères séquentiels de droite à gauche des caractères peut être sélectionnée. L'organe de commande 180 peut commander l'écran tactile 151 pour afficher 15 les caractères sélectionnés. Par exemple, l'écran tactile 151 peut bloquer les caractères sélectionnés ou sortir les caractères sélectionnés dans une police différente. Lorsque le troisième toucher est relâché de l'écran tactile 151, l'organe de commande 180 commande l'écran tactile 151 pour effacer les caractères sélectionnés. A savoir, la pluralité de caractères sélectionnés peut être effacée par les troisième et 20 quatrième touchers. De même, lorsque le troisième toucher est relâché, l'organe de commande 180 fait passer la région de clavier numérique 410' à la région d'entrée 410 et commande l'écran tactile 151 pour limiter une sortie des deuxièmes informations visuelles 511. Selon le présent mode de réalisation, une pluralité de caractères peut être en 25 premier lieu sélectionnée en se basant sur une entrée tactile appliquée à la seconde touche d'édition 411b et peut être commandée pour être effacée en une fois. De même, en sortant les deuxièmes informations visuelles en se basant sur un ordre de commande d'effacement par la seconde touche d'édition 411b, l'écran tactile 151 peut informer que l'ordre de commande d'effacement est entré, et lorsqu'une 30 pluralité de caractères est sélectionnée, l'écran tactile 151 affiche la pluralité de caractères pour donner des informations les concernant visuellement. Puisqu'ils sont tous affichés dans la région d'affichage d'état d'édition 510, l'utilisateur peut reconnaître un état d'effacement et un caractère à sélectionner pour être effacé à l'avance, sans qu'il ait à déplacer les yeux vers la région d'entrée 310. Les figures 6(a) à 6(d) sont des vues conceptuelles illustrant un procédé de commande consistant à commander une position de sortie d'un mot en se basant sur une entrée tactile dans la région d'affichage d'état d'édition. En se basant sur une entrée tactile appliquée à la région d'entrée 410, l'organe de commande 180 sort un premier mot 501 sur la région d'affichage d'état d'édition 510 comme le montre la figure 6(a). En se référant aux figures 6(b) et 6(c), en se basant sur une entrée tactile appliquée à la première touche d'édition 411a, l'organe de commande 180 sort le premier mot 501 sur la région de sortie 310 et commande l'écran tactile 151 pour terminer la sortie du premier mot sur la région d'affichage d'état d'édition 510. En se référant aux figures 6(b) et 6(d), en se basant sur une entrée tactile appliquée au premier mot 501, l'organe de commande 180 peut commander une position du premier mot dans la région de sortie 310. Plus en détail, en se basant sur un cinquième toucher appliqué au premier mot 501 pendant une période de temps préétablie et un sixième toucher appliqué en continu avec le cinquième toucher, l'organe de commande 180 détermine une région de la région de sortie 310. Le cinquième toucher peut correspondre à une entrée tactile longue appliquée à une région dans laquelle le premier mot 501 est sorti, et le sixième toucher peut correspondre à une entrée tactile de glissement continue depuis le cinquième toucher et se déplaçant vers la région de sortie 310. Lorsque le sixième toucher est relâché, l'organe de commande 180 commande l'écran tactile pour sortir le premier mot 501 sur une région de la région de sortie 310. Lorsqu'une pluralité de caractères ont déjà été entrés sur la région de sortie 310, l'organe de commande 180 peut commander l'écran tactile 151 pour sortir le premier mot 501 entre la pluralité de caractères en se basant sur le sixième toucher. Lorsque le cinquième toucher est appliqué, l'unité de commande peut commander l'écran tactile 151 pour sortir des quatrièmes informations visuelles 513 sur le premier mot 501. Par exemple, les quatrièmes informations visuelles 513 peuvent correspondre au premier mot 501 ayant une forme changée ou peuvent être implémentées comme une image de bord formée le long de la circonférence externe du premier mot 501, ou similaire.
Dans le même temps, l'écran tactile 151 peut sortir le premier mot 501 pour le déplacer vers une région correspondant au sixième toucher. Egalement, lorsqu'un sixième toucher est appliqué entre une pluralité de caractères déjà sortis, les positions de la pluralité de caractères peuvent être temporairement changées. En conséquence, avant d'entrer un caractère, l'utilisateur n'a pas besoin de commander l'entrée d'une position sur la région d'entrée 310, et ainsi, l'utilisateur peut facilement éditer des caractères à sortir. Les figures 7A à 7E(d) sont des vues conceptuelles illustrant un procédé de commande consistant à entrer un mot sur une région d'entrée. En se référant à la figure 7A, en se basant sur une entrée tactile appliquée à la touche de caractère 412, l'organe de commande 180 commande l'écran tactile 151 pour sortir le premier mot 501 sur la région d'affichage d'état d'édition 510. L'organe de commande 180 sort des cinquième et sixième mots de recommandation 532a et 532b du premier mot 501 sur la région d'affichage d'état d'édition 510.
Par exemple, les cinquième et sixième mots de recommandation 532a et 532b peuvent être disposés des deux côtés du premier mot 501, et des polices des cinquième et sixième mots de recommandation 532a et 532b peuvent être implémentées pour être différentes de la police du premier mot 501. Des tailles des cinquième et sixième mots de recommandation 532a et 532b peuvent être plus petites que celle du premier mot 501. Les cinquième et sixième mots de recommandation 532a et 532b peuvent être sortis lorsque le premier mot 501 est reconnu comme une erreur typographique, mais la présente invention ne s'y limite pas. En se basant sur une entrée tactile appliquée à la première touche d'édition 411a parmi les touches d'édition 411, l'organe de commande 180 peut commander l'écran tactile 151 pour sortir le premier mot 501, sur la région de sortie 310. L'organe de commande 180 commande l'écran tactile 151 pour sortir les premières informations visuelles 501'. A savoir, les premières informations visuelles 501' peuvent être formées comme une image d'animation se déplaçant de la région d'affichage d'état d'édition 510 à la région de sortie 310. Dans le même temps, en se basant sur une entrée tactile appliquée à la première touche d'édition 411a, l'organe de commande 180 commande l'écran tactile 151 pour limiter la sortie des cinquième et sixième mots de recommandation 532a et 532b. A savoir, lorsque la sortie sur la région de sortie 310 est achevée, des caractères qui ont été sortis sur la région d'affichage d'état d'édition 510 disparaissent. On décrira un procédé de commande consistant à sortir un mot de recommandation sur la région de sortie en référence aux figures 7B(a) à 7B(c). En se référant à la figure 7B(a), lorsque le premier mot 501 est sorti sur la région d'affichage d'état d'édition 510, l'organe de commande 180 sort les cinquième et sixième mots de recommandation 532a et 532b du premier mot 501 sur la région d'affichage d'état d'édition 510. Les cinquième et sixième mots de 10 recommandation 532a et 532b sont affichés des deux côtés du premier mot 501. La région d'entrée 410 peut être divisée en première et seconde régions 410a et 410b pour recevoir une entrée tactile continue selon une direction préétablie. Les première et seconde régions 410a et 410b sont formées dans des régions adjacentes aux cinquième et sixième mots de recommandation 532a et 532b, respectivement. En 15 se basant sur une entrée tactile appliquée à la première région 410a ou la seconde région 410b, l'organe de commande 180 commande l'écran tactile 151 pour sortir un mot de recommandation correspondant à la première région 410a ou à la seconde région 410b, sur la région de sortie 310. Par exemple, en se basant sur une entrée tactile appliquée en premier sur la 20 seconde région 410b, en passant par le sixième mot de recommandation 532b, et appliquée à une région de la région de sortie 310, l'organe de commande 180 peut afficher le sixième mot de recommandation 532b sur la région de sortie 310. L'entrée tactile peut correspondre à une entrée tactile de type glissement ou une entrée tactile de type avec un léger coup. Toutefois, l'entrée tactile peut ne pas être appliquée de 25 façon répétée aux deux première et seconde régions 410a et 410b. Dans le même temps, lorsque l'entrée tactile est appliquée et qu'un mot de recommandation sorti sur la région de sortie 310 est sélectionné, l'organe de commande 180 commande l'écran tactile 151 pour sortir les cinquièmes informations visuelles 514 dans la région d'affichage d'état d'édition 510. Les cinquièmes 30 informations visuelles 514 peuvent être implémentées dans une forme dans laquelle au moins une région de la région d'affichage d'état d'édition 510 est changée. A savoir, en se basant sur les cinquièmes informations visuelles 514, l'utilisateur peut reconnaître qu'un mot dans la région d'affichage d'état d'édition 510 est sorti sur la région de sortie 310. Par exemple, lorsque les cinquièmes informations visuelles 514 sont affichées dans une région dans laquelle le mot de recommandation sélectionné est affiché dans la région d'affichage d'état d'édition 510, l'utilisateur peut reconnaître facilement le mot à sélectionner pour être sorti sur la région de sortie 310. De même, avant que le mot de recommandation soit sorti sur la région de sortie 310, une image d'animation dans laquelle le mot de recommandation se déplace de la région d'affichage d'état d'édition 510 à la région de sortie 310 peut être affichée.
Jusque-là, on a décrit l'entrée tactile passant par le sixième mot de recommandation 532b, mais la présente invention n'y est pas limitée. Par exemple, lorsqu'une entrée tactile continue (entrée tactile de type avec léger coup) appliquée à la première région 410a ou la seconde région 410b est détectée, l'organe de commande 180 peut sortir le cinquième mot de recommandation 532a et le sixième mot de recommandation 532b sur la région de sortie 310. Ici, toutefois, l'entrée tactile appliquée à la première région 410a ou la seconde région 410b peut être appliquée dans une direction vers le haut dans l'écran tactile 151, à savoir dans une direction proche de la région d'entrée 310. On décrira un procédé consistant à sortir un mot de recommandation en se basant sur une entrée tactile appliquée à la première région 410a ou à la seconde région 410b en référence à la figure 7C. L'écran tactile 151 selon le présent mode de réalisation sort le premier mot 501 en se basant sur une entrée tactile appliquée à la touche de caractère 412, sur la région d'affichage d'état d'édition 510 et la région de sortie 310 sensiblement en même temps.
L'organe de commande 180 sort les cinquième et sixième mots de recommandation 532a et 532b par rapport au premier mot 501 sur la région d'affichage d'état d'édition 510, et divise la région d'entrée 410 en les première et seconde régions 410a et 410b. En se basant sur une entrée tactile continue appliquée à la seconde région 410b, l'organe de commande 180 efface le premier mot 501 dans la région de sortie 310, et commande l'écran tactile 151 pour sortir le sixième mot de recommandation 532b sur la région dans laquelle le premier mot 501 est sorti. A savoir, l'utilisateur peut commodément remplacer le premier mot entré par le mot de recommandation.
Dans le même temps, l'organe de commande 180 peut déterminer si le premier mot 501 comporte une erreur typographique. Lorsqu'il est déterminé que le premier mot 501 comporte une erreur typographique, l'organe de commande 180 commande l'écran tactile 151 pour modifier le premier mot 501 dans la région d'affichage d'état d'édition 510. Par exemple, l'écran tactile 151 peut ombrer le premier mot 501 avec une couleur préétablie ou peut changer une police du premier mot 501 et sortir celui-ci. Egalement, l'organe de commande 180 peut commander l'écran tactile 151 pour modifier le premier mot 501 dans la région de sortie 310 de telle sorte qu'il soit sensiblement identique au premier mot 501 dans la région d'affichage d'état d'édition 510, et sortir celui-ci. Bien qu'un caractère différent soit sorti sur la région d'affichage d'état d'édition 510 en se basant sur une entrée tactile appliquée à la touche de caractère 412, l'organe de commande 180 peut commander l'écran tactile 151 pour sortir le premier mot 501 sous une forme modifiée dans la région de sortie 310. En conséquence, lorsqu'un mot de recommandation par rapport au premier mot 501 est sorti, l'unité de commande 501 peut vérifier si le premier mot 501 comporte une erreur typographique, et bien qu'un mot différent soit sorti sur la région d'affichage d'état d'édition 510, une erreur typographique peut être facilement reconnue dans la région de sortie 310.
Egalement, dans le présent mode de réalisation, une entrée tactile continue appliquée à la première région 410a ou la seconde région 410b peut passer à travers la région dans laquelle le cinquième mot de recommandation 532a ou le sixième mot de recommandation 532b peut ne pas être appliqué à la région d'affichage d'état d'édition 510.
On décrira un procédé de commande consistant à fournir un mot de recommandation en référence à la figure 7D. En se basant sur une entrée tactile appliquée à la région d'entrée 410, l'unité de commande sort un mot correspondant à la touche de caractère à laquelle l'entrée tactile est appliquée, sur la région d'affichage d'état d'édition 510.
Après qu'un mot est entré sur la région d'affichage d'état d'édition 510, lorsqu'une entrée tactile n'est pas appliquée à la région d'entrée 410 pendant une période de temps t préétablie, l'organe de commande 180 commande l'écran tactile 151 pour sortir un mot de recommandation basé sur le mot. A savoir, lorsque la période de temps préétablie s'est écoulée, l'organe de commande 180 peut chercher et extraire un mot de recommandation basé sur le mot. L'écran tactile 151 sort le mot de recommandation extrait sur la région d'affichage d'état d'édition 510. Toutefois, lorsqu'une entrée tactile est appliquée à la région d'entrée 410 et qu'un mot est entré, l'organe de commande 180 commande l'écran tactile 151 pour limiter la sortie du mot de recommandation. En se référant aux figures 7E(b) et 7E(c), lorsqu'un troisième mot 503 et des mots de recommandation du troisième mot 503 sont sortis sur la région d'affichage d'état d'édition 510, l'organe de commande 180 commande l'écran tactile 151 pour sortir un mot de recommandation sur la région de sortie 310 en se basant sur une entrée tactile appliquée en continu à partir d'une portion de la région d'entrée 410 sur la région d'affichage d'état d'édition 510. En se référant aux figures 7E(b) et 7E(d), en se basant sur une entrée tactile appliquée à la première touche d'édition 411a parmi les touches d'édition 411 de la région d'entrée 410, l'organe de commande 180 commande l'écran tactile 151 pour sortir un caractère correspondant à une touche de caractère qui a reçu une entrée tactile dans la région d'entrée 410, sur la région de sortie 310. En se référant à la figure 7E(b), en se basant sur une entrée tactile appliquée pour sortir le mot affiché dans la région d'affichage d'état d'édition 510 sur la région de sortie 310, l'organe de commande 180 commande l'écran tactile 151 pour sortir des cinquièmes informations visuelles 514 sur au moins une région de la région d'affichage d'état d'édition 510. A savoir, lorsqu'une pluralité de mots est sortie sur la région d'affichage d'état d'édition 510, l'utilisateur peut sélectionner un mot à sortir sur la région de sortie 310 en se basant sur divers types d'entrées tactiles.
La figure 8 est une vue conceptuelle illustrant un procédé de commande consistant à afficher clairement un mot en se basant sur une entrée tactile appliquée à une région d'entrée dans une région d'affichage d'état d'édition. En se basant sur une entrée tactile appliquée à une touche de caractère de la région d'entrée 410, l'organe de commande 180 sort un mot correspondant à la touche de caractère en temps réel.
Lorsqu'une entrée tactile est appliquée à la touche de caractère, le mot correspondant à la touche de caractère est sorti dans une police préétablie. Ici, la police peut inclure une taille, une épaisseur et un soulignage du mot, une couleur du mot, une police en italique, un effet d'ombre et similaire. Le type de mot préétabli est changé pour une police de référence telle que celle d'un mot déjà sorti par une entrée tactile additionnelle appliquée à la région d'entrée. En variante, l'organe de commande 180 commande l'écran tactile 151 pour changer le mot en la police de référence lorsqu'une période de temps préétablie s'est écoulée. Par exemple, le mot entré auparavant peut être sorti en couleur noire, et le mot entré récemment peut avoir une taille augmentée et être sorti en couleur bleue de façon à être mis en évidence. En conséquence, l'utilisateur peut facilement reconnaître le mot sorti par l'entrée tactile appliquée récemment. Les figures 9A à 9D(d) sont des vues conceptuelles illustrant des informations d'écran sorties sur une région d'entrée. En se référant à la figure 9A, lorsqu'une application est exécutée, l'écran tactile 151 sort un premier écran d'exécution 301 et la région d'entrée 410, et sort un mot sur la région d'affichage d'état d'édition 510 en se basant sur une entrée tactile appliquée à la région d'entrée 410. Le premier écran d'exécution 301 est affiché dans la région de sortie 310. Le premier écran d'exécution 301 inclut une première fenêtre de sortie 321 sortant un mot en se basant sur une entrée tactile appliquée à la région d'entrée 410. Par exemple, lorsqu'une application de message est exécutée, une entrée de message d'envoi par l'utilisateur est sortie sur la première fenêtre de sortie 321. 20 Egalement, une première image 322 à envoyer conjointement avec le message d'envoi peut être affichée dans la première fenêtre de sortie 321. En se référant à la figure 9A, en se basant sur une entrée tactile appliquée aussi à la première image 322, l'organe de commande 180 sort l'image sur la région de sortie 310. L'organe de commande 180 commande l'écran tactile 151 pour grossir 25 la première image 322 et sortir la première image 322 grossie selon la taille de la région de sortie 310. Dans le même temps, l'organe de commande 180 commande l'écran tactile 151 pour sortir le premier écran d'exécution 301 sur la région d'entrée 410. Le premier écran d'exécution 301 est sorti pour chevaucher le clavier virtuel. L'écran 30 tactile 151 sort le premier écran d'exécution 301 et le clavier virtuel dans un état semi-transparent. Dans le même temps, lorsque le premier écran d'exécution 301 est sorti sur la région d'entrée 410, l'organe de commande 180 commande l'écran tactile 151 pour sortir une première image graphique 540 en vue de recevoir une entrée tactile pour changer une position de sortie du premier écran d'exécution 301. En se référant à la figure 9A, lorsqu'une entrée tactile est appliquée à l'image graphique 540, l'organe de commande 180 sort à nouveau le premier écran d'exécution 301 sur la région de sortie 310. Dans ce cas, l'organe de commande 180 peut commander l'écran 151 pour sortir la première image 322 de telle sorte qu'elle chevauche le clavier virtuel. En se basant sur une entrée tactile appliquée à la région d'entrée 410, l'organe de commande 180 commande l'écran tactile 151 pour entrer un mot sur la première fenêtre de sortie 322. En conséquence, l'utilisateur peut reconnaître une image à envoyer, et sortir un écran d'exécution et une image sur une région souhaitée, moyennant quoi l'utilisateur peut reconnaître des informations souhaitées, alors que le clavier virtuel permettant d'entrer une image est en train d'être sorti sur l'écran tactile limité 151. On décrira un procédé de commande consistant à sortir un mot de recommandation sur la région d'entrée en référence aux figures 9B(a) et 9B(b). En se référant à la figure 9B(a) et en se basant sur une entrée tactile appliquée à la région d'entrée 410, l'organe de commande 180 commande l'écran tactile 151 pour sortir un quatrième mot 504 sur la région d'affichage d'état d'édition 510. De même, en se basant sur une entrée tactile appliquée à la première touche d'édition 411a parmi les touches d'édition 411, l'organe de commande 180 commande l'écran tactile 151 pour sortir le quatrième mot 504 sur la première fenêtre de sortie 320 du premier écran d'exécution 301. L'organe de commande 180 extrait un premier mot de recommandation 302 apparenté au quatrième mot 504 sorti sur la première fenêtre de sortie 320, et commande l'écran tactile 151 pour sortir le premier mot de recommandation extrait 302 sur la région d'entrée 410. Le clavier virtuel sur la région d'entrée 410 et le premier mot de recommandation 302 peuvent être sortis pour se chevaucher l'un l'autre sous une forme semi-transparente. Le premier mot de recommandation 302 peut être un mot à substituer pour corriger le quatrième mot 504 lorsque le quatrième mot 504 est mal orthographié ou peut être une phrase pour remplacer le quatrième mot 504 selon un résultat d'analyse de la phrase sortie sur la première fenêtre de sortie 320.
En se référant à la figure 9B(b), l'organe de commande 180 commande l'écran tactile 151 pour sortir le quatrième mot 504 sur la région d'affichage d'état d'édition 510 en se basant sur une entrée tactile appliquée à la région d'entrée 410. De même, l'organe de commande 180 commande l'écran tactile 151 pour sortir des septième et huitième mots de recommandation 535a et 535b apparentés au quatrième mot 504. Les septième et huitième mots de recommandation 535a et 535b peuvent être sortis sur les deux côtés du quatrième mot 504 dans la région d'affichage d'état d'édition 510. Egalement, l'organe de commande 180 commande l'écran tactile 151 pour sortir un deuxième mot de recommandation 303 par rapport au quatrième mot 504 sur la région d'entrée 410. Dans ce cas, lorsqu'un écran tactile est appliqué à la première touche d'édition 411a, le quatrième mot 504 est sorti sur la région de sortie 310. Dans le même temps, lorsqu'une entrée tactile de type différent issue de l'entrée tactile appliquée à la première touche d'édition 411a est appliquée au deuxième mot de recommandation 303, l'organe de commande 180 commande l'écran tactile 151 pour sortir le deuxième mot de recommandation 303 auquel l'entrée tactile a été appliquée, sur la région de sortie 310. On décrira un procédé de commande consistant à sortir sélectivement un mot d'entrée et un mot de recommandation sur une région de sortie en référence aux figures 9C(a) à 9C(c). En se référant à la figure 9C(a), lorsqu'une pluralité de mots est sortie sur la première fenêtre de sortie 320, l'organe de commande 180 commande l'écran tactile 151 pour sortir des mots mal orthographiés (PHONECALL, MO.) sur la région d'affichage d'état d'édition 510. Lorsqu'une entrée tactile est appliquée au mot sorti sur la région d'affichage d'état d'édition 510, l'unité de commande commande l'écran tactile 151 pour sortir un deuxième mot de recommandation 302 apparenté au mot sélectionné sur la région d'entrée 410. Le deuxième mot de recommandation 302 et le clavier virtuel peuvent être sortis pour se chevaucher l'un l'autre dans un état semi-transparent dans la région d'entrée 410.
Lorsque le deuxième mot de recommandation 302 et le clavier virtuel sont sortis ensemble, l'organe de commande 180 peut éditer le mot sorti sur la première fenêtre de sortie 320 ou sortir de surcroît un mot sur la première fenêtre de sortie 320 en se basant sur une première entrée tactile appliquée à la région d'entrée.
Néanmoins, lorsqu'une seconde touche différenciée de la première entrée tactile est appliquée au deuxième mot de recommandation 302, l'organe de commande 180 commande l'écran tactile 151 pour sortir le deuxième mot de recommandation 302 sur la première sortie de fenêtre 320. Ici, la seconde entrée tactile peut être une entrée tactile longue appliquée pendant une période de temps préétablie. En conséquence, lorsqu'un mot erroné est entré sur la région de sortie, l'utilisateur peut avoir l'opportunité de corriger le mot. Ainsi, l'utilisateur peut corriger facilement un mot déjà sorti, sans avoir à vérifier à nouveau la région de sortie.
On décrira un procédé de commande consistant à sortir un deuxième écran d'exécution pour ajouter un contenu en référence aux figures 9D(a) à 9D(d). En se référant à la figure 9D(a), le premier écran d'exécution 301 inclut une icône permettant d'ajouter du contenu à envoyer ensemble. L'organe de commande 180 exécute une application préétablie en se basant sur une entrée tactile appliquée à l'icône. L'application peut être une application média incluant un contenu, ou similaire. L'organe de commande 180 commande l'écran tactile 151 pour sortir le deuxième écran d'exécution 304 de l'application sur la région d'entrée 410. Le deuxième écran d'exécution 304 et le clavier virtuel peuvent se chevaucher l'un l'autre dans un état semi-transparent. En se basant sur une entrée tactile appliquée à la région d'entrée 410, l'organe de commande 180 commande l'écran tactile 151 pour sortir un mot sur la première fenêtre de sortie 320. Egalement, lorsqu'une seconde entrée tactile est appliquée à la région d'entrée 410, l'organe de commande 180 peut sélectionner au moins un contenu du deuxième écran d'exécution 304. Les première et seconde entrées tactiles sont différenciées, et la seconde entrée tactile peut être une entrée tactile longue. L'organe de commande 180 commande l'écran tactile 151 pour sortir une image correspondant à un contenu sélectionné sur la première fenêtre de sortie 320. Selon le présent mode de réalisation, l'utilisateur n'a pas besoin de sortir en outre un écran d'exécution de l'application pour ajouter du contenu. Les figures 10A à 10C(b) sont des vues conceptuelles illustrant un procédé de commande utilisant des informations d'écran sorties sur une région d'entrée. En se référant à la figure 10A, l'écran tactile 151 sort la région d'affichage d'état d'édition 510 entre un troisième écran d'exécution 305 et la région d'entrée 410. Par exemple, le troisième écran d'exécution 305 peut être une page web incluant une seconde fenêtre de sortie 330. La seconde fenêtre de sortie 330 peut être une fenêtre de recherche dans laquelle un mot de recherche est sorti.
En se basant sur une entrée tactile appliquée à la région d'entrée 410, l'organe de commande 180 commande l'écran tactile 151 pour sortir un mot et un mot de recommandation apparenté au mot sur la région d'affichage d'état d'édition 510. Lorsque le mot (ou le mot de recommandation apparenté) est affiché sur la seconde fenêtre de sortie 330, l'organe de commande 180 reconnaît le mot comme un mot de recherche et commande l'écran tactile 151 pour sortir au moins un mot de recherche de recommandation apparenté au mot sur la région d'entrée 410. Le mot de recherche de recommandation peut être sorti dans un état semi-transparent conjointement avec le clavier virtuel. Lorsqu'une seconde entrée tactile est appliquée au mot de recherche de recommandation, l'organe de commande 180 commande l'écran tactile 151 pour sortir un écran de résultat de recherche 305' en utilisant le mot de recherche de recommandation comme mot de recherche. A savoir, le mot de recherche de recommandation est sorti de telle sorte qu'il ne couvre pas le troisième écran d'exécution 305.
En se référant à la figure 10B, lorsqu'un mot est entré sur la seconde fenêtre de sortie 330, l'organe de commande 180 commande l'écran tactile 151 pour sortir une seconde image graphique 541. En se basant sur une entrée tactile appliquée à la seconde image graphique 541, l'organe de commande 180 peut ajuster la transparence de la région d'entrée 410.
Egalement, en se basant sur une entrée tactile appliquée à la seconde image graphique 541, l'organe de commande 180 ajuste le clavier virtuel pour qu'il devienne progressivement transparent, et commande l'écran tactile 151 pour sortir une icône de fonction 306 en vue de commander l'application sur la région d'entrée 410. Par exemple, l'icône de fonction 306 peut correspondre à un ordre de commande permettant de stocker une image sortie sur la page web dans la mémoire 170 ou stocker une adresse de la page web ou sortir un résultat de recherche sur une nouvelle page.
Par exemple, en se basant sur une seconde entrée tactile appliquée à l'icône de fonction 306, l'organe de commande 180 peut exécuter une fonction correspondante. La seconde entrée tactile peut être une entrée tactile longue différenciée de la première entrée tactile.
On décrira un procédé de commande consistant à sortir des sous-informations de contenu ajouté à une région de sortie en référence aux figures 10C(a) et 10C(b). En se référant à la figure 10C(a), l'écran tactile 151 sort le deuxième écran d'exécution 304 sur la région de sortie 310 et sort un quatrième écran d'exécution 307 conjointement avec le clavier virtuel sur la région d'entrée 410. A savoir, l'utilisateur peut être pourvu du clavier virtuel et du quatrième écran d'exécution 307 dans la région d'entrée 410. Par exemple, le quatrième écran d'exécution 307 peut être un écran d'exécution d'une application mémo incluant des caractères. Dans ce cas, l'utilisateur peut entrer un mot sur la page web, tout en visualisant des mots stockés auparavant. A savoir, l'utilisateur n'a pas besoin de copier un mot ou d'exécuter une application séparément. En se référant à la figure 10C(b), le quatrième écran d'exécution 307 est sorti conjointement avec le clavier sur la région d'entrée, et le quatrième écran d'exécution 307 inclut une image 307a d'un fichier joint. Par exemple, le quatrième écran d'exécution 307 peut être un écran de création d'un courriel. Egalement, l'organe de commande 180 commande l'écran tactile 151 pour sortir les sous-informations 307a du fichier joint. Les figures 11A(a) à 11B(b) sont des vues conceptuelles illustrant un procédé de commande consistant à changer une taille d'un clavier virtuel selon un état d'entrée d'un utilisateur. On décrira un procédé de commande de changement d'une taille d'un clavier virtuel selon un état d'entrée d'utilisateur en référence aux figures 11A(a) à 11B(b). En se référant à la figure 11A(a), l'écran tactile 151 sort la région d'entrée 410, la région de sortie 310 et la région d'affichage d'état d'édition 510. En se référant à la figure 11A(b), l'écran tactile 151 sort des première et seconde informations d'écran 310a et 310b d'applications différentes. En se basant sur une entrée tactile appliquée à l'une quelconque des première et seconde informations d'écran 310a et 310b, l'organe de commande 180 sort la région d'entrée 410 conjointement avec les première et seconde informations d'écran 310a et 310b. Egalement, l'organe de commande 180 commande l'écran tactile 151 pour sortir la région d'affichage d'état d'édition 510 de telle sorte qu'elle soit adjacente à la région d'entrée 410.
Dans ce cas, la taille de la région d'entrée de la figure 11A(b) est formée pour être plus petite que la région d'entrée de la figure 11A(a). A savoir, une longueur de la région d'entrée 410 illustrée sur la figure 11A(b) dans le terminal mobile dans une direction de la longueur est réduite. Par conséquent, l'utilisateur peut appliquer une entrée tactile au clavier virtuel, tout en vérifiant simultanément les première et seconde informations d'écran 310a et 310b. On décrira un procédé de commande consistant à ajuster une taille de la région d'entrée en détectant une région touchée par l'utilisateur en référence aux figures 11B(a) et 11B(b). L'organe de commande 180 détecte une région d'une entrée tactile appliquée aux touches différenciées du clavier virtuel. Par exemple, lorsqu'une entrée tactile appliquée par l'utilisateur à une portion d'extrémité inférieure de chaque touche est fréquemment détectée, l'organe de commande 180 peut commander l'écran tactile 151 pour réduire la longueur de la région d'entrée 410. A savoir, en détectant une entrée tactile appliquée, l'organe de commande 180 peut augmenter ou diminuer la région d'entrée 410 pour permettre à l'utilisateur d'entrer facilement des caractères, ou similaires. Les figures 12A et 12B sont des vues conceptuelles illustrant un procédé de commande consistant à sortir des informations de notification en se basant sur une entrée tactile appliquée à une région d'entrée. On décrira un procédé de commande consistant à sortir des informations de notification en se basant sur une entrée tactile appliquée à une région d'entrée en référence aux figures 12A et 12B. On décrira un procédé de commande consistant à sortir des vibrations de motifs différenciés correspondant à une touche de caractère et une touche d'édition en se basant sur une entrée tactile appliquée à la région d'entrée 410 en référence à la figure 12A. A savoir, l'organe de commande 180 peut faire concorder des motifs de vibration différents avec une pluralité de touches formant le clavier virtuel et commander le module haptique 153 pour sortir un motif de vibration correspondant à une touche à laquelle une entrée tactile est appliquée. Ainsi, l'utilisateur peut reconnaître une touche touchée et un caractère d'entrée sans avoir à visualiser précisément l'écran tactile 151. On décrira un procédé de commande consistant à sortir différemment des formes de touches de caractère formant le clavier virtuel en utilisant des informations d'historique d'une entrée tactile appliquée par l'utilisateur en référence à la figure 12B. L'organe de commande 180 peut commander la mémoire 170 pour stocker le nombre d'entrées tactiles appliquées à chaque touche de caractère. Ainsi, l'organe de commande 180 peut sortir chaque touche du clavier virtuel sous une forme correspondant au nombre d'entrées tactiles. Ici, les différentes formes peuvent inclure une couleur, une taille, une image telle qu'un scintillement et similaire. En conséquence, l'utilisateur peut trouver facilement une touche fréquemment utilisée. Les figures 13(a) et 13(b) sont des vues conceptuelles illustrant un procédé de commande consistant à analyser des informations incluses dans une région d'entrée et à sortir un mot de recommandation. Les informations incluses dans la région d'entrée peuvent inclure un type d'une application exécutée, un type d'un document basé sur des contenus et un format de texte (mots ou caractères) déjà sorti sur la région d'entrée 310, des informations concernant une cible pour recevoir des caractères, et similaires. Par exemple, lorsqu'un écran d'exécution d'une application de message est sorti sur la région d'entrée 310, un nom d'un destinataire auquel le message doit être envoyé peut être inclus dans l'écran d'exécution. Lorsqu'un mot est entré, l'organe de commande 180 peut commander l'écran tactile 151 pour sortir un mot de recommandation en utilisant des informations concernant le destinataire sur la région d'affichage d'état d'édition 510.
Par exemple, lorsqu'un mot « got it? » est entré, on peut déterminer s'il faut sortir un titre honorifique en se basant sur les informations concernant le destinataire. En conséquence, l'utilisateur peut entrer rapidement un mot souhaité en utilisant le mot de recommandation sorti sur la région d'affichage d'état d'édition 510. Selon des modes de réalisation de la présente invention, puisqu'une région d'affichage d'état d'édition positionnée pour être adjacente à la région d'entrée et sortant un mot basé sur une entrée tactile appliquée à la région d'entrée est sortie, l'utilisateur peut vérifier immédiatement un mot sorti en se basant sur l'entrée tactile sans déplacer les yeux vers la région de sortie.
Egalement, puisque l'unité d'affichage sort des informations visuelles différentes selon un état édité du mot, un état d'édition selon l'entrée tactile de l'utilisateur peut être vérifié. De surcroît, puisqu'une pluralité d'articles de contenu permettant d'entrer le mot est sortie pour chevaucher le clavier virtuel, il n'y a pas besoin de changer la page actuelle pour vérifier des informations d'écran additionnelles. Le terminal mobile selon les modes de réalisation de la présente invention n'est pas limité dans son application des configurations et procédés, mais l'intégralité ou une partie des modes de réalisation peuvent être sélectivement combinés pour être configurés en diverses modifications. Les modes de réalisation et avantages précédents sont simplement illustratifs et ne doivent pas être considérés comme limitant la présente invention. Les présents enseignements peuvent être aisément appliqués à d'autres types d'appareils. La présente description est censée être illustrative, et non pas limiter la portée des revendications. De nombreuses variantes, modifications et variations apparaîtront à l'homme du métier. Les particularités, structures, procédés ou autres caractéristiques des modes de réalisation décrits ici peuvent être combinés de diverses manières pour obtenir des modes de réalisation additionnels et/ou alternatifs. Comme les présentes particularités peuvent être réalisées sous diverses formes sans s'écarter de leurs caractéristiques, il faut également comprendre que les modes de réalisation décrits ci-dessus ne sont limités à aucun des détails de la description précédente, sauf spécification contraire, mais devraient plutôt être considérés au sens large dans sa portée telle que définie dans les revendications annexées, et en conséquence tous les changements et modifications qui entrent les bornes et limites des revendications, ou des équivalents de telles bornes et limites sont donc censés être englobés par les revendications annexées. Bien entendu, l'invention n'est pas limitée aux exemples de réalisation ci- dessus décrits et représentés, à partir desquels on pourra prévoir d'autres modes et d'autres formes de réalisation, sans pour autant sortir du cadre de l'invention.
Claims (15)
- REVENDICATIONS1. Terminal mobile (100) comprenant : une communication sans fil (110) configurée pour assurer une communication sans fil , un écran tactile ; et un organe de commande (180) configuré pour : afficher sur l'écran tactile une région d'entrée (410) incluant une pluralité de touches de caractère, une pluralité de touches d'édition (411a, 411b, 421a, 421b) et une région de sortie (310), afficher sur l'écran tactile une région d'affichage d'état d'édition (510) entre la région d'entrée (410), et la région de sortie (310) et pour l'affichage d'un mot correspondant à des touches de caractère touchées, sélectionner ou éditer le mot affiché dans la région d'affichage d'état d'édition (510) en se basant sur une entrée tactile appliquée à la région d'entrée (410), et afficher le mot sélectionné ou édité sur la région de sortie (310).
- 2. Terminal mobile (100) selon la revendication 1, dans lequel la pluralité de touches d'édition (411a, 411b, 421a, 421b) inclut une première touche d'édition (411a), et dans lequel en réponse à la réception d'un premier toucher de la première touche d'édition (411a), l'organe de commande (180) est en outre configuré pour afficher le mot dans la région de sortie (310).
- 3. Terminal mobile (100) selon la revendication 2, dans lequel l'organe de commande (180) est en outre configuré pour : activer la région d'entrée (410) en un mode clavier numérique en se basant sur un deuxième toucher appliqué à la première touche d'édition (411a) dans lequel le deuxième toucher est différent du premier toucher, et changer une position d'entrée pour entrer le mot dans la région d'affichage d'état d'édition (510) en se basant sur une entrée tactile appliquée à la région d'entrée (410).
- 4. Terminal mobile (100) selon l'une quelconque des revendications 1 à 3, dans lequel lorsqu'une pluralité de rangées de mots sont affichées dans la région desortie (310), l'organe de commande (180) est en outre configuré pour sélectionner une rangée d'un mot dans laquelle la position d'entrée doit être désignée en se basant sur le deuxième toucher.
- 5. Terminal mobile (100) selon la revendication 3, dans lequel la pluralité de touches d'édition (411a, 411b, 421a, 421b) incluent en outre une seconde touche d'édition permettant d'effacer le mot dans la région d'affichage d'état d'édition (510), et dans lequel l'organe de commande (180) est en outre configuré pour sélectionner une portion d'une pluralité de caractères du mot en se basant sur le deuxième toucher appliqué à la seconde touche d'édition, et effacer la portion sélectionnée de la pluralité de caractères en réponse à un relâchement du deuxième toucher appliqué à la seconde touche d'édition.
- 6. Terminal mobile (100) selon l'une quelconque des revendications 1 à 5, dans lequel l'organe de commande (180) est en outre configuré pour afficher un mot de recommandation incluant une portion du mot dans la région d'affichage d'état d'édition (510).
- 7. Terminal mobile (100) selon la revendication 6, dans lequel lorsque le mot inclut 20 une erreur typographique, l'organe de commande (180) est en outre configuré pour afficher le mot de recommandation.
- 8. Terminal mobile (100) selon la revendication 6, dans lequel lorsque des premier et deuxième mots sont affichés aux deux côtés du mot dans la région d'affichage d'état 25 d'édition (510), l'organe de commande (180) est en outre configuré pour diviser la région d'entrée (410) en des première et seconde régions correspondant aux premier et deuxième mots, et dans lequel en se basant sur un toucher continu appliqué à la première région ou à la seconde région, l'organe de commande (180) est en outre configuré pour afficher le 30 premier mot ou le deuxième mot dans la région de sortie (310).
- 9. Terminal mobile (100) selon la revendication 8, dans lequel l'organe de commande (180) est en outre configuré pour :afficher le mot dans la région de sortie (310) et la région d'affichage d'état d'édition (510) en se basant sur une entrée tactile appliquée à une touche de caractère correspondante, et dans lequel en se basant sur un toucher appliqué à la première région ou à la seconde 5 région, l'organe de commande (180) est en outre configuré pour remplacer le mot dans la région de sortie (310) par le premier mot ou le deuxième mot.
- 10. Terminal mobile (100) selon l'une quelconque des revendications 1 à 5, dans lequel l'organe de commande (180) est en outre configuré pour : 10 afficher différentes informations visuelles sur la région d'affichage d'état d'édition (510) en se basant sur une fonction d'une touche d'édition touchée.
- 11. Terminal mobile (100) selon la revendication 10, dans lequel les informations visuelles correspondent à une première image dans laquelle le mot est déplacé et 15 affiché dans la région de sortie (310), lorsque le mot est affiché dans la région de sortie (310), dans lequel les informations visuelles correspondent à une deuxième image formant des bords de la région d'affichage d'état d'édition (510) et ayant une première couleur lorsque le mot est effacé, et 20 dans lequel les informations visuelles correspondent à une troisième image formant les bords de la région d'affichage d'état d'édition (510) et ayant une seconde couleur lorsqu'une position d'entrée pour entrer le mot est changée dans la région d'affichage d'état d'édition (510). 25
- 12. Terminal mobile (100) selon la revendication 11, dans lequel lorsque le mot est affiché dans la région d'affichage d'état d'édition (510) en se basant sur une entrée tactile appliquée à la touche de caractère, l'organe de commande (180) est en outre configuré pour afficher un mot entré tout récemment avec une police différente d'une police d'un mot entré auparavant. 30
- 13. Terminal mobile (100) selon la revendication 1, dans lequel la région de sortie (310) correspond à un écran d'exécution d'une application incluant une pluralité d'articles de contenu, etdans lequel l'organe de commande (180) est en outre configuré pour : afficher au moins une portion de la pluralité d'articles de contenu sur la région d'entrée (410) en se basant sur une entrée tactile appliquée à l'écran d'exécution, et ajuster une transparence de la pluralité de touches de caractère et de la pluralité de touches d'édition (411a, 411b, 421a, 421b).
- 14. Terminal mobile (100) selon la revendication 13, dans lequel l'organe de commande (180) est en outre configuré pour afficher une image graphique relative au contenu sur la région d'entrée (410) pour commander l'application.
- 15. Procédé de commande d'un terminal mobile (100), le procédé comprenant : l'affichage, via un écran tactile du terminal mobile, d'une région d'entrée (410) incluant une pluralité de touches de caractère et une pluralité de touches d'édition (411a, 411b, 421a, 421b) et une région de sortie (310) ; l'affichage sur l'écran tactile d'une région d'affichage d'état d'édition (510) entre la région d'entrée (410) et la région de sortie (310) et pour l'affichage d'un mot correspondant à des touches de caractère touchées ; la sélection ou l'édition, via un organe de commande (180) du terminal mobile, du mot affiché dans la région d'affichage d'état d'édition (510) en se basant sur une entrée tactile appliquée à la région d'entrée (410) ; et l'affichage du mot sélectionné ou édité sur la région de sortie (310).
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140059165A KR102177607B1 (ko) | 2014-05-16 | 2014-05-16 | 이동 단말기 및 이의 제어방법 |
KR20140059165 | 2014-05-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3021136A1 true FR3021136A1 (fr) | 2015-11-20 |
FR3021136B1 FR3021136B1 (fr) | 2018-09-07 |
Family
ID=52396340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1554257A Expired - Fee Related FR3021136B1 (fr) | 2014-05-16 | 2015-05-12 | Terminal mobile et procede de commande de celui-ci |
Country Status (5)
Country | Link |
---|---|
US (1) | US10466897B2 (fr) |
EP (1) | EP2945048B1 (fr) |
KR (1) | KR102177607B1 (fr) |
CN (1) | CN105100389B (fr) |
FR (1) | FR3021136B1 (fr) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8232973B2 (en) | 2008-01-09 | 2012-07-31 | Apple Inc. | Method, device, and graphical user interface providing word recommendations for text input |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
US10255267B2 (en) * | 2014-05-30 | 2019-04-09 | Apple Inc. | Device, method, and graphical user interface for a predictive keyboard |
US20160077735A1 (en) * | 2014-09-17 | 2016-03-17 | Kabushiki Kaisha Toshiba | Character input apparatus and character input method |
US10061509B2 (en) * | 2014-10-09 | 2018-08-28 | Lenovo (Singapore) Pte. Ltd. | Keypad control |
CN105491184B (zh) * | 2014-10-13 | 2018-09-25 | 富泰华工业(深圳)有限公司 | 具有键盘的手机套 |
US20160246466A1 (en) * | 2015-02-23 | 2016-08-25 | Nuance Communications, Inc. | Transparent full-screen text entry interface |
US10926786B2 (en) * | 2016-01-05 | 2021-02-23 | Key Safety Systems, Inc. | Steering wheel with distributed sensors |
US10140017B2 (en) | 2016-04-20 | 2018-11-27 | Google Llc | Graphical keyboard application with integrated search |
US10078673B2 (en) | 2016-04-20 | 2018-09-18 | Google Llc | Determining graphical elements associated with text |
US10305828B2 (en) | 2016-04-20 | 2019-05-28 | Google Llc | Search query predictions by a keyboard |
US10222957B2 (en) * | 2016-04-20 | 2019-03-05 | Google Llc | Keyboard with a suggested search query region |
US9965530B2 (en) | 2016-04-20 | 2018-05-08 | Google Llc | Graphical keyboard with integrated search features |
US20170308289A1 (en) * | 2016-04-20 | 2017-10-26 | Google Inc. | Iconographic symbol search within a graphical keyboard |
US10664157B2 (en) | 2016-08-03 | 2020-05-26 | Google Llc | Image search query predictions by a keyboard |
KR20180133138A (ko) * | 2017-06-05 | 2018-12-13 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
CN111247510B (zh) * | 2018-03-23 | 2021-06-04 | 华为技术有限公司 | 一种应用窗口的显示方法及终端 |
KR102074764B1 (ko) * | 2018-07-20 | 2020-02-07 | 네이버 주식회사 | 모바일 기기의 입력 인터페이스 내에서 맞춤법 검사를 지원하는 방법 및 시스템 |
KR102706928B1 (ko) * | 2019-02-11 | 2024-09-13 | 삼성전자주식회사 | 단어 추천 방법 및 그 전자 장치 |
US11194467B2 (en) | 2019-06-01 | 2021-12-07 | Apple Inc. | Keyboard management user interfaces |
CN114514497B (zh) * | 2019-09-27 | 2024-07-19 | 苹果公司 | 用于自定义图形对象的用户界面 |
KR102158544B1 (ko) * | 2019-09-30 | 2020-09-22 | 네이버 주식회사 | 모바일 기기의 입력 인터페이스 내에서 맞춤법 검사를 지원하는 방법 및 시스템 |
CN111638838A (zh) * | 2020-05-19 | 2020-09-08 | 维沃移动通信有限公司 | 文本编辑方法、装置及电子设备 |
US11416136B2 (en) | 2020-09-14 | 2022-08-16 | Apple Inc. | User interfaces for assigning and responding to user inputs |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007037808A1 (fr) * | 2005-09-16 | 2007-04-05 | Apple Inc. | Dispositif d'entree virtuel dispose sur une interface utilisateur a ecran tactile |
US20140109016A1 (en) * | 2012-10-16 | 2014-04-17 | Yu Ouyang | Gesture-based cursor control |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6396520B1 (en) * | 2000-01-05 | 2002-05-28 | Apple Computer, Inc. | Method of transition between window states |
US20090040184A9 (en) * | 2001-10-04 | 2009-02-12 | Infogation Corporation | Information entry mechanism |
US7536650B1 (en) * | 2003-02-25 | 2009-05-19 | Robertson George G | System and method that facilitates computer desktop use via scaling of displayed objects with shifts to the periphery |
US7358962B2 (en) * | 2004-06-15 | 2008-04-15 | Microsoft Corporation | Manipulating association of data with a physical object |
US7515135B2 (en) * | 2004-06-15 | 2009-04-07 | Research In Motion Limited | Virtual keypad for touchscreen display |
GB0505941D0 (en) * | 2005-03-23 | 2005-04-27 | Patel Sanjay | Human-to-mobile interfaces |
US8074172B2 (en) * | 2007-01-05 | 2011-12-06 | Apple Inc. | Method, system, and graphical user interface for providing word recommendations |
US8059101B2 (en) * | 2007-06-22 | 2011-11-15 | Apple Inc. | Swipe gestures for touch screen keyboards |
WO2010035574A1 (fr) * | 2008-09-29 | 2010-04-01 | シャープ株式会社 | Dispositif et procédé d'entrée, programme et support d'enregistrement |
US8584031B2 (en) * | 2008-11-19 | 2013-11-12 | Apple Inc. | Portable touch screen device, method, and graphical user interface for using emoji characters |
RU2011134935A (ru) * | 2009-02-04 | 2013-03-10 | Кейлесс Системз Лтд. | Система ввода данных |
CN102405456A (zh) | 2009-02-04 | 2012-04-04 | 无钥启动系统公司 | 数据输入系统 |
US8739055B2 (en) * | 2009-05-07 | 2014-05-27 | Microsoft Corporation | Correction of typographical errors on touch displays |
KR101477530B1 (ko) * | 2010-03-12 | 2014-12-30 | 뉘앙스 커뮤니케이션즈, 인코포레이티드 | 이동 전화의 터치 스크린과 함께 사용하기 위한 다중 모드 문자 입력 시스템 |
KR20120038669A (ko) * | 2010-10-14 | 2012-04-24 | 김우찬 | 터치스크린용 단말기의 한글문자 배열구조 |
JP5782699B2 (ja) * | 2010-10-15 | 2015-09-24 | ソニー株式会社 | 情報処理装置、情報処理装置の入力制御方法及びプログラム |
US8587547B2 (en) | 2010-11-05 | 2013-11-19 | Apple Inc. | Device, method, and graphical user interface for manipulating soft keyboards |
US8659562B2 (en) * | 2010-11-05 | 2014-02-25 | Apple Inc. | Device, method, and graphical user interface for manipulating soft keyboards |
JP2013033330A (ja) * | 2011-08-01 | 2013-02-14 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
US20130067411A1 (en) * | 2011-09-08 | 2013-03-14 | Google Inc. | User gestures indicating rates of execution of functions |
US20130104068A1 (en) * | 2011-10-20 | 2013-04-25 | Microsoft Corporation | Text prediction key |
CA2856209C (fr) * | 2011-11-09 | 2020-04-07 | Blackberry Limited | Methode d'affichage tactile et appareil |
US8904309B1 (en) * | 2011-11-23 | 2014-12-02 | Google Inc. | Prediction completion gesture |
US9557913B2 (en) * | 2012-01-19 | 2017-01-31 | Blackberry Limited | Virtual keyboard display having a ticker proximate to the virtual keyboard |
US9733707B2 (en) * | 2012-03-22 | 2017-08-15 | Honeywell International Inc. | Touch screen display user interface and method for improving touch interface utility on the same employing a rules-based masking system |
US20130285927A1 (en) * | 2012-04-30 | 2013-10-31 | Research In Motion Limited | Touchscreen keyboard with correction of previously input text |
EP2703957B1 (fr) | 2012-08-31 | 2018-06-06 | BlackBerry Limited | Procédé pour sélectionner un mot par clavier capacitif par glissement |
US20140063067A1 (en) * | 2012-08-31 | 2014-03-06 | Research In Motion Limited | Method to select word by swiping capacitive keyboard |
US9021380B2 (en) * | 2012-10-05 | 2015-04-28 | Google Inc. | Incremental multi-touch gesture recognition |
US8850350B2 (en) * | 2012-10-16 | 2014-09-30 | Google Inc. | Partial gesture text entry |
US8584049B1 (en) | 2012-10-16 | 2013-11-12 | Google Inc. | Visual feedback deletion |
KR101380430B1 (ko) * | 2012-12-20 | 2014-04-01 | 주식회사 팬택 | 통화 중 편의정보를 제공하는 휴대 단말 및 휴대 단말 상에서 통화 중 편의정보를 제공하는 방법 |
US9298275B2 (en) * | 2013-02-04 | 2016-03-29 | Blackberry Limited | Hybrid keyboard for mobile device |
CN104007832B (zh) * | 2013-02-25 | 2017-09-01 | 上海触乐信息科技有限公司 | 连续滑行输入文本的方法、系统及设备 |
US9348429B2 (en) * | 2013-03-15 | 2016-05-24 | Blackberry Limited | Method and apparatus for word prediction using the position of a non-typing digit |
US8887103B1 (en) * | 2013-04-22 | 2014-11-11 | Google Inc. | Dynamically-positioned character string suggestions for gesture typing |
US10255267B2 (en) * | 2014-05-30 | 2019-04-09 | Apple Inc. | Device, method, and graphical user interface for a predictive keyboard |
-
2014
- 2014-05-16 KR KR1020140059165A patent/KR102177607B1/ko active IP Right Grant
- 2014-12-18 EP EP14004287.0A patent/EP2945048B1/fr not_active Not-in-force
- 2014-12-29 US US14/583,879 patent/US10466897B2/en not_active Expired - Fee Related
-
2015
- 2015-01-15 CN CN201510020489.3A patent/CN105100389B/zh not_active Expired - Fee Related
- 2015-05-12 FR FR1554257A patent/FR3021136B1/fr not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007037808A1 (fr) * | 2005-09-16 | 2007-04-05 | Apple Inc. | Dispositif d'entree virtuel dispose sur une interface utilisateur a ecran tactile |
US20140109016A1 (en) * | 2012-10-16 | 2014-04-17 | Yu Ouyang | Gesture-based cursor control |
Also Published As
Publication number | Publication date |
---|---|
US20150331605A1 (en) | 2015-11-19 |
EP2945048A3 (fr) | 2016-03-30 |
US10466897B2 (en) | 2019-11-05 |
CN105100389B (zh) | 2019-06-07 |
FR3021136B1 (fr) | 2018-09-07 |
CN105100389A (zh) | 2015-11-25 |
EP2945048A2 (fr) | 2015-11-18 |
EP2945048B1 (fr) | 2018-04-11 |
KR102177607B1 (ko) | 2020-11-11 |
KR20150131838A (ko) | 2015-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR3021136A1 (fr) | Terminal mobile et procede de commande de celui-ci | |
FR3021133B1 (fr) | Terminal mobile et procede de commande dudit terminal mobile | |
CN108182016B (zh) | 移动终端及其控制方法 | |
FR3025328B1 (fr) | Terminal mobile et procede de commande de celui-ci | |
FR3031601B1 (fr) | Terminal mobile et procede de commande de celui-ci | |
FR3021424B1 (fr) | Terminal mobile et procede de commande dudit terminal mobile | |
FR3041785A1 (fr) | Terminal mobile et methode de controle associee | |
FR3024786A1 (fr) | Terminal mobile et son procede de commande | |
US9841891B2 (en) | Mobile terminal and method of controlling the same | |
FR3039673A1 (fr) | Terminal mobile et methode de controle associee | |
FR3019665A1 (fr) | ||
EP2988201A1 (fr) | Terminal mobile et son procédé de commande | |
FR3021766A1 (fr) | Terminal mobile et methode de commande du terminal mobile | |
FR3026201A1 (fr) | ||
FR3028630A1 (fr) | Terminal mobile et son procede de commande | |
US20170025122A1 (en) | Mobile terminal and controlling method thereof | |
EP3054379A1 (fr) | Terminal mobile et son procédé de commande | |
FR3022649A1 (fr) | ||
FR3022367A1 (fr) | ||
FR3046470B1 (fr) | Terminal mobile | |
FR3043478A1 (fr) | Terminal mobile et methode de controle associee | |
FR3021425A1 (fr) | ||
FR3039674A1 (fr) | Terminal mobile et methode de controle de celui-ci | |
FR3040501A1 (fr) | ||
US20180107360A1 (en) | Mobile terminal and method for controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20170915 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
ST | Notification of lapse |
Effective date: 20210105 |