FR3041785A1 - Terminal mobile et methode de controle associee - Google Patents

Terminal mobile et methode de controle associee Download PDF

Info

Publication number
FR3041785A1
FR3041785A1 FR1654270A FR1654270A FR3041785A1 FR 3041785 A1 FR3041785 A1 FR 3041785A1 FR 1654270 A FR1654270 A FR 1654270A FR 1654270 A FR1654270 A FR 1654270A FR 3041785 A1 FR3041785 A1 FR 3041785A1
Authority
FR
France
Prior art keywords
text
image
mobile terminal
photo
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1654270A
Other languages
English (en)
Other versions
FR3041785B1 (fr
Inventor
Hyerim Ku
Yoomee Song
Arim Kwon
Hyungtae Jang
Jungmin Park
Hyungsun Kim
Kyuhee Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of FR3041785A1 publication Critical patent/FR3041785A1/fr
Application granted granted Critical
Publication of FR3041785B1 publication Critical patent/FR3041785B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/18105Extraction of features or characteristics of the image related to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • G06V30/244Division of the character sequences into groups prior to recognition; Selection of dictionaries using graphical properties, e.g. alphabet type or font
    • G06V30/2455Discrimination between machine-print, hand-print and cursive writing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

La présente invention concerne un terminal mobile comprenant une caméra (121) ; un écran tactile (151) conçu pour éditer une photo reçue par le biais de la caméra (121), ladite photo comportant au moins une première partie formant texte d'image dotée d'un premier attribut et une seconde partie formant texte d'image dotée d'un second attribut différent du premier attribut ; et un dispositif de commande (180) conçu pour afficher des premier et second objets graphiques (320a, 320b) indiquant que les première et seconde parties formant texte d'image peuvent être sélectionnées, exécuter une première fonction prédéterminée correspondant au premier attribut de la première partie formant texte d'image lorsqu'on sélectionne le premier objet graphique ou la première partie formant texte d'image, et exécuter une seconde fonction prédéterminée correspondant au second attribut de la seconde partie formant texte d'image lorsqu'on sélectionne le second objet graphique ou la seconde partie formant texte d'image.

Description

TERMINAL MOBILE ET METHODE DE CONTROLE ASSOCIEE
La présente invention concerne un terminal mobile doté d’une fonction de capture de photo et une méthode de contrôle dudit terminal mobile.
Depuis quelques années, on applique une fonction de lecture ou de reconnaissance optique de caractères (OCR) à un terminal mobile équipé d’une caméra. Plus concrètement, la fonction OCR lit des caractères (un texte) en utilisant la lumière. Dans le terminal mobile, la fonction OCR transforme en signaux électriques la lumière réfléchie par les lettres, les symboles et les numéros imprimés ou écrits à la main sur du papier.
En outre, la fonction OCR correspond à une fonction de conversion d’image en texte. En effet, la fonction OCR convertit une partie formant texte d’image comprise dans la photo reçue par le biais de la caméra en texte. Toutefois, la fonction OCR du terminal mobile présente un caractère limité et un mode d’utilisation peu pratique pour l’utilisateur.
Par conséquent, un premier aspect de la description détaillée consiste à fournir un terminal mobile présentant une interface utilisateur optimisée qui utilise une photo reçue au travers d’une caméra, ainsi qu’une méthode de contrôle dudit terminal mobile.
Un autre aspect de la description détaillée consiste à fournir un terminal mobile permettant d’exécuter une fonction optimisée utilisant des informations d’écran incluses dans une photo reçue au travers d’une caméra, et une méthode de contrôle dudit terminal mobile.
Pour procurer les avantages précités et d’autres encore, et conformément aux objectifs du présent fascicule tels que mis en œuvre et décrits de manière générale dans les présentes, la présente invention fournit un terminal mobile comprenant une caméra ; un écran tactile conçu pour éditer une photo reçue par le biais de la caméra, la photo comportant au moins une première partie formant texte d’image dotée d’un premier attribut et une seconde partie formant texte d’image dotée d’un second attribut différent du premier attribut ; et un dispositif de commande conçu pour afficher des premier et second objets graphiques indiquant que les première et seconde parties formant texte d’image peuvent être sélectionnées, exécuter une première fonction prédéterminée correspondant au premier attribut de la première partie formant texte d’image lorsqu’on sélectionne le premier objet graphique ou la première partie formant texte d’image, et exécuter une seconde fonction prédéterminée correspondant au second attribut de la seconde partie formant texte d’image lorsqu’on sélectionne le second objet graphique ou la seconde partie formant texte d’image. La présente invention fournit également un procédé correspondant de commande du terminal mobile. D’autres champs d’application de la présente demande ressortiront plus clairement à la lecture de la description détaillée fournie ci-après. Cependant, il convient de préciser que la description détaillée et les exemples spécifiques, bien qu’indiquant des modes de réalisation préférés de l’invention, sont fournis à titre purement illustratif puisque, comme le verra l’homme du métier à la lecture de la description détaillée, il est possible d’envisager diverses variantes et modifications de ceux-ci tout en restant dans l’esprit et la portée de l’invention.
Les dessins annexés, qui ont été inclus pour permettre une meilleure compréhension de l’invention et font partie intégrante du présent fascicule, illustrent des modes de réalisation représentatifs et servent, conjointement avec la description, à expliquer les principes de l’invention.
Sur les dessins : la figure 1A est un schéma représentant un terminal mobile selon un mode de réalisation de la présente invention ; les figures IB et IC sont des schémas conceptuels représentant le terminal mobile selon un mode de réalisation de la présente invention vu de différentes directions ; la figure 2 est un organigramme représentant une méthode de contrôle selon un mode de réalisation de la présente invention ; les figures 3A à 3C sont des schémas représentant la méthode de contrôle de la figure 2 ; les figures 4A à 4C sont des schémas conceptuels représentant une méthode de contrôle selon un mode de réalisation de la présente invention ; et les figures 5A à 7B et la figure 8 sont des schémas conceptuels représentant une méthode de contrôle selon un autre mode de réalisation de la présente invention.
Nous allons à présent procéder à une description détaillée, selon les modes de réalisation représentatifs divulgués dans le présent document et à la lumière des dessins d’accompagnement. Pour abréger la description faite en référence aux dessins, des composants identiques ou équivalents peuvent être indiqués par des repères numériques identiques ou similaires, et leur description n’est pas répétée. En général, un suffixe tel que « module » et « unité » peut être employé pour désigner des éléments ou des composants. L’utilisation d’un tel suffixe dans le présent document a pour seul objectif de faciliter la description du fascicule, le suffixe en lui-même n’ayant pas vocation à constituer une signification ou une fonction spéciale. Les dessins annexés permettent de comprendre facilement diverses caractéristiques techniques et, comme on l’aura compris, les modes de réalisation présentés ici ne sont en aucun cas limités par les dessins annexés. En tant que telle, la présente invention doit être comprise comme englobant l’ensemble des modifications, équivalents et substituts venant s’ajouter à ceux qui sont indiqués de façon particulière sur les dessins annexés.
Bien les termes de premier, second et ainsi de suite puissent être employés dans le présent document pour décrire divers éléments, ces termes n’ont pas vocation à limiter lesdits éléments. En règle générale, ces termes s’emploient uniquement pour distinguer un élément d’un autre. Lorsqu’un élément est qualifié de « connecté à » un autre élément, cet élément peut être connecté à l’autre élément mais des éléments intermédiaires peuvent également être présents. En revanche, lorsqu’un élément est qualifié de « connecté directement » à un autre élément, aucun élément intermédiaire n’est présent.
Une représentation simple peut inclure des représentations multiples, sauf si elle correspond à une signification clairement différente du contexte. Nous utilisons dans le présent document des termes tels que « comprend » ou « comporte », et il faut bien voir qu’ils servent à indiquer l’existence de plusieurs composants, fonctions ou étapes décrits dans le fascicule, et il faut bien voir aussi qu’un nombre plus ou moins important de composants, fonctions ou étapes peuvent également être utilisés.
Les terminaux mobiles présentés ici peuvent être mis en œuvre en tant que terminaux de types divers et variés. Comme exemples de ces terminaux, citons les téléphones cellulaires, les téléphones intelligents ou « smartphones », les équipements d’utilisateur, les ordinateurs portables, les terminaux de radiodiffusion numérique, les assistants numériques personnels (PDA), les lecteurs multimédia portatifs, les navigateurs, les ardoises numériques, les tablettes numériques, les ultrabooks, les dispositifs portés (par exemple, les montres intelligentes, les lunettes intelligentes, les casques de réalité virtuelle) et similaires. A titre d’exemple de nature strictement non limitative, nous allons approfondir notre description en nous reportant à des types particuliers de terminaux mobiles. Cependant, ces explications s’appliquent également à d’autres types de terminaux, tels que les types cités précédemment. En outre, ces explications peuvent également s’appliquer à des terminaux fixes tels que téléviseurs numériques, ordinateurs de bureau et similaires.
Examinons à présent les figures IA à IC, la figure IA étant un schéma de principe d’un terminal mobile selon la présente invention, et les figures IB et IC des vues conceptuelles d’un premier exemple du terminal mobile, vu de différentes directions. Le terminal mobile 100 est représenté doté de composants tels qu’une unité de communication sans fil 110, une unité d’entrée 120, une unité de détection 140, une unité de sortie 150, une unité d’interface 160, une mémoire 170, un dispositif de commande 180 et une unité d’alimentation 190. Il n’est pas obligatoire de mettre en œuvre la totalité des composants représentés, les composants mis en œuvre pouvant également être plus ou moins nombreux.
Examinons à présent la figure 1, sur laquelle le terminal mobile 100 est représenté doté d’une unité de communication sans fil 110 conçue avec plusieurs composants couramment mis en œuvre. Par exemple, l’unité de communication sans fil 110 comprend généralement un ou plusieurs composants qui autorisent la communication sans fil entre le terminal mobile 100 et un système ou un réseau de communication sans fil dans lequel se trouve le terminal mobile. L’unité de communication sans fil 110 comprend généralement un ou plusieurs modules qui autorisent des communications telles que des communications sans fil entre le terminal mobile 100 et un système de communication sans fil, des communications entre le terminal mobile 100 et un autre terminal mobile, des communications entre le terminal mobile 100 et un serveur externe. En outre, l’unité de communication sans fil 110 comprend généralement un ou plusieurs modules qui connectent le terminal mobile 100 à un ou plusieurs réseaux. Pour faciliter ces communications, l’unité de communication sans fil 110 comprend un ou plusieurs des éléments suivants : un module de réception de radiodiffusion 111, un module de communication mobile 112, un module Internet sans fil 113, un module de communication de courte portée 114, et un module d’information de localisation 115. L’unité d’entrée 120 comprend une caméra 121 qui permet d’obtenir des images ou de la vidéo, un micro 121 qui est un type de dispositif d’entrée audio permettant d’entrer un signal audio, et une unité d’entrée utilisateur 122 (par exemple, une touche tactile, une touche à enfoncer, une touche mécanique, une touche de fonction et similaires) qui permet à un utilisateur d’entrer des informations. Des données (par exemple, de type audio, vidéo, image et similaire) sont obtenues par l’unité d’entrée 120 et peuvent être analysées et traitées par le dispositif de commande 180 en fonction des paramètres du dispositif, des commandes utilisateurs ou de combinaisons des deux. L’unité de détection 140 est généralement mise en œuvre au moyen d’un ou plusieurs capteurs conçus pour détecter les informations internes du terminal mobile, le milieu ambiant du terminal mobile, des informations d’utilisateur et similaires. Par exemple, sur la figure 1À, l’unité de détection 140 est représentée dotée d’un capteur de proximité 141 et d’un capteur d’éclairage 142.
Le cas échéant, l’unité de détection 140 peut comprendre, en variante ou en outre, d’autres types de capteurs ou de dispositifs tels qu’un capteur tactile, un capteur d’accélération, un capteur magnétique, un accéléromètre, un capteur gyroscopique, un capteur de mouvement, un capteur RVB, un capteur infrarouge (IR), un capteur d’empreinte digitale, un capteur ultrasonique, un capteur optique (par exemple, la caméra 121), un micro 121, une jauge de batterie, un capteur d’ambiance (par exemple, un baromètre, un hygromètre, un thermomètre, un détecteur de rayonnement, un capteur thermique et un capteur gazeux, parmi d’autres), et un capteur chimique (par exemple, un nez électronique, un capteur médical, un capteur biométrique et similaires), pour n’en citer que quelques-uns. Le terminal mobile 100 peut être conçu pour utiliser les informations obtenues de l’unité de détection 140 et, en particulier, des informations obtenues d’un ou plusieurs capteurs de l’unité de détection 140, et des combinaisons de ces différentes informations. L’unité de sortie 150 est généralement conçue pour éditer divers types d’information, notamment des sorties audio, vidéo, tactiles et similaires. L’unité de sortie 150 est représentée dotée d’une unité d’affichage 151, d’un module de sortie audio 152, d’un module haptique 153 et d’un module de sortie optique 154. L’unité d’affichage 151 peut avoir une structure en couches intermédiaires ou une structure intégrée avec un capteur tactile qui simplifie l’écran tactile. L’écran tactile peut constituer une interface de sortie entre le terminal mobile 100 et un utilisateur, et il peut également fonctionner en tant qu’unité d’entrée utilisateur 122 qui assure l’interface d’entrée entre le terminal mobile 100 et l’utilisateur. L’unité d’interface 160 sert d’interface avec différents types de dispositifs externes pouvant être couplés au terminal mobile 100. L’unité d’interface 160 peut comprendre, par exemple, un ou plusieurs des éléments suivants : des ports filaires ou sans fil, des ports d’alimentation externe, des ports de données filaires ou sans fil, des ports de cartes mémoire, des ports de connexion à un dispositif doté d’un module d’identification, des ports d’entrée/sortie (I/O) audio, des ports I/O vidéo, des ports d’écouteurs et similaires. Dans certains cas, le terminal mobile 100 peut exécuter diverses fonctions de commande associées à un dispositif externe connecté, lorsque le dispositif externe est connecté à l’unité d’interface 160.
La mémoire 170 est généralement mise en œuvre de manière à stocker des données permettant la prise en charge de diverses fonctions ou caractéristiques du terminal mobile 100. Par exemple, la mémoire 170 peut être conçue pour stocker des programmes applicatifs exécutés dans le terminal mobile 100, des données ou des instructions relatives aux opérations du terminal mobile 100 et similaires. Certains de ces programmes applicatifs peuvent être téléchargés à partir d’un serveur externe par communication sans fil. D’autres programmes applicatifs peuvent être installés dans le terminal mobile 100 lors de sa fabrication ou de son transport, ce qui est généralement le cas pour les fonctions de base du terminal mobile 100 (par exemple, la réception d’un appel, l’établissement d’un appel, la réception d’un message, l’envoi d’un message et similaires). Il est courant que des programmes applicatifs soient stockés dans la mémoire 170, installés sur le terminal mobile 100 et exécutés par le dispositif de commande 180 pour effectuer une opération (ou exécuter une fonction) pour le terminal mobile 100.
Le dispositif de commande 180 a généralement pour fonction de commander le fonctionnement global du terminal mobile 100, en plus des opérations associées aux programmes applicatifs. Le dispositif de commande 180 peut fournir ou traiter des informations ou des fonctions adaptées à un utilisateur en traitant les signaux, les données, les informations et similaires qui sont fournies en entrée ou en sortie des divers composants illustrés sur la figure 1, ou en activant des programmes applicatifs stockés dans la mémoire 170. A titre d’exemple, le dispositif de commande 180 commande tout ou partie des composants représentés sur la figure 1 selon l’exécution d’un programme applicatif qui a été stocké dans la mémoire 170. L’unité d’alimentation 190 peut être conçue pour recevoir une énergie externe ou fournir une énergie interne afin de fournir l’énergie nécessaire au fonctionnement des éléments et composants inclus dans le terminal mobile 100. L’unité d’alimentation 190 peut comprendre une batterie, la batterie pouvant être conçue pour être intégrée au corps du terminal ou conçue pour pouvoir être séparée du corps du terminal.
Au moins une partie des composants précités peuvent fonctionner de manière coopérative, afin de mettre en œuvre un fonctionnement ou une méthode de contrôle d’un terminal de type verre selon divers modes de réalisation que nous expliquerons ultérieurement. Le fonctionnement ou la méthode de contrôle du terminal de type verre peuvent être mis en œuvre sur le terminal de type verre par pilotage d’au moins un programme applicatif stocké dans la mémoire 170.
Toujours à propos de la figure IA, nous allons à présent détailler divers composants illustrés sur cette figure. En ce qui concerne l’unité de communication sans fil 110, le module de réception de radiodiffusion 111 est généralement conçu pour recevoir un signal de radiodiffusion et/ou des informations associées à une radiodiffusion provenant d’une entité externe de-gestion des radiodiffusions par le biais d’un canal de radiodiffusion. Le canal de radiodiffusion peut comprendre une chaîne satellite, une chaîne terrestre ou les deux. Dans certains modes de réalisation, deux modules de réception de radiodiffusion 111 ou plus peuvent être utilisés pour faciliter la réception simultanée de deux canaux de radiodiffusion ou plus, ou pour permettre une commutation entre différents canaux de radiodiffusion.
Le module de communication mobile 112 peut émettre et/ou recevoir des signaux sans fil en provenance ou à destination d’une ou plusieurs entités réseau. Comme exemples types d’une entité réseau, citons une station de base, un terminal mobile externe, un serveur et similaires. Ces entités réseaux font partie d’un réseau du communication mobile qui a été constitué conformément à des normes techniques ou des procédés de communication pour communications mobiles (par exemple, le système mondial de communications mobiles (GSM), l’accès multiple par répartition de code (CDMA), CDMA2000 (l’accès multiple par répartition de code 2000), l’EV-DO (communication voix-données améliorée optimisée ou communication voix-données seulement), le CDMA en bande large (WCDMA), l’accès par paquets en liaison descendante haut débit (HSDPA), l’accès par paquets en liaison montante haut débit (HSUPA), l’accès par paquets en liaison montante haut débit, l’évolution à long terme (LTE), l’évolution à long terme avancée (LTE-A) et similaires. Comme exemples de signaux sans fil émis et/ou reçus par le biais du module de communication mobile 112, citons les signaux d’appel audio, les signaux d’appel vidéo (téléphonie), ou divers formats de données prenant en charge les communications de messages de type texte ou multimédia.
Le module Internet sans fil 113 est conçu pour faciliter l’accès sans fil à l’Internet. Ce module peut être couplé de manière interne ou externe au terminal mobile 100. Le module Internet sans fil 113 peut émettre et/ou recevoir des signaux sans fil via des réseaux de communication grâce à des technologies d’Internet sans fil.
Comme exemples de cet accès à l’Internet sans fil, citons un réseau local sans fil (WLAN), le Wi-Fi, le Wi-Fi Direct, le DLNA, le débit sans fil (WiBro), l’interopérabilité internationale pour l’accès micro-ondes (WiMAX), l’accès par paquets en liaison descendante haut débit (HSDPA), l’accès par paquets en liaison montante haut débit (HSUPA), l’évolution à long terme (LTE), l’évolution à long terme avancée (LTE-A) et similaires. Le module Internet sans fil 113 peut émettre ou recevoir des données grâce à une ou plusieurs de ces technologies Internet sans fil, ainsi que d’autres technologies Internet.
Dans certains modes de réalisation, lorsque l’accès Internet sans fil est mis en œuvre selon, par exemple, des protocoles WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A et similaires, dans le cadre d’un réseau de communication mobile, c’est le module Internet sans fil 113 qui assure cet accès à l’Internet sans fil. A ce titre, le module Internet 113 peut coopérer avec le module de communication mobile 112 ou remplir la fonction de ce dernier.
Le module de communication de courte portée 114 est conçu pour faciliter les communications de courte portée. Les technologies qui permettent de mettre en œuvre ces communications de courte portée comprennent le Bluetooth, l’identification par radiofréquence (RFID), l’association de données par infrarouge (Infrared Data Association : IrDA), l’ultra large bande (UWB), ZigBee, les communications en champ proche (NFC), le Wi-Fi, le Wi-Fi Direct, l’USB sans fil et similaires. Le module de communication de courte portée 114 prend généralement en charge les communications sans fil entre le terminal mobile 100 et un système de communication sans fil, les communications entre le terminal mobile 1Ô0 et un autre terminal mobile 100, ou les communications entre le terminal mobile et un réseau où se trouve un autre terminal mobile 100 (ou un serveur externe), via des réseaux locaux sans fil. Un exemple des réseaux locaux sans fil est celui des réseaux personnels sans fil.
Dans certains modes de réalisation, un autre terminal mobile (qui peut être conçu de manière similaire au terminal mobile 100) peut être un dispositif porté, par exemple, une montre intelligente, des lunettes intelligentes ou un casque de réalité virtuelle, qui peut échanger des données avec le terminal mobile 100 (ou coopérer d’une autre manière avec le terminal mobile 100). Le module de communication de courte portée 114 peut détecter ou reconnaître le dispositif porté, et autoriser la communication entre le dispositif porté et le terminal mobile 100. En outre, lorsque le dispositif porté détecté est un dispositif qui a été authentifié pour communiquer avec le terminal mobile 100, le dispositif de commande 180 peut faire, par exemple, que les données traitées dans le terminal mobile 100 soient transmises au dispositif porté via le module de communication de courte portée 114.
Ainsi, un utilisateur du dispositif porté peut utiliser les données traitées dans le terminal mobile 100 sur le dispositif porté. Par exemple, lorsqu’un appel est reçu dans le terminal mobile 100, l’utilisateur peut répondre à l’appel en utilisant le dispositif porté. De même, lorsqu’un message est reçu dans le terminal mobile 100, l’utilisateur peut consulter le message reçu en utilisant le dispositif porté.
Le module d’information de localisation 115 est généralement conçu pour détecter, calculer, obtenir ou identifier d’une autre manière la position du terminal mobile. A titre d’exemple, le module d’information de localisation 115 comprend un module du système de positionnement mondial (GPS), un module Wi-Fi, ou les deux. Le cas échéant, le module d’information de localisation 115 peut, en variante ou en outre, fonctionner avec l’un quelconque des autres modules de l’unité de communication sans fil 110 pour obtenir des données relatives à la position du terminal mobile. A titre d’exemple, lorsque le terminal mobile utilise un module GPS, la position du terminal mobile peut être acquise grâce à un signal envoyé d’un satellite GPS. Comme autre exemple, lorsque le terminal mobile utilise le module Wi-Fi, la position du terminal mobile peut être acquise à partir d’informations relatives à un point d’accès sans fil qui émet ou reçoit un signal sans fil vers ou depuis le module Wi-Fi. L’unité d’entrée 120 peut être conçue pour autoriser différents types d’entrée dans le terminal mobile 120. Comme exemples de ces entrées, citons du son, de l’image, de la vidéo, des données et une entrée utilisateur. Une entrée de type image et vidéo s’obtient souvent au moyen d’une ou plusieurs caméras 121. Ces caméras 121 peuvent traiter des trames d’images de photos fixes ou de vidéo obtenues par des capteurs d’image en mode de capture vidéo ou de capture de photo. Les trames d’image traitées peuvent être affichées sur l’unité d’affichage 151 ou stockées dans la mémoire 170. Dans certains cas, les caméras 121 peuvent être agencées selon une configuration de matrice pour permettre qu’une pluralité d’images ayant des angles ou des foyers divers soient entrées dans le terminal mobile 100. Comme autre exemple, les caméras 121 peuvent être placées selon un agencement stéréoscopique pour acquérir des images gauche et droite permettant de mettre en œuvre une image stéréoscopique.
Le micro 122 est généralement mis en œuvre de manière à permettre une entrée audio dans le terminal mobile 100. L’entrée audio peut être traitée de diverses manières selon la fonction exécutée dans le terminal mobile 100. Le cas échéant, le micro 122 peut comprendre différents algorithmes de suppression de bruit permettant d’éliminer les bruits parasites produits au cours de la réception des signaux audio externes. L’unité d’entrée utilisateur 123 est un composant qui permet à un utilisateur d’effectuer une entrée. Cette entrée utilisateur peut permettre au dispositif de commande 180 de commander le fonctionnement du terminal mobile 100. L’unité d’entrée utilisateur 123 peut comprendre un ou plusieurs des éléments suivants : un élément d’entrée mécanique (par exemple, une touche, un bouton situé sur une surface avant et/ou arrière ou sur une surface latérale du terminal mobile 100, un interrupteur de type dôme, une molette de commande à impulsion, un interrupteur de commande à impulsion et similaires) ou une entrée tactile, parmi d’autres. A titre d’exemple, l’entrée tactile peut être une touche virtuelle ou une touche de fonction, qui s’affiche sur un écran tactile grâce à un traitement par logiciel, ou une touche tactile qui se trouve à un endroit du terminal mobile autre que l’écran tactile. En outre, la touche virtuelle ou la touche visuelle peut s’afficher sur l’écran tactile sous diverses formes, par exemple, un graphique, du texte, une icône, de la vidéo, ou une combinaison de ces différentes formes. L’unité de détection 140 est généralement conçue pour détecter une oü plusieurs des informations suivantes : des informations internes du terminal mobile, des informations sur le milieu ambiant du terminal mobile, des informations sur l’utilisateur ou similaires. Le dispositif de commande 180 coopère généralement avec l’unité émettrice 140 pour commander le fonctionnement du terminal mobile 100 ou exécuter un traitement de données, une fonction ou une opération associée à un programme applicatif installé dans le terminal mobile à partir de la détection fournie par l’unité de détection 140. L’unité de détection 140 peut être mise en œuvre au moyen de l’un quelconque de divers capteurs, dont certains vont à présent être décrits de manière plus détaillée.
Le capteur de proximité 141 peut comprendre un capteur destiné à détecter la présence ou l’absence d’un objet s’approchant d’une surface, ou d’un objet situé près d’une surface, en utilisant un champ électromagnétique, des rayons infrarouges ou similaires sans contact mécanique. Le capteur de proximité 141 peut être agencé dans une région interne du terminal mobile couverte par l’écran tactile, ou à proximité de l’écran tactile.
Le capteur de proximité 141 peut inclure, par exemple, l’un quelconque des capteurs suivants : un capteur photoélectrique de type transmissif, un capteur photoélectrique de type réflectif direct, un capteur photoélectrique de type miroir réfléchissant, un capteur de proximité à oscillation haute fréquence, un capteur de proximité de type à capacitance, un capteur de proximité de type magnétique, un capteur de proximité à rayons infrarouges et similaires. Lorsque l’écran tactile mis en œuvre est du type à capacitance, le capteur de proximité 141 peut détecter la proximité d’un pointeur par rapport à l’écran tactile grâce aux variations d’un champ électromagnétique qui réagit à l’approche d’un objet doté de conductivité. Dans cet exemple, l’écran tactile (capteur tactile) peut également être classé en tant que capteur de proximité.
Dans le présent document, nous utiliserons souvent le terme « toucher à proximité » pour décrire le scénario dans lequel le pointeur est placé de manière à être proche de l’écran tactile sans venir au contact de ce dernier. Dans le présent document, nous utiliserons souvent le terme de « toucher à contact » pour décrire le scénario dans lequel un pointeur vient au contact physique de l’écran tactile. Pour la position correspondant au toucher à proximité du pointeur par rapport à l’écran tactile, cette position correspond à une position où le pointeur est perpendiculaire à l’écran tactile. Le capteur de proximité 141 peut détecter un toucher à proximité, et des profils de toucher à proximité (par exemple, la distance, le sens, la vitesse, l’heure, la position, l’état de déplacement et similaires).
En général, le dispositif de commande 180 traite les données qui correspondent aux touchers à proximité et aux profils de toucher à proximité détectés par le capteur de proximité 141, et déclenche l’édition d’informations visuelles sur l’écran tactile. En outre, le dispositif de commande 180 peut commander au terminal mobile 100 d’exécuter différentes opérations ou de traiter différentes données selon qu’un toucher par rapport à un point de l’écran tactile est un toucher à proximité ou un toucher à contact.
Un capteur tactile peut détecter un toucher appliqué à l’écran tactile, par exemple à l’unité d’affichage 151, en utilisant l’un quelconque de divers procédés tactiles. Comme exemples de ces procédés tactiles, citons un procédé de type résistif, de type capacitif, de type infrarouge et de type à champ magnétique, parmi d’autres. A titre d’exemple, le capteur tactile peut être conçu pour convertir des variations de pression appliquées sur une partie spécifique de l’unité d’affichage 151, ou pour convertir une capacité apparaissant dans une partie spécifique de l’unité d’affichage 151, en signaux d’entrée électriques. Le capteur tactile peut également être conçu pour détecter non seulement un endroit touché et une zone touchée, mais également une pression tactile et/ou une capacité tactile. Pour appliquer une entrée tactile au capteur tactile, on utilise généralement un objet tactile. Comme exemples d’objets tactiles types, citons le doigt, un stylo tactile, un stylet, un pointeur ou similaire.
Lorsqu’une entrée tactile est détectée par un capteur tactile, des signaux correspondants peuvent être transmis à un dispositif de commande tactile. Le dispositif de commande tactile peut traiter les signaux reçus et transmettre ensuite les données correspondant au dispositif de commande 180. En conséquence, le dispositif de commande 180 peut détecter la région de l’unité d’affichage 151 qui a été touchée. Ici, le dispositif de commande tactile peut être un composant séparé du dispositif de commande 180, le dispositif de commande 180, ou une combinaison des deux.
Dans certains modes de réalisation, le dispositif de commande 180 peut exécuter les mêmes commandes ou des commandes différentes selon le type d’objet tactile qui touche l’écran tactile ou une touche fournie en complément de l’écran tactile. L’exécution des mêmes commandes ou de commandes différentes selon l’objet qui fournit une entrée tactile peut être décidée, par exemple, en fonction de l’état de fonctionnement actuel du terminal mobile 100 ou d’un programme applicatif en cours d’exécution.
Le capteur tactile et le capteur de proximité peuvent être mis en œuvre individuellement, ou être associés, pour détecter différents types de touchers. Ces touchers comprennent un toucher bref (ou tapotement), un toucher long, un toucher multiple, un toucher de type glisser-déplacer, un toucher de type défilement, un toucher de type zoom avant, un toucher de type zoom arrière, un toucher de type glisser, un toucher de type survol et similaires.
Le cas échéant, un capteur ultrasonique peut être mis en œuvre de manière à reconnaître des informations de position relatives à un objet tactile grâce à des ondes ultrasoniques. Le dispositif de commande 180 peut, par exemple, calculer la position d’une source de génération d’ondes en se basant sur des informations détectées par un capteur d’éclairage et une pluralité de capteurs ultrasoniques. La lumière étant beaucoup plus rapide que les ondes ultrasoniques, le temps pris par la lumière pour atteindre le capteur optique est nettement plus court que le temps pris par l’onde ultrasonique pour atteindre le capteur ultrasonique. La position de la source de génération d’ondes peut être calculée grâce à ce fait. Par exemple, la position de la source de génération d’ondes peut se calculer en fonction du décalage de temps par rapport au moment où l’onde ultrasonique atteint le capteur, la lumière servant de signal de référence.
La caméra 121 comprend généralement au moins soit un capteur de caméra (CCD, CMOS etc.), soit un capteur photoélectrique (ou des capteurs d’image), soit un capteur laser. La mise en œuvre de la caméra 121 avec un capteur laser peut permettre la détection du toucher d’un objet physique par rapport à une image stéréoscopique 3D. Le capteur photoélectrique peut être superposé au dispositif d’affichage ou le recouvrir. Le capteur photoélectrique peut être conçu pour balayer le déplacement de l’objet physique à proximité de l’écran tactile. Si nous entrons dans les détails, le capteur photoélectrique peut comprendre des photodiodes et des transistors en rangées et en colonnes permettant de balayer un contenu reçu dans le capteur photoélectrique au moyen d’un signal électrique qui varie en fonction de la quantité de lumière appliquée. En effet, le capteur photoélectrique peut calculer les coordonnées de l’objet physique en fonction des variations de lumière pour obtenir ainsi des informations sur la position de l’objet physique. L’unité d’affichage 151 est généralement conçue pour éditer des informations traitées dans le terminal mobile 100. Par exemple, l’unité d’affichage 151 peut afficher des informations de l’écran d’exécution d’un programme applicatif s’exécutant sur le terminal mobile 100 ou des informations d’interface utilisateur (UI) et d’interface utilisateur graphique (GUI) en réponse aux informations de l’écran d’exécution. Dans certains modes de réalisation, l’unité d’affichage 151 peut être mise en œuvre en tant qu’unité d’affichage stéréoscopique pour afficher des images stéréoscopiques. Une unité d’affichage stéréoscopique type peut employer un système d’affichage stéréoscopique tel qu’un système stéréoscopique (système avec verre), un système auto-stéréoscopique (système sans verre), un système de projection (système holographique) ou similaire.
En général, une image stéréoscopique 3D peut comprendre une image gauche (par exemple une image de l’œil gauche) et une image droite (par exemple une image de l’œil droit). Selon la façon dont des images gauche et droite se combinent pour former une image stéréoscopique 3D, un procédé d’imagerie stéréoscopique 3Dpeut se diviser en un procédé de haut en bas dans lequel les images gauche et droite se trouvent en haut et en bas d’une trame, un procédé de gauche à droite (de gauche à droite ou côte à côte) dans lequel les images gauche et droite se trouvent à gauche et à droite d’une trame, un procédé de type damier dans lequel des fragments des images gauche et droite se présentent sous forme de mosaïque, un procédé par entrelacement dans lequel les images gauche et droite sont disposées tour à tour par colonne ou par rangées, et un procédé chronologique (ou trame par trame) dans lequel les images gauche et droite s’affichent par alternance sur une base chronologique.
De plus, comme pour une vignette 3D, une vignette gauche et une vignette droite peuvent être générées à partir d’une image gauche et d’une image droite d’une trame d’image initiale, respectivement, et se combiner ensuite pour produire une seule vignette 3D. En général, le terme « vignette » peut être employé pour désigner une image réduite ou une image fixe réduite. La vignette gauche et la vignette droite générées peuvent s’afficher séparées par une distance horizontale dont la profondeur correspond à la disparité entre l’image gauche et l’image droite sur l’écran, ce qui procure une sensation d’espace stéréoscopique. L’image gauche et l’image droite nécessaires pour mettre en œuvre une image stéréoscopique 3D peuvent être affichées sur l’unité d’affichage stéréoscopique grâce à une unité de traitement stéréoscopique. L’unité de traitement stéréoscopique peut recevoir l’image 3D et extraire l’image gauche et l’image droite, ou peut recevoir l’image 2D et la transformer en une image gauche et une image droite.
Le module de sortie audio 152 est généralement conçu pour émettre des données audio. Ces données audio peuvent provenir de l’une quelconque de plusieurs sources différentes, de sorte que les données audio peuvent être reçues de l’unité de communication sans fil 110 ou peuvent avoir été stockées dans la mémoire 170. Les données audio peuvent être émises dans des modes tels qu’un mode de réception de signaux, un mode d’appel, un mode d’enregistrement, un mode de reconnaissance vocale, un mode de réception de radiodiffusion et similaires. Le module de sortie audio 152 peut fournir une sortie audible relative à une fonction particulière (par exemple une tonalité de réception de signal d’appel, une tonalité de réception de message, etc.) exécutée par le terminal mobile 100. Le module de sortie audio 152 peut également être mis en œuvre en tant que récepteur, haut-parleur, avertisseur sonore ou similaire.
Un module haptique 153 peut être conçu pour produire divers effets tactiles qu’un utilisateur ressent, perçoit ou dont il fait l’expérience d’une autre manière. Un exemple type d’effet tactile produit par le module haptique 153 est celui d’une vibration. La puissance, le type et autres caractéristiques de la vibration produite par le module haptique 153 peuvent être commandés au travers d’une sélection ou d’un paramètre utilisateur par le dispositif de commande. Par exemple, le module haptique 153 peut émettre différentes vibrations de manière combinée ou de manière séquentielle.
En complément des vibrations, le module haptique 153 peut produire divers autres effets tactiles, notamment un effet par stimulation tel qu’un agencement en épingle se déplaçant verticalement pour toucher la peau, une force de pulvérisation ou une force d’aspiration d’air par un orifice de jet ou une ouverture d’aspiration, un toucher de la peau, un contact d’une électrode, une force électrostatique, un effet qui reproduit la sensation de froid ou de chaleur en utilisant un élément qui peut absorber ou produire de la chaleur, et similaires.
Le module haptique 153 peut également être mis en œuvre de manière à permettre à l’utilisateur de ressentir un effet tactile par le biais d’une sensation musculaire, par exemple au niveau des doigts ou du bras de l’utilisateur, ainsi qu’à transférer l’effet tactile par contact direct. Deux modules haptiques 153 ou plus peuvent être prévus, selon la configuration particulière du terminal mobile 100.
Un module de sortie optique 154 peut émettre un signal pour indiquer la création d’un évènement en utilisant la lumière provenant d’une source lumineuse. Comme exemples d’évènements créés dans le terminal mobile 100, citons la réception d’un message, la réception d’un signal d’appel, un appel manqué, une alarme, une notification de calendrier, la réception d’un message électronique, la réception d’informations au travers d’une application, et similaires. Un signal émis par le module de sortie optique 154 peut être mis en œuvre de telle sorte que le terminal mobile émette une lumière monochromatique ou une lumière ayant une pluralité de couleurs. Le signal émis peut prendre fin dès que le terminal mobile détecte qu’un utilisateur a consulté l’évènement créé, par exemple. L’unité d’interface 160 sert d’interface pour permettre que des dispositifs externes soient connectés au terminal mobile 100. Par exemple, l’unité d’interface 160 peut recevoir des données transmises par un dispositif externe, recevoir de l’énergie à transférer aux éléments et composants dans le terminal mobile 100, ou transmettre des données internes du terminal mobile 100 au dispositif externe en question. L’unité d’interface 160 peut comprendre des ports de casque filaires ou sans fil, des ports d’alimentation externe, des ports de données filaires ou sans fil, des ports de cartes mémoire, des ports de connexion à un dispositif doté d’un module d’identification, des ports d’entrée/sortie (I/O) audio, des ports I/O vidéo, des ports d’écouteurs, ou similaires.
Le module d’identification peut être une puce qui stocke des informations diverses permettant d’authentifier l’autorité d’utilisation du terminal mobile 100 et peut comprendre un module d’identité d’utilisateur (UIM), un module d’identité d’abonné (SIM), un module universel d’identité d’abonné (USIM) et similaires. En outre, le dispositif doté du module d’identification (également appelé « dispositif d’identification » dans le présent document) peut prendre la forme d’une carte à puce. Par conséquent, le dispositif d’identification peut être connecté au terminal 100 via l’unité d’interface 160.
Lorsque le terminal mobile 100 est connecté à un socle externe, l’unité d’interface 160 peut servir de passage pour permettre que l’énergie du socle alimente le terminal mobile 100 ou peut servir de passage pour permettre que divers signaux de commande entrés par l’utilisateur depuis le socle soient transférés au terminal mobile par son biais. Divers signaux de commande ou de l’énergie entrée à partir du socle peuvent servir de signaux pour reconnaître que le terminal mobile est correctement fixé sur le socle.
La mémoire 170 peut stocker des programmes permettant la prise en charge d’opérations du dispositif de commande 180 et stocker des données d’entrée/sortie (par exemple un annuaire, des messages, des images fixes, des vidéos, etc.). La mémoire 170 peut stocker des données relatives à divers types de vibrations et d’audio qui sont émises en réponse à des entrées tactiles sur l’écran tactile.
La mémoire 170 peut comprendre un ou plusieurs types de supports de stockage, notamment une mémoire flash, a disque dur, un disque SSD, un disque de silicium, une carte multimédia de type micro, une mémoire de type carte (par exemple une mémoire SD ou DX, etc.), une mémoire vive (RAM), une mémoire vive statique (SRAM), une mémoire morte (ROM), une mémoire morte programmable et effaçable électriquement (EEPROM), une mémoire morte programmable (PROM), une mémoire magnétique, un disque magnétique, un disque optique et similaires. Le terminal mobile 100 peut également être utilisé dans le cadre d’un périphérique de stockage réseau qui exécute la fonction stockage de la mémoire 170 sur un réseau, par exemple l’Internet.
Le dispositif de commande 180 peut généralement commander le fonctionnement global du terminal mobile 100. Par exemple, le dispositif de commande 180 peut activer ou débloquer un état de verrouillage pour empêcher qu’un utilisateur n’entre une commande de contrôle par rapport à des applications lorsque l’état du terminal mobile remplit une condition prédéfinie. Le dispositif de commande 180 peut également exécuter les contrôles et les traitements associés aux appels vocaux, aux transmissions de données, aux appels vidéo et similaires, ou exécuter un traitement de reconnaissance de formes pour reconnaître une entrée manuscrite ou une entrée de dessin effectué sur l’écran tactile en tant que caractères ou en tant qu’imagés, respectivement. En outre, le dispositif de commande 180 peut commander un de ces composants, ou une combinaison de ceux-ci, afin de mettre en œuvre divers modes de réalisation représentatifs décrits dans le présent document. L’unité d’alimentation 190 reçoit de l’énergie externe ou fournit de l’énergie interne et fournit la quantité d’énergie appropriée nécessaire au fonctionnement des éléments et composants respectifs compris dans le terminal mobile 100. L’unité d’alimentation 190 peut comprendre une batterie, qui est généralement rechargeable ou peut être couplée de manière amovible au corps du terminal pour recharge. L’unité d’alimentation 190 peut comprendre un port de connexion. Le port de connexion peut être conçu comme un exemple de l’unité d’interface 160 à laquelle est connecté électriquement un chargeur externe destiné à fournir de l’énergie pour recharger la batterie.
Comme autre exemple, l’unité d’alimentation 190 peut être conçue pour recharger la batterie de manière non filaire, sans utiliser le port de connexion. Dans cet exemple, l’unité d’alimentation 190 peut recevoir de l’énergie, transférée depuis un émetteur de puissance externe sans fil, en utilisant au moins soit un procédé de couplage inductif basé sur l’induction magnétique, soit un procédé de couplage par résonance magnétique basé sur la résonance électromagnétique. Divers modes de réalisation décrits dans le présent document peuvent être mis en œuvre sur un support lisible par ordinateur, un support lisible par machine ou un support similaire au moyen, par exemple, d’un logiciel, de matériel ou de toute combinaison de ceux-ci.
Examinons à présent les figures IB et IC, sur lesquelles le terminal mobile 100 est décrit comme étant un corps de terminal de type barrette. Toutefois, le terminal mobile 100 peut également être mis en œuvre selon l’une quelconque de différentes configurations. Comme exemples de ces configurations, citons le type montre, le type pince, le type lunettes, ou encore le type repliable, le type à clapet, le type à glissière, le type à basculement, et le type à pivotement dans lequel deux corps ou plus sont combinés entre eux de manière relativement mobile, et des combinaisons de ceux-ci. Les explications fournies dans le présent document vont souvent concerner un type particulier de terminal mobile (par exemple, le type barrette, le type montre, le type lunettes et similaires). Toutefois, ces explications relatives à un type particulier de terminal mobile s’appliquent généralement aussi à d’autres types de terminaux mobiles.
Le terminal mobile 100 comprend généralement un carter (par exemple un châssis, un logement, un cache et similaires) qui forme l’aspect du terminal. Dans ce mode de réalisation, le carter est formé à l’aide d’un carter avant 101 et d’un carter arrière 102. Divers composants électroniques sont intégrés dans un espace formé entre le carter avant 101 et le carter arrière 102. Au moins un carter intermédiaire peut être placé en outre entre le carter avant 101 et le carter arrière 102. L’unité d’affichage 151 est représentée située sur la face avant du corps du terminal pour éditer des informations. Comme nous le voyons sur le dessin, une fenêtre 151a de l’unité d’affichage 151 peut être montée sur le carter avant 101 pour former la surface avant du corps du terminal conjointement avec le carter avant 101. Dans certains modes de réalisation, des composants électroniques peuvent également être montés sur le carter arrière 102. Comme exemples de ces composants électroniques, citons une batterie amovible 191, un module d’identification, une carte mémoire et similaires. Un cache arrière 103 est représenté comme couvrant les composants électroniques, et ce cache peut être couplé de façon amovible au carter arrière 102. Par conséquent, lorsqu’on détache le cache arrière 103 du carter arrière 102, les composants électroniques montés sur le carter arrière 102 sont exposés extérieurement.
Comme nous le voyons sur le dessin, lorsque le cache arrière 103 est couplé au carter arrière 102, une surface latérale du carter arrière 102 est partiellement exposée. Dans certains cas, au moment du couplage, le carter arrière 102 peut également être complètement protégé par le cache arrière 103. Dans certains modes de réalisation, le cache arrière 103 peut comprendre une ouverture permettant d’exposer extérieurement une caméra 121b ou un module de sortie audio 152b.
Les carters 101, 102, 103 peuvent être formés par moulage par injection d’une résine synthétique ou peuvent être formés d’un métal, par exemple de l’acier inoxydable, de l’aluminium (Al), du titane (Ti) ou similaire. Comme alternative à l’exemple dans lequel la pluralité de carters forment un espace interne destiné à loger des composants, le terminal mobile 100 peut être conçu de telle sorte qu’un seul carter forme cet espace interne. Dans cet exemple, un terminal mobile 100 monobloc est formé de telle sorte que la résine synthétique ou le métal s’étend d’une surface latérale à une surface arrière.
Le cas échéant, le terminal mobile 100 peut comprendre une unité d’étanchéité qui permet d’empêcher l’introduction d’eau dans le corps du terminal. Par exemple, l’unité d’étanchéité peut comprendre un élément d’étanchéité situé entre la fenêtre 151a et le carter avant 101, entre le carter avant 101 et le carter arrière 102, ou entre le carter arrière 102 et le cache arrière 103, de manière à fermer hermétiquement un espace interne lorsque ces carters sont couplés.
Les figures IB et IC représentent certains composants agencés sur le terminal mobile. Toutefois, d’autres agencements sont possibles dans le cadre des enseignements de la présente invention. Certains composants peuvent être supprimés ou réagencés. Par exemple, la première unité de manipulation 123a peut se trouver sur une autre surface du corps du terminal, et le second module de sortie audio 152b peut se trouver sur la surface latérale du corps du terminal. L’unité d’affichage 151 édite des informations traitées dans le terminal mobile 100. L’unité d’affichage 151 peut être mise en œuvre au moyen d’un ou plusieurs dispositifs d’affichage adaptés. Comme exemples de ces dispositifs d’affichage adaptés, citons un écran à cristaux liquides (LCD), un écran à cristaux liquides et à transistor en couche mince (TFT-LCD), une diode électroluminescente organique (OLED), un écran souple, un écran tridimensionnel (3D), un dispositif d’affichage à encre électronique, et des combinaisons de ces différents dispositifs. L’unité d’affichage 151 peut être mise en œuvre au moyen de deux dispositifs d’affichage qui peuvent mettre en œuvre des technologies d’affichage identiques ou différentes. Par exemple, une pluralité d’unités d’affichage 151 peuvent être agencées d’un seul côté, ou séparées les unes des autres, ou ces dispositifs peuvent être intégrés, ou ces dispositifs peuvent être agencés sur des surfaces différentes. L’unité d’affichage 151 peut également inclure un capteur tactile qui détecte une entrée tactile reçue dans l’unité d’affichage. Lorsqu’on entre un toucher dans l’unité d’affichage 151, le capteur tactile peut être conçu pour détecter ce toucher et le dispositif de commande 180 peut, par exemple, émettre une commande de contrôle ou un autre signal correspondant au toucher. Le contenu entré par toucher peut être un texte ou une valeur numérique, ou un élément de menu qui peut être indiqué ou désigné dans différents modes.
Le capteur tactile peut être conçu sous la forme d’un film doté d’un motif tactile, disposé entre la fenêtre 151a et un afficheur sur une surface arrière de la fenêtre 151a, ou un fil métallique à motif formé directement sur la surface arrière de la fenêtre 151a. En variante, le capteur tactile peut être formé d’un seul tenant avec l’afficheur. Par exemple, le capteur tactile peut être disposé sur un substrat de l’afficheur ou dans l’afficheur. L’unité d’affichage 151 peut également former un écran tactile conjointement avec le capteur tactile. Ici, l’écran tactile peut servir d’unité d’entrée utilisateur 123 (voir figure IA). Ainsi, l’écran tactile peut remplacer au moins une partie des fonctions de la première unité de manipulation 123a. Le premier module de sortie audio 152a peut être mis en œuvre sous forme de haut-parleur pour émettre des signaux audio vocaux, des alarmes sonores, de la reproduction audio multimédia et similaires.
La fenêtre 151a de l’unité d’affichage 151 comprend généralement une ouverture pour permettre le passage de signaux audio produits par le premier module de sortie audio 152a. Une possibilité consiste à permettre la diffusion de signaux audio le long d’un espace d’assemblage entre les corps structurels (par exemple, un espace entre la fenêtre 151a et le carter avant 101). Dans ce cas, un trou formé de manière indépendante pour émettre des sons peut être invisible ou encore avoir un aspect caché, ce qui simplifie encore l’aspect et la fabrication du terminal mobile 100.
Le module de sortie optique 154 peut être conçu pour émettre de la lumière afin d’indiquer la création d’un évènement. Comme exemples de ces évènements, citons la réception d’un message, la réception d’un signal d’appel, un appel manqué, une alarme, une notification de calendrier, la réception d’un message électronique, la réception d’informations au travers d’une application et similaires. Lorsqu’un utilisateur a consulté l’évènement créé, le dispositif de commande peut commander à l’unité de sortie optique 154 de mettre fin à l’émission de lumière.
La première caméra 121a peut traiter des trames d’images telles que des images fixes ou mobiles obtenues par le capteur d’images dans un mode de capture ou un mode d’appel vidéo. Les trames d’images traitées peuvent ensuite être affichées sur l’unité d’affichage 151 ou stockées dans la mémoire 170. Les première et seconde unités de manipulation 123a et 123b sont des exemples de l’unité d’entrée utilisateur 123 qui peuvent être manipulés par un utilisateur pour fournir une entrée au terminal mobile 100. Les première et seconde unités de manipulation 123a et 123b peuvent aussi être communément appelées partie manipulation, et peuvent employer un quelconque procédé tactile qui permet à l’utilisateur d’effectuer une manipulation telle qu’un toucher, une pression, un défilement ou similaire. Les première et seconde unités de manipulation 123a et 123b peuvent également employer un quelconque procédé non tactile qui permet à l’utilisateur d’effectuer une manipulation telle qu’un toucher à proximité, un survol ou similaire.
La figure IB représente la première unité de manipulation 123a sous forme de touche tactile, mais d’autres options sont possibles, parmi lesquelles une touche mécanique, une touche à enfoncer, une touche tactile, et des combinaisons de celles-ci. Une entrée reçue dans les première et seconde unités de manipulation 123a et 123b peut être utilisée de diverses manières. Par exemple, la première unité de manipulation 123a peut être utilisée par l’utilisateur pour fournir une entrée d’un menu, une touche accueil, une annulation, une recherche ou similaire, et la seconde unité de manipulation 123b peut être utilisée par l’utilisateur pour fournir une entrée pour commander le volume sonore délivré par les premier ou second modules de sortie audio 152a ou 152b, pour passer en mode reconnaissance de toucher de l’unité d’affichage 151, ou similaire.
Comme autre exemple de l’unité d’entrée utilisateur 123, une unité d’entrée arrière peut être située sur la surface arrière du corps du terminal. L’unité d’entrée arrière peut être manipulée par un utilisateur pour fournir une entrée au terminal mobile 100. L’entrée peut être utilisée de différentes manières. Par exemple, l’unité d’entrée arrière peut être utilisée par l’utilisateur pour fournir une entrée pour allumer ou éteindre, aller au début, aller à la fin, défiler, commander le volume sonore délivré par les premier ou second modules de sortie audio 152a ou 152b, passer en mode reconnaissance de toucher de l’unité d’affichage 151, et similaires. L’unité d’entrée arrière peut être conçue pour permettre une entrée tactile, une entrée par pression, ou des combinaisons de ces entrées.
L’unité d’entrée arrière peut être placée de manière à recouvrir l’unité d’affichage 151 du côté avant dans le sens de l’épaisseur du corps du terminal. A titre d’exemple, l’unité d’entrée arrière peut se trouver sur une partie formant extrémité avant du côté arrière du corps du terminal de sorte qu’un utilisateur peut aisément la manipuler avec son index lorsque l’utilisateur saisit le corps du terminal d’une main. En variante, l’unité d’entrée arrière peut être placée pratiquement à n’importe quel endroit du côté arrière du corps du terminal.
Les modes de réalisation qui comprennent l’unité d’entrée arrière peuvent mettre en œuvre tout ou partie des fonctionnalités de la première unité de manipulation 123a dans l’unité d’entrée arrière. Ainsi, dans des cas où la première unité de manipulation 123a a été supprimée du côté avant, l’unité d’affichage 151 peut avoir un écran plus grand. Comme autre possibilité, le terminal mobile 100 peut comprendre un capteur d’empreinte digitale qui balaye l’empreinte digitale de l’utilisateur. Le dispositif de commande 180 peut ensuite utiliser les informations d’empreinte digitale détectées par le capteur d’empreinte digitale dans le cadre de la procédure d’authentification. Le capteur d’empreinte digitale peut également être installé dans l’unité d’affichage 151 ou mis en œuvre dans l’unité d’entrée utilisateur 123. Le micro 122 est représenté situé à une extrémité du terminal mobile 100, mais d’autres emplacements sont possible. Le cas échéant, plusieurs micros peuvent être mis en œuvre, un tel agencement autorisant la réception de sons stéréo. L’unité d’interface 160 peut servir de chemin pour permettre au terminal mobile 100 de s’interfacer avec des dispositifs externes. Par exemple, l’unité d’interface 160 peut comprendre un ou plusieurs des éléments suivants : un terminal de connexion destiné à se connecter à un autre dispositif (par exemple, un écouteur, un haut-parleur externe ou similaire), un port de communication en champ proche (par exemple, un port d’association de données en infrarouge (Infrared Data Association: IrDA), un port Bluetooth, un port LAN sans fil et similaires), ou un terminal d’alimentation permettant d’alimenter le terminal mobile 100. L’unité d’interface 160 peut être mise en œuvre sous la forme d’une prise destinée à recevoir une carte externe, telle qu’un module d’identification d’abonné (SIM), un module d’identité d’utilisateur (UIM), ou une carte mémoire pour le stockage d’informations.
La seconde caméra 121b est représentée située sur le côté arrière du corps du terminal et comprend une direction de capture de photo sensiblement opposée à la direction de capture de photo de la première unité formant caméra 121a. Le cas échéant, la seconde caméra 121a peut également être placée à d’autres endroits, ou conçue pour être mobile, afin d’avoir une direction de capture de photo différente de celle qui est représentée.
La seconde caméra 121b peut comprendre une pluralité de lentilles agencées le long d’au moins une ligne. La pluralité de lentilles peuvent également être agencées selon une configuration de matrice. Les caméras peuvent être qualifiées de « caméra en ligne ». Lorsque la seconde caméra 121b est mise en œuvre en tant que caméra en ligne, des images peuvent être capturées de différentes manières au moyen de la pluralité de lentilles et les images sont de meilleure qualité.
Comme nous le voyons sur la figure IC, un flash 124 est représenté à côté de la seconde caméra 121b. Lorsqu’on capture une image d’un sujet avec la caméra 121b, le flash 124 peut éclairer le sujet. Comme nous le voyons sur la figure IC, le second module de sortie audio 152b peut se trouver sur le corps du terminal. Le second module de sortie audio 152b peut mettre en œuvre des fonctions de son stéréophonique conjointement avec le premier module de sortie audio 152a, et peut également être utilisé pour mettre en œuvre un mode de téléphone main-libre pour les communications.
Au moins une antenne pour les communications sans fil peut se trouver sur le corps du terminal. Cette antenne peut être installée dans le corps du terminal ou formée par le carter. Par exemple, une antenne qui constitue une partie du module de réception de radiodiffusion 111 peut rentrer dans le corps du terminal. En variante, une antenne peut être formée au moyen d’un film fixé à une surface interne du cache arrière 103, ou d’un carter qui comprend une matière conductrice.
Une unité d’alimentation 190 destinée à alimenter le terminal mobile 100 peut comprendre une batterie 191, qui est montée dans le corps du terminal ou couplée de manière amovible à la partie extérieure du corps du terminal. La batterie 191 peut recevoir de l’énergie via un câble d’alimentation connecté à l’unité d’interface 160. En outre, la batterie 191 peut être rechargée de manière non filaire au moyen d’un chargeur sans fil. La recharge sans fil peut être mise en œuvre par induction magnétique ou par résonance électromagnétique.
Le cache arrière 103 est représenté couplé au carter arrière 102 pour protéger la batterie 191, pour empêcher la séparation de la batterie 191, et pour protéger la batterie 191 contre les chocs externes ou contre les corps étrangers. Lorsque la batterie 191 peut être détachée du corps du terminal, le carter arrière 103 peut être couplé de manière amovible au carter arrière 102.
Un accessoire permettant de protéger l’aspect du terminal mobile 100 ou de faciliter ou de délivrer ses fonctions peut également être prévu sur le terminal mobile 100. A titre d’exemple d’accessoire, un cache ou une pochette permettant de couvrir ou de recevoir au moins une surface du terminal mobile 100 peuvent être prévus. Le cache ou la pochette peuvent coopérer avec l’unité d’affichage 151 pour délivrer les fonctions du terminal mobile 100. Un autre exemple de cet accessoire est un stylo tactile destiné à faciliter ou à délivrer une entrée tactile sur un écran tactile.
Un terminal mobile 100 selon un mode de réalisation de la présente invention peut stocker une photo reçue par le biais de la caméra 121 dans la mémoire 170. En outre, le stockage de la photo dans la mémoire 170 s’exprime en termes de « capture de photo d’un sujet photographique » « capture d’une photo », « acquisition d’une photo », « réalisation d’une opération de capture de photo », et ainsi de suite. Cependant, aucune limite n’est imposée sur ces expressions, et une quelconque expression peut être utilisée pour indiquer que la photo reçue par le biais de la caméra 121 est stockée dans la mémoire 170.
En outre, l’exécution de la fonction de capture de photo correspond à l’exécution de l’application de capture de photo, et lorsqu’on exécute la fonction de capture de photo, le dispositif de commande 180 active la caméra 121 et commande à la caméra 122 de capturer des photos. En outre, dans un exemple, la fonction de capture de photo est exécutée après sélection (ou toucher) d’une icône associée à la fonction de capture de photo. Lorsque la fonction de capture de photo est exécutée après sélection de cette icône, l’unité d’affichage 151 est activée. En outre, en plus du procédé qui consiste à sélectionner une icône associée à la fonction de capture de photo, lorsqu’on sélectionne au moins une touche (par exemple, au moins soit une touche matérielle soit une touche logicielle) parmi les touches qui sont fournies sur le terminal mobile, la fonction de capture de photo est exécutée. Dans ce cas, bien que l’unité d’affichage 151 soit désactivée, le dispositif de commande 180 peut exécuter la fonction de capture de photo lorsqu’on sélectionne la touche fournie sur le terminal mobile.
En outre, le terminal mobile selon un mode de réalisation de la présente invention effectue l’opération de capture de photo en fonction d’une sélection de l’utilisateur, et la sélection de l’utilisateur est exprimée dans les termes de « commande de contrôle utilisateur » ou « commande de contrôle ». En outre, la sélection de l’utilisateur se fait de diverses manières. Par exemple, un utilisateur effectue l’opération de capture de photo en appliquant un toucher ou une pression sur la touche matérielle fournie sur le mobile, ou en touchant la touche de fonction ou la touche visuelle apparaissant sur l’unité d’affichage 151. En effet, lorsqu’on applique ce toucher ou cette pression sur la touche matérielle associée à la fonction de capture de photo ou qu’on applique ce toucher à la touche de fonction ou la touche visuelle apparaissant sur l’unité d’affichage 151, le dispositif de commande 180 du terminal mobile 100 détermine qu’une commande de contrôle utilisateur destinée à effectuer l’opération de capture de photo a été reçue.
En outre, et de manière non limitative, le terminal mobile 100 selon un mode de réalisation de la présente invention capture une photo de différentes manières après réception de la commande de contrôle utilisateur. Par exemple, lorsque la photo reçue (entrée) par le biais de la caméra 121 est éditée sur l’unité d’affichage 151, le dispositif de commande 180 capture la photo après application d’un toucher d’un type prédéterminé sur la photo ou l’unité d’affichage 151.
Le toucher d’un type prédéterminé est un toucher associé à l’opération de capture de photo et comprend différents types de touchers. Par exemple, les touchers d’un type prédéterminé comprennent différents types de touchers tels qu’un toucher bref (tapotement), des touchers successifs qui sont au moins deux touchers courts ou plus appliqués dans un laps de temps de référence, un toucher long, un toucher multiple, un toucher de type glisser-déplacer, un toucher de type défilement, un toucher de type zoom avant, un toucher de type zoom arrière, un toucher de type glisser et un toucher de type survol.
En outre, la photo reçue par le biais de la caméra 121 est appelée aperçu, et il s’agit d’une photo reçue en temps réel par le biais de la caméra 121. En effet, la photo (ou les informations d’écran contenues dans la photo) reçue par le biais de la caméra 121 change selon le déplacement du terminal mobile 100, le déplacement d’un objet (ou d’un sujet photographique) présent dans un angle de vue de la caméra 121 ou similaire.
La photo (ou l’aperçu) peut être stockée en tant qu’imagé statique ou en tant qu’imagé animée dans l’unité mémoire 170. Les «photos reçues par le biais de la caméra 121 », que nous allons décrire ci-après, comprennent un aperçu, une photo capturée, une image statique, à savoir une image qu’une commande de contrôle met dans un état provisoirement stationnaire, et similaires.
En outre, le terminal mobile exécute une fonction OCR en utilisant la photo reçue par le biais de la caméra 121. Plus précisément, la fonction OCR convertit en texte les informations d’écran (une image) correspondant à une partie formant texte incluse dans la photo. Nous allons décrire ci-après, à la lumière des dessins annexés, diverses fonctions exécutées grâce à la fonction de capture de photo et la fonction OCR selon un mode de réalisation de la présente invention.
En particulier, la figure 2 est un organigramme représentant une méthode de contrôle selon un mode de réalisation de la présente invention, et les figures 3A à 3C sont des schémas conceptuels représentant la méthode de contrôle de la figure 2. Comme nous le voyons sur la figure 2, le dispositif de commande 180 édite la photo reçue par le biais de la caméra 121 sur l’unité d’affichage 151 (S210). Par exemple, le dispositif de commande 180 active la caméra 121 sur la base de la sélection (du toucher) de l’icône d’une application relative à la caméra 121 ou de l’icône d’une application décrite dans le présent fascicule, et édite la photo reçue par le biais de la caméra activée 121 sur l’unité d’affichage 151. En outre, comme nous l’avons vu précédemment, la photo est un aperçu.
Par ailleurs, lorsque des images correspondant à des parties formant texte dotées de caractéristiques différentes sont incluses dans la photo, le dispositif de commande 180 édite des objets graphiques sur la photo, qui indiquent que les images peuvent être sélectionnées (S220). Concrètement, lorsque le dispositif de commande 180 détermine que des images correspondant aux parties formant texte dotées de caractéristiques différentes sont présentes dans la photo reçue par le biais de la caméra 121, le dispositif de commande 180 édite des objets graphiques indiquant que les images peuvent être sélectionnées, à proximité des images (ou de telle sorte que les objets graphiques se superposent aux images).
Lorsque l’utilisateur fixe la caméra 121 sur un objet (sujet photographique) sur lequel les parties formant texte sont imprimées (ou manuscrites), les images correspondant aux parties formant texte sont incluses dans la photo reçue par le biais de la caméra 121. En outre, l’image correspondant à la partie formant texte présente diverses caractéristiques (ou attributs). En particulier, les caractéristiques qui sont décrites dans le présent fascicule désignent des références selon lesquelles est classée l’image correspondant à la partie formant texte.
Par exemple, ces caractéristiques sont classées ou définies par le fait que la partie formant texte est rédigée en écriture cursive ou que la partie formant texte est imprimée par un dispositif d’impression (par exemple une imprimante) ou est manuscrite, ou selon au moins soit la couleur de la partie formant texte, soit la couleur superposée sur la partie formant texte, soit la couleur au voisinage de la partie formant texte, l’ombrage de la partie formant texte, l’épaisseur de la partie formant texte, le soulignement de la partie formant texte, l’inclinaison de la partie formant texte, le type de langue et similaires. En outre, les parties formant texte (ou les images correspondant aux parties formant texte) comprennent une lettre, une émoticône, un chiffre, un symbole et similaires.
En outre, le dispositif de commande 180 détermine la présence ou non de l’image correspondant à la partie formant texte dans la photo reçue par le biais de la caméra 121 ou les caractéristiques de l’image correspondant à la partie formant texte en utilisant la fonction OCR ou un algorithme d’analyse de photo (algorithme spécifique qui détermine la présence ou non de l’image qui correspond à la partie formant texte).
Lorsque les images correspondant aux parties formant texte dotées de caractéristiques différentes sont incluses dans la photo, le dispositif de commande 180 édite les objets graphiques sur la photo, indiquant que les images peuvent être sélectionnées. En outre, le dispositif de commande 180 peut éditer les objets graphiques lorsque la photo reçue par le biais de la caméra 121 est un aperçu, et lorsqu’une demande de capture de la photo est émise. Par exemple, lorsque l’image reçue en tant qu’aperçu en temps réel par le biais de la caméra 121, ainsi que des images correspondant aux parties formant texte dotées de caractéristiques différentes figurent dans l’aperçu, le dispositif de commande 180 édite les objets graphiques sur l’aperçu.
Comme autre exemple, lorsque la demande de capture de la photo (l’aperçu) est émise (par exemple, par le toucher d’un bouton de capture de photo), le dispositif de commande 180 capture la photo, et édite la photo capturée avec les objets graphiques indiquant que les images correspondant aux parties formant texte dotées de caractéristiques différentes sont incluses dans la photo capturée. En outre, la photo capturée peut être une photo stockée dans la mémoire 170 ou une image statique temporaire stockée à titre provisoire. A présent, nous allons décrire un exemple dans lequel les objets graphiques sont édités lorsque la demande de capture de la photo est émise. Or, la description ci-après peut également s’appliquer de manière similaire ou identique à l’aperçu (état de prévisualisation). Pour entrer dans les détails, comme nous le voyons sur la figure 3A(a), lorsque la caméra 121 est fixée sur un sujet photographique dans lequel des éléments textuels sont présents, des images 310a et 310b correspondant aux parties formant texte sont incluses dans une photo 300 reçue par le biais de la caméra 121.
En outre, les images 310a et 310b présentent des caractéristiques différentes. En particulier, l’image 310a correspond à une partie formant texte dotée d’une première caractéristique ou d’un premier attribut et l’image 310b correspond à une partie formant texte dotée d’une seconde caractéristique ou d’un second attribut différents de la première caractéristique ou du premier attribut. Par exemple, l’image 310a correspond à une partie formant texte écrite à la main par l’utilisateur, et l’image 310b correspond à une partie formant texte imprimée par le dispositif d’impression (par exemple, l’imprimante).
Dans le présent fascicule, pour des raisons de commodité, nous décrivons un exemple dans lequel des images correspondant à des parties formant texte présentant deux caractéristiques différentes sont incluses dans la photo. Cependant, et de manière non limitative, le présent fascicule s’applique également à des images correspondant à des parties formant texte présentant trois caractéristiques différentes ou plus. En outre, lorsque les images 310a et 310b correspondant aux parties formant texte dotées de caractéristiques différentes ou d’attributs différents sont incluses dans la photo 300, le dispositif de commande 180 édite des objets graphiques 320a et 320b (par exemple, des cases à cocher) indiquant que les images 310a et 310b peuvent être sélectionnées sur la photo 300, comme nous le voyons sur la figure 3A(b).
Comme premier exemple, les objets graphiques 320a et 320b s’affichent à l’état d’aperçu lorsque le dispositif de commande 180 reconnaît que des images correspondant à des parties formant texte dotées de caractéristiques différentes sont incluses dans la photo reçue par le biais de la caméra 121. Comme autre exemple, les objets graphiques 320a et 320b sont édités à partir du toucher du bouton de capture de photo (ou de la réception d’une demande de capture de photo), comme nous le voyons sur la figure 3A(a). Dans ce cas, une photo (en l’occurrence, une image statique) résultant de la capture de la photo (aperçu) reçue par le biais de la caméra 121 est éditée sur l’unité d’affichage 151, et les objets graphiques 320a et 320b sont édités sur la photo capturée.
Si nous revenons à la figure 2, lorsqu’on sélectionne une image parmi les images correspondant aux parties formant texte dotées de caractéristiques différentes, le dispositif de commande 180 exécute une fonction prédéterminée sur la base de la caractéristique ou de l’attribut de l’image sélectionnée (S230). Pour entrer dans les détails, les fonctions prédéterminées comprennent différents types de fonctions d’utilisation d’une image correspondant à une partie formant texte. Par exemple, les fonctions prédéterminées comprennent la limitation de l’édition d’une image correspondant à une partie formant texte, une fonction OCR de conversion de la partie formant texte de l’image texte, la traduction d’une partie formant texte après conversion résultant de la conversion, l’exécution d’une recherche au moyen de la partie formant texte après conversion, la fourniture d’informations complémentaires relatives à la partie formant texte après conversion, l’entrée de la partie formant texte après conversion dans une application spécifique (par exemple, une application de type mémo, une application de type calendrier, ou une application de type planning) et similaires.
Plus concrètement, lorsqu’on sélectionne (par toucher) l’image (ou l’objet graphique 320a édité sur l’image 310a), le dispositif de commande 180 édite un objet graphique associé à une première fonction sur la photo. En outre, lorsqu’on sélectionne (par toucher) l’image (ou l’objet graphique 320b), le dispositif de commande 180 édite un objet graphique associé à une seconde fonction différente de la première fonction sur la photo. Par exemple, comme nous le voyons sur la figure 3B(a), lorsqu’on sélectionne l’image 310a (ou l’objet graphique 320a), le dispositif de commande 180 édite un objet graphique 330a associé à la première fonction sur la photo, comme nous le voyons sur la figure 3B(b). A titre d’exemple, la première fonction limite l’édition de l’image 310a correspondant à la partie formant texte dotée de la première caractéristique, en réduisant par exemple la quantité d’informations affichées dans 1 ’ image 310a.
Comme nous le voyons sur la figure 3B(b), lorsqu’on applique un toucher à un objet graphique 330a associé à la première fonction, l’édition de l’image 310a est limitée sur P unité d’affichage 151. Par exemple, l’image 310a ne s’affiche plus sur l’unité d’affichage 141, comme nous le voyons sur la figure 3B(c). En outre, après application du toucher, le dispositif de commande 180 édite sur la photo un objet graphique 340a auquel est associée une fonction de réaffichage de l’image à édition limitée correspondant à la partie formant texte.
Pour entrer dans les détails, lorsqu’on touche l’objet graphique 340a, le dispositif de commande 180 édite l’image 310a correspondant à la partie formant texte à édition limitée sur la photo. En outre, lorsque l’édition de l’image 310a est limitée, le dispositif de commande 180 édite sur l’unité d’affichage 151 une icône de stockage à laquelle est associée une fonction de stockage. Lorsqu’on sélectionne l’icône de stockage, le dispositif de commande 180 enregistre la photo dans la mémoire 170 dans laquelle se trouve l’image correspondant à la partie formant texte présentant la première caractéristique.
Comme autre exemple, illustré sur la figure 3C(a), lorsqu’on sélectionne l’image 310b (ou l’objet graphique 320b), le dispositif de commande 180 édite sur la photo des objets graphiques 332b, 334b, 336b, et 338b auxquels est associée la seconde fonction, comme nous le voyons sur la figure 3C(b). Par exemple, les secondes fonctions comprennent diverses fonctions qui peuvent être exécutées en convertissant la partie formant texte de l’image en texte puis en utilisant une partie formant texte après conversion. Par exemple, les secondes fonctions comprennent au moins une des fonctions suivantes : une fonction de recherche sur Internet, une fonction d’émission sonore, une fonction de traduction et une fonction mémo.
Comme nous le voyons sur la figure 3C(b), les objets graphiques auxquels est associée la seconde fonction, en l’occurrence, un objet graphique 332b auquel est associée la fonction de recherche sur Internet, un objet graphique 334b auquel est associée la fonction d’émission sonore ou audio, un objet graphique 336b auquel est associée une fonction mémo, et un objet graphique 338b auquel est associée la fonction de traduction, s’affichent sur la photo.
En outre, lorsqu’on applique un toucher à l’objet graphique (par exemple, l’objet graphique 334b auquel est associée la fonction d’émission sonore) auquel est associée la seconde fonction, le dispositif de commande 180 convertit en texte l’image 310b correspondant à la partie formant texte présentant la seconde caractéristique, en utilisant la fonction OCR. En outre, le dispositif de commande 180 exécute la seconde fonction (par exemple, la fonction d’émission sonore) associé à l’objet graphique 334b touché en utilisant la partie formant texte après conversion, comme nous le voyons sur la figure 3C(c).
Ainsi, il est prévu une nouvelle interface utilisateur permettant d’exécuter une fonction qui varie d’une caractéristique à une autre, lorsque les images correspondant à des parties formant texte dotées de caractéristiques différentes sont incluses dans la photo. En outre, il est décrit ci-dessus un procédé dans lequel s’exécute une fonction qui varie selon que les première et seconde caractéristiques sont la partie formant texte manuscrite par l’utilisateur ou la partie formant texte imprimée par le dispositif d’impression. Nous allons maintenant décrire des modes de réalisation dans lesquels les première et seconde caractéristiques sont classées par couleur, en nous reportant aux dessins annexés.
En particulier, les figures 4A à 4C sont des schémas représentant une méthode de contrôle selon un autre mode de réalisation de la présente invention. Dans ce mode de réalisation, les caractéristiques de l’image correspondant à la partie formant texte sont classées en fonction de la couleur de l’image correspondant à la partie formant texte incluse dans la photo ou de la couleur (couleur superposée à l’image qui correspond à la partie formant texte) du voisinage de l’image correspondant à la partie formant texte.
Par exemple, comme nous le voyons sur la figure 4A(a), une image 400a correspondant à une partie formant texte à laquelle se superpose une première couleur, une image 400b correspondant à une partie formant texte à laquelle se superpose une seconde couleur différente de la première couleur, et une image 400c correspondant à une partie formant texte à laquelle se superpose une couleur quelconque (ou à laquelle se superpose une troisième couleur) sont incluses dans la photo 300 reçue par le biais de la caméra 121.
Comme nous le voyons sur la figure 4A(b), le dispositif de commande 180 sélectionne une image correspondant à une partie formant texte se distinguant par sa couleur. Par exemple, la sélection, comme nous le voyons sur les figures 2 à 3C(c), peut se faire sur la base du toucher des objets graphiques (cases à cocher) 410a, 410b, et 410c édités sur la base de la reconnaissance des images correspondant aux parties formant texte qui se distinguent par leurs couleurs. Comme autre exemple, la sélection peut se faire après édition des objets graphiques (les cases à cocher) 410a, 410b, et 410c une fois que la demande de capture de la photo a été reçue et après application du toucher aux objets graphiques (ou aux images correspondant aux parties formant texte).
Comme nous le voyons sur la figure 4A(b), lorsqu’on sélectionne au moins deux des images 400a, 400b, et 400c, le dispositif de commande 180 édite l’objet graphique 420 associé à la fonction mémo sur la photo. Comme nous le voyons sur la figure 4A(b), lorsqu’on touche l’objet graphique 420, le dispositif de commande 180 convertit les images sélectionnées 400a, 400b, et 400c en texte en utilisant la fonction OCR. En outre, comme nous le voyons sur la figure 4A(c), le dispositif de commande 180 exécute l’application mémo, et affiche des parties formant texte après conversion 440a, 440b, et 440c résultant de la conversion, sur un écran d’exécution 430 de l’application mémo.
En outre, comme nous le voyons sur la figure 4A(c), les parties formant texte après conversion 440a, 440b, et 440c s’affichent sur l’écran d’exécution 430 de l’application mémo et se distinguent les unes des autres par leurs couleurs respectives. Par exemple, si nous regardons les figures 4A(a) à 4A(c), la partie formant texte après conversion 440a s’affiche sur l’écran d’exécution 430 de telle sorte que la première couleur est en superposition. De même, la partie formant texte après conversion 440b s’affiche sur l’écran d’exécution 430 de telle sorte que la seconde couleur est en superposition, et la partie formant texte après conversion 440c s’affiche sur l’écran d’exécution 430 de telle sorte qu’aucune couleur n’est en superposition.
En outre, le dispositif de commande 180 affiche un objet graphique 450 dans l’écran d’exécution 430 pour éditer une photo contenant l’image correspondant à la partie formant texte. Lorsqu’on sélectionne l’objet graphique 450, le dispositif de commande 180 édite une photo représentée sur la figure 4A(b) sur l’unité d’affichage 151. Ainsi, lorsqu’une image correspondant à une partie formant texte à laquelle se superpose une couleur prédéterminée est incluse dans une photo, le dispositif de commande 180 extrait l’image correspondant à la partie formant texte à laquelle se superpose la couleur, et exécute au moins soit une conversion du texte, soit une traduction en utilisant l’image extraite. En outre, les résultats (une partie formant texte après conversion et une partie formant texte après traduction résultant de la traduction) de l’exécution de la conversion du texte et de la traduction du texte s’affichent sur l’écran d’exécution de l’application mémo.
En outre, la couleur prédéterminée est une couleur autre que les couleurs situées dans une gamme de couleurs spécifique (par exemple, une gamme des blancs ou une gamme incolore). Plus précisément, le dispositif de commande 180 détermine une couleur autre qu’une couleur spécifique (une couleur dans la gamme des blancs) comme étant la couleur prédéterminée. En outre, les couleurs prédéterminées comprennent toutes les couleurs d’une gamme de couleurs. A titre d’exemple, comme nous le voyons sur la figure 4B(a), une couleur choisie par l’utilisateur se superpose à un sujet photographique dont apparaît une partie formant texte. Lorsqu’on surligne la partie formant texte du sujet photographique avec un surligneur, la partie formant texte surlignée avec le surligneur est considérée comme une partie formant texte à laquelle se superpose une couleur prédéterminée.
Comme nous le voyons sur la figure 4B(a), lorsqu’au moins deux couleurs ou plus se superposent sur une partie formant texte du sujet photographique, les images 460a et 460b correspondant aux parties formant texte sur lesquelles se superposent au moins deux couleurs prédéterminées ou plus sont incluses dans la photo reçue par le biais de la caméra 121, comme nous le voyons sur la figure 4B(b).
Dans ce cas, sur la base d’une demande utilisateur (par exemple, lorsqu’on applique un toucher sur le bouton de capture de photo ou lorsqu’on applique un toucher sur l’objet graphique associé à la fonction mémo), le dispositif de commande 180 extrait une image correspondant à une partie formant texte à laquelle se superposent les au moins deux couleurs prédéterminées, et effectue au moins soit une conversion du texte, soit une traduction du texte en utilisant l’image extraite.
En outre, comme nous le voyons sur la figure 4B(c), le dispositif de commande 180 affiche les résultats (la partie formant texte après conversion et la partie formant texte après traduction résultant de la traduction) de l’exécution de la conversion du texte et de la traduction du texte, sur l’écran d’exécution de l’application mémo, de telle sorte que les résultats se distinguent par les au moins deux couleurs 470a et 470b. En effet, lorsqu’au moins deux couleurs se superposent à une image correspondant à une partie formant texte incluse dans la photo, le dispositif de commande 180 affiche (entre) la partie formant texte après conversion et la partie formant texte après traduction résultant de la traduction sur l’écran d’exécution de l’application mémo, de telle sorte que les deux parties formant texte après conversion se distinguent par les au moins deux couleurs.
Par exemple, les parties formant texte après conversion résultant de la conversion et de la traduction de l’image correspondant à la partie formant texte à laquelle se superpose la première couleur s’affichent sur l’écran d’exécution de l’application mémo de telle sorte que la première couleur se superpose aux parties formant texte après conversion, et les parties formant texte après conversion résultant de la conversion et de la traduction l’image correspondant à la partie formant texte à laquelle se superpose la seconde couleur s’affichent sur l’écran d’exécution de l’application mémo de telle sorte que la seconde couleur se superpose aux parties formant texte après conversion. Ainsi, grâce à cette configuration, on dispose d’une application (ou d’une interface utilisateur) qui permet de créer de manière optimale une liste de vocabulaire.
En outre, comme nous le voyons sur la figure 4C(a), lorsque l’utilisateur fixe la caméra 121 sur un calendrier (sujet photographique), une image graphique correspondant au calendrier est incluse dans une photo reçue par le biais de la caméra 121. Lorsque l’image graphique correspondant au calendrier est incluse dans la photo, le dispositif de commande 180 extrait une image 480a correspondant à une partie formant texte incluse dans l’image graphique. Lorsque la demande de capture de photo est reçue, ou l’image correspondant à la partie formant texte est reconnue par le dispositif de commande 180, l’extraction a lieu.
En outre, le dispositif de commande 180 convertit l’image extraite en texte, et comme nous le voyons sur la figure 4C(b), affiche (entre) une partie formant texte après conversion 480b résultant de la conversion sur (dans) un écran d’exécution 490 d’une application de calendrier. En outre, la partie formant texte après conversion 480b résultant de la conversion, illustrée sur la figure 4C(b), s’affiche sur l’écran d’exécution 490 de l’application de calendrier de telle sorte que la partie formant texte après conversion 480b correspond à la couleur dans laquelle s’affiche l’image 480, et de telle sorte que la partie formant texte après conversion 480b correspond à la position (date) à laquelle s’affiche la photo 300.
Par exemple, le dispositif de commande 180 affiche ou entre une marque circulaire et une partie formant texte après conversion (« meeting ») à la date du « 14 » de l’écran d’exécution de l’application de calendrier, en utilisant une image graphique correspondant au calendrier incluse dans la photo reçue par le biais de la caméra 121, de telle sorte que la marque circulaire et la partie formant texte après conversion correspondent à une marque circulaire dessinée à la main le 14 du calendrier (sujet photographique) et à une réunion (« meeting ») écrite à la main le « 14 » du calendrier, respectivement.
Comme autre exemple, le dispositif de commande 180 affiche ou entre une partie formant texte après conversion « d-day » résultant de la conversion de la mention « d-day » manuscrite le «22» du calendrier (sujet photographique) et à laquelle se superpose une couleur spécifique, le « 22 » de l’écran d’exécution de l’application de calendrier, de telle sorte que la couleur spécifique se superpose au « 22 » de l’écran d’exécution de l’application de calendrier. Ainsi, grâce à cette configuration, on dispose d’une interface utilisateur grâce à laquelle il est possible d’entrer de façon optimale une partie formant texte écrite à la main sur le calendrier.
Nous venons de décrire un procédé dans lequel on exécute diverses fonctions en utilisant des caractéristiques qui se distinguent par des couleurs. Nous allons maintenant décrire, en nous reportant aux dessins annexés, un mode de réalisation dans lequel on utilise une caractéristique correspondant à l’épaisseur d’un caractère. En particulier, les figures 5A à 8 sont des schémas conceptuels représentant une méthode de contrôle selon un autre mode de réalisation.
Examinons les figures 5A à 5F où est décrit, à titre d’exemple, un menu constituant un sujet photographique. Comme nous le voyons sur la figure 5A(a), la photo 300 reçue par le biais de la caméra 121 comprend une image 500a (par exemple, une image correspondant à une partie formant texte ayant une épaisseur d’une valeur prédéterminée ou supérieure, ou une image correspondant à des caractères gras) correspondant à une partie formant texte présentant la première caractéristique, et une image 500b (par exemple, une image correspondant à une partie formant texte ayant une épaisseur inférieure à la valeur prédéterminée, ou une image qui ne correspond pas aux caractères gras) correspondant à une partie formant texte présentant la seconde caractéristique.
La figure 5A(b) représente des images 510a surlignées et indiquant des parties d’image contenant du texte. En outre, le dispositif de commande 180 peut sélectionner uniquement une image correspondant à une partie formant texte ayant une caractéristique quelconque (par exemple, la première caractéristique) des première et seconde caractéristiques, à partir de la photo reçue par le biais de la caméra 121. La sélection se fait sur la base de la réception de la demande de capture de photo ou de la reconnaissance des première et seconde caractéristiques.
Lorsqu’on sélectionne l’image correspondant à la partie formant texte présentant l’une ou l’autre des première et seconde caractéristiques (ou lorsque l’image présentant l’une ou l’autre des première et seconde caractéristiques est reconnue par le dispositif de commande 180), le dispositif de commande 180 édite des objets graphiques 520 associés à une fonction prédéterminée sur la photo. Lorsqu’on sélectionne un quelconque objet graphique 520, le dispositif de commande 180 convertit l’image sélectionnée en texte et exécute une fonction (par exemple, la fonction de recherche sur Internet, la fonction de traduction ou similaire) associée à l’objet graphique sélectionné, en utilisant la partie formant texte après conversion.
En outre, comme nous le voyons sur les figures 5B(a) et 5B(b), le dispositif de commande 180 sélectionne uniquement des images 512a, 514a, 516a, et 518a correspondant à une partie formant texte dotée de l’une ou l’autre des première et seconde caractéristiques à partir d’une première photo 300a reçue par le biais de la caméra 121. En outre, sur la base de la demande utilisateur, c’est-à-dire lorsqu’on applique un toucher 530 à l’une quelconque des images correspondant à des parties formant texte incluses dans une seconde photo 300b différente de la première photo 300a, le dispositif de commande 180 édite des images 512b, 514b, 516b, et 518b relatives aux images sélectionnées sur l’unité d’affichage 151, sur la base de l’image touchée et des images sélectionnées.
Par exemple, lorsque seules les images 512a, 514a, 516a, et 518a correspondant aux parties formant texte présentant l’une quelconque des caractéristiques (par exemple, la première caractéristique) sont sélectionnées (ou reconnues) à partir de la première photo 300a, le dispositif de commande 180 édite un objet graphique 520a associé à une fonction de réception d’une nouvelle seconde photo 300b, comme nous le voyons sur la figure 5B(a). La demande utilisateur est le toucher de l’objet graphique 520a. En outre, le dispositif de commande 180 convertit l’image correspondant à la partie formant texte présentant l’une quelconque des caractéristiques incluse dans la première photo 300a en texte et enregistre (provisoirement) une partie formant texte après conversion dans la mémoire 170. En outre, lorsqu’on touche l’objet graphique 520a, le dispositif de commande 180 reçoit différentes photos (la première photo) plusieurs fois, et sélectionne uniquement une image correspondant à la partie formant texte présentant l’une quelconque des caractéristiques qui sont incluses dans chacune des photos (chacune des premières photos). En outre, le dispositif de commande 180 convertit l’image sélectionnée dans chacune des photos en texte, et enregistre une partie formant texte après conversion dans la mémoire 170.
Dans l’exemple de la figure 5B, une partie formant texte présentant l’une quelconque des caractéristiques correspond à un menu de repas. En outre, sur la base de la sélection de l’objet graphique 520a, le dispositif de commande 180 édite la seconde photo 300b sur l’unité d’affichage 151. Comme nous le voyons sur la figure 5B(b), lorsqu’on touche une image quelconque 530 des images correspondant aux parties formant texte incluses dans la seconde photo 300b, le dispositif de commande 180 convertit l’image touchée en texte. A titre d’exemple, l’image touchée est l’une quelconque des parties formant texte incluses dans une carte des vins. En outre, le dispositif de commande 180 extrait (sélectionne) le repas recommandé le mieux décrit par l’image touchée (ou la partie formant texte après conversion) à partir de l’image correspondant à la partie formant texte présentant l’une quelconque des caractéristiques incluses dans la photo précédemment capturée. Le repas recommandé le mieux décrit par l’image touchée peut avoir été déjà stocké sur un serveur externe (qui est connecté par l’Internet) ou dans la mémoire 170.
En outre, comme nous le voyons sur la figure 5B(b), sur la base de l’image touchée et de l’image correspondant à la partie formant texte présentant l’une quelconque des caractéristiques (c’est-à-dire sur la base des images qui sont sélectionnées à partir de la première photo), le dispositif de commande 180 édite les images (à savoir une photo du menu de repas) 512b, 514b, 516b, et 518b qui ont trait aux images sélectionnées sur l’unité d’affichage 151.
Par exemple, lorsque les repas qui sont le mieux décrits par l’image touchée (une carte des vins) sont des images correspondant au repas 1, au repas 2, au repas 3 et au repas 4, parmi les images correspondant aux parties formant texte sélectionnées à partir de la première photo, le dispositif de commande 180 reçoit des photos de plats correspondant au menu 1, au menu 2, au menu 3 et au menu 4, du serveur externe, et édite les photos reçues 512b, 514b, 516b, et 518b des différents plats sur l’unité d’affichage 151. Ainsi, on dispose d’une interface utilisateur grâce à laquelle on reçoit facilement, par le biais de la caméra, des informations sur un plat recommandé.
En outre, le dispositif de commande 180 édite des informations complémentaires sur l’unité d’affichage 151 (ou la photo) en utilisant une image correspondant à une partie formant texte. Par exemple, comme nous le voyons sur la figure 5C, le dispositif de commande 180 sélectionne uniquement les images 512a, 514a, 516a, et 518a correspondant à la partie formant texte présentant une caractéristique quelconque (par exemple, la première caractéristique) des première et seconde caractéristiques à partir de la photo 300 reçue par le biais de la caméra 121.
En outre, le dispositif de commande 180 édite des objets graphiques spécifiques (par exemple, des cases à cocher) 512c et 518c à proximité des images 512a et 518a sur lesquelles des informations complémentaires peuvent être délivrées parmi les images sélectionnées. En outre, le dispositif de commande 180 convertit les images sélectionnées en texte et reçoit des informations complémentaires en effectuant une recherche sur Internet ou autres, en utilisant une partie formant texte après conversion. En outre, sur la base de la partie formant texte après conversion résultant de la réception et de la conversion des informations complémentaires, le dispositif de commande 180 édite un objet graphique spécifique à proximité de l’image, correspondant à la partie formant texte.
Par ailleurs, lorsqu’on sélectionne au moins un objet graphique (par exemple, l’objet graphique 512c) parmi des objets graphiques spécifiques, le dispositif de commande 180 édite des informations complémentaires 540a relatives à l’image 512a correspondant à l’objet graphique spécifique sélectionné, sur la photo. En outre, que les informations complémentaires soient éditées ou non, tous les objets graphiques spécifiques s’affichent à proximité de l’image correspondant à la partie formant texte présentant l’une quelconque des caractéristiques qui est incluse dans la photo. L’utilisateur peut également toucher directement l’image 512a pour éditer les informations complémentaires 540a plutôt que de toucher la case à cocher 512c.
En outre, comme nous le voyons sur la figure 5D, lorsqu’on sélectionne au moins un ou plusieurs objets graphiques spécifiques (par exemple, des objets graphiques spécifiques multiples), le dispositif de commande 180 peut éditer des informations complémentaires (par exemple, des informations de tarif 550) relatives aux objets graphiques spécifiques sélectionnés, sur l’unité d’affichage 151.
En outre, le terminal mobile selon un mode de réalisation de la présente invention peut exécuter diverses fonctions. Par exemple, comme nous le voyons sur la figure 5E(a), le dispositif de commande 180 sélectionne uniquement une image correspondant à une partie formant texte présentant l’une ou l’autre des première et seconde caractéristiques à partir de la photo reçue par le biais de la caméra 121. Le dispositif de commande 180 convertit également l’image sélectionnée en texte, et affiche une partie formant texte après conversion de telle sorte que la partie formant texte après conversion se superpose aux images sélectionnées.
En outre, lorsqu’on touche un objet graphique 528 associé à la fonction de traduction au moment de sélectionner l’image, le dispositif de commande 180 convertit les images sélectionnées en texte, traduit une partie formant texte après conversion, et affiche ensuite sur la photo une partie formant texte après conversion résultant de la traduction, comme nous le voyons sur la figure 5E(b). En outre, les parties formant texte après conversion 512d, 514d, 516d, et 518d résultant de la traduction se superposent aux images correspondant aux parties formant texte.
En outre, un objet graphique 560 grâce auquel l’image sélectionnée peut être ajustée s’affiche sur les images correspondant aux parties formant texte présentant l’une quelconque des caractéristiques. Comme nous le voyons sur les figures 5E(a) à 5E(d), le dispositif de commande 180 modifie (ajuste) les images sélectionnées sur la base du toucher de type glisser-déplacer appliqué à l’objet graphique 560. Plus précisément, cette opération consiste à ajuster une section définie bloc par bloc.
En outre, lorsqu’on convertit en texte l’image correspondant à la partie formant texte ou qu’on traduit une partie formant texte après conversion, l’objet graphique 560 s’affiche sur la photo. Comme nous le voyons sur la figure 5E(c), lorsqu’on sélectionne l’une quelconque (par exemple, une partie formant texte après traduction 512d résultant de la traduction) des parties formant texte après traduction et qu’on touche ensuite un objet graphique 522 associé à la fonction de recherche sur Internet, le dispositif de commande 180 édite une page web 570 résultant de la recherche effectuée en utilisant la partie formant texte après traduction 512d sur l’unité d’affichage 151, comme nous le voyons sur la figure 5E(d).
La fonction de recherche s’applique d’une manière identique ou similaire, non seulement à la partie formant texte après traduction mais également à la partie formant texte après conversion. En outre, comme nous le voyons sur la figure 5F(a), lorsque seules les images 512a, 514a, 516a, et 518a correspondant aux parties formant texte ayant l’une ou l’autre des première et seconde caractéristiques sont sélectionnées par le dispositif de commande 180, et lorsqu’on touche un objet graphique 524 associé à une fonction SNS, le dispositif de commande 180 édite un écran d’exécution 590 d’une application SNS sur l’unité d’affichage 151.
En outre, comme nous le voyons sur les figures 5F(a) et (b), le dispositif de commande 180 enregistre une photo 500 reçue par le biais de la caméra 121 en tant que fichier joint SNS 580. En outre, le dispositif de commande 180 convertit les images 512a, 514a, 516a, et 518a correspondant aux parties formant texte qui sont sélectionnées, et entre automatiquement les parties formant texte après conversion 512f, 514f, 516f, et 518f résultant de la conversion, dans une fenêtre d’entrée de l’écran d’exécution 590.
De plus, les parties formant texte après conversion 512f, 514f, 516f, et 518f résultant de la conversion peuvent être entrées dans la fenêtre d’entrée sans aucune modification, et être entrées dans la fenêtre d’entrée avec un symbole spécifique qui vient s’ajouter aux parties formant texte après conversion 512f, 514f, 516f, et 518f. Comme nous le voyons sur la figure 5G(a), lorsqu’on sélectionne une image correspondant à un restaurant parmi des images correspondant à des parties formant texte incluses dans la photo reçue par le biais de la caméra 121, le dispositif de commande 180 édite un objet graphique 513 associé à une fonction de d’édition d’images de plats fournis par le restaurant, sur la photo.
Plus concrètement, une fois qu’on a sélectionné l’image correspondant à la partie formant texte présentant l’une ou l’autre des première et seconde caractéristiques et qu’on a sélectionné une image spécifique sur la base de la demande utilisateur, le dispositif de commande 180 convertit l’image spécifique en texte, et à partir d’une partie formant texte après conversion résultant de la conversion, détermine si l’image spécifique sélectionné est ou non une image correspondant au nom du restaurant. En outre, le dispositif de commande 180 effectue une recherche sur Internet en utilisant la partie formant texte après conversion ou détermine le nom du restaurant sur la base des données stockées dans la mémoire 170. Dans ce cas, le dispositif de commande 180 édite l’objet graphique 513 sur la photo.
Lorsqu’on sélectionne l’objet graphique 513, le dispositif de commande 180 recherche des images des plats qui peuvent être proposés par le restaurant, en utilisant la partie formant texte après conversion, et sélectionne au moins quelques images de plats 592 résultant de la recherche. A titre d’exemple, au moins quelques images de plats qui sont éditées sur la photo sont un nombre prédéterminé d’images de plats sélectionnées dans l’ordre décroissant du nombre de fois où le plat est recommandé ou dans l’ordre décroissant du nombre de fois où le plat est recherché. Grâce à cette configuration, on dispose d’une interface utilisateur grâce à laquelle on peut obtenir des informations complémentaires de manière optimale en utilisant la caméra.
Nous allons à présent décrire un mode de réalisation de la présente invention de manière plus détaillée en nous reportant aux dessins annexés. Comme nous le voyons sur la figure 6A(a), lorsque l’utilisateur fixe la caméra 121 sur une étiquette attachée à un vêtement ou similaire, une image 600 correspondant à un symbole dessiné sur l’étiquette est incluse dans la photo 300 reçue par le biais de la caméra 121. En réponse à la demande de capture de photo, le dispositif de commande 180 reconnaît l’image 600 correspondant au symbole dessiné sur l’étiquette, et comme nous le voyons sur la figure 6A(b), édite des informations complémentaires 610 sur la photo. En outre, comme nous l’avons expliqué précédemment, une case graphique spécifique (une case à cocher) peut s’afficher à proximité des symboles, et des informations complémentaires peuvent être fournies sur l’image 600 correspondant au symbole. En outre, lorsqu’on sélectionne l’objet graphique spécifique, le dispositif de commande 180 édite uniquement les informations complémentaires correspondant au symbole de l’objet graphique spécifique sélectionné, sur l’unité d’affichage 151.
Dans un autre exemple, illustré sur la figure 6B(a), une image graphique 620 correspondant à une facture est incluse dans la photo 300 reçue par le biais de la caméra 121. Lorsque le dispositif de commande 180 détermine que l’image graphique 620 est un sujet photographique concernant un virement entre comptes, comme une facture, le dispositif de commande 180 édite une icône 630 d’une application bancaire sur la photo, comme nous le voyons sur la figure 6B(b). En outre, l’icône 630 est éditée après réception de la demande de capture de photo.
En outre, le dispositif de commande 180 reconnaît une image correspondant à une partie formant texte incluse dans l’image graphique 620, et édite des objets spécifiques 622a et 622b à proximité de l’image correspondant aux informations spécifiques (par exemple, un numéro de compte ou similaire) dans l’image reconnue.
Lorsqu’on sélectionne l’un quelconque (par exemple, l’objet graphique spécifique 622a) des objets graphiques spécifiques 622a et 622b, et lorsqu’on sélectionne l’icône 630, le dispositif de commande 180 édite une exécution de l’application bancaire correspondant à l’icône sélectionnée sur l’unité d’affichage 151. En outre, le dispositif de commande 180 convertit l’image 622a correspondant à la partie formant texte qui a été sélectionnée, en texte.
Le dispositif de commande 180 entre également automatiquement la partie formant texte après conversion (par exemple, le numéro de compte) résultant de la conversion dans une partie spécifique (par exemple, une case d’entrée de numéro de compte) incluse dans l’écran d’exécution de l’application bancaire. En outre, le dispositif de commande 180 reconnaît une image correspondant à des informations sur un montant, et convertit l’image reconnue en texte.
En outre, le dispositif de commande 180 affiche (entre) automatiquement une partie formant texte après conversion (des informations sur le montant) résultant de la conversion dans une case d’entrée de montant incluse dans l’écran d’exécution de l’application bancaire. Grâce à cette configuration, on dispose d’une interface utilisateur qui permet d’effectuer un virement bancaire de manière plus pratique.
En outre, diverses informations complémentaires sont fournies au moyen d’une image correspondant à une partie formant texte incluse dans une photo reçue par le biais de la caméra 121. Par exemple, comme nous le voyons sur la figure 7A(a), une image comprenant une partie formant texte relative à une recette figure dans une photo reçue de la caméra 121. Dans ce cas, lorsque la demande de capture de photo est reçue, le dispositif de commande 180 reconnaît des images 710a, 710b, 710c, et 710d correspondant aux parties formant texte relatives à la recette incluses dans la photo, et comme nous le voyons sur la figure 7A(b), sélectionne les images reconnues.
En outre, lorsque le dispositif de commande 180 détermine que l’image correspondant à la partie formant texte incluse dans la photo concerne la recette, le dispositif de commande 180 affiche des objets graphiques 720a et 720b associés à une fonction prédéterminée relative à la recette, comme nous le voyons sur la figure 7A(b). Par exemple, la fonction prédéterminée modifie une quantité relative à la recette ou modifie des unités.
Comme nous le voyons sur la figure 7A(b), lorsqu’un objet graphique 720a est associé à la fonction de modification de la quantité, le dispositif de commande 180 édite sur l’unité d’affichage 151 une fenêtre contextuelle (ou une fenêtre de sélection) 730a par laquelle on sélectionne la quantité, comme nous le voyons sur la figure 7A(c). En outre, la quantité (par exemple, « pour 4 personnes ») correspondant à l’image 710a de la partie formant texte incluse dans la photo n’apparaît pas dans la fenêtre de sélection.
En outre, lorsqu’on sélectionne une quantité spécifique, le dispositif de commande 180 affiche des informations de quantité 740a et 740b résultant de la modification des quantités de produits en fonction de la quantité sélectionnée, à proximité de l’image 710b correspondant à une partie formant texte relative à une quantité de produit incluse dans la photo, comme nous le voyons sur la figure 7A(d).
Comme nous le voyons sur la figure 7B(b), lorsqu’on sélectionne un objet graphique 720b associé à une fonction de modification d’unités, le dispositif de commande 180 édite une nouvelle photo 300b sur l’unité d’affichage 151, comme nous le voyons sur la figure 7B(c). En outre, lorsque l’utilisateur fixe la caméra 121 sur un objet (par exemple, une tasse) pour mesurer une quantité, une image correspondant à l’objet s’affiche sur la nouvelle photo 300b.
De plus, le dispositif de commande 180 détermine la distance entre le corps principal et l’objet en utilisant plusieurs caméras 121a et 121b ou 121c et 121d illustrées sur les figures IB et IC et, en fonction de la distance, calcule le volume de l’objet. En outre, le dispositif de commande 180 affiche des informations 310b correspondant au volume calculé sur la photo. Lorsqu’on sélectionne un bouton 320b associé à la fonction de modification des unités (ou de mesure des unités) et affiché sur la nouvelle photo 300b, le dispositif de commande 180 affiche la photo initiale 300a sur l’unité d’affichage 151, et affiche des informations 752a et 752b résultant de la modification des unités (ou de la mesure des unités) en fonction du volume calculé de l’objet à proximité des images 750a et 750b.
Plus précisément, le dispositif de commande 180 modifie les informations relatives à un volume inclus dans la photo en fonction d’un volume correspondant à un objet dont une nouvelle photo a été capturée, et édite les informations modifiées sur la photo. Par exemple, lorsque la quantité du produit inclus dans la photo est une demi-tasse d’une capacité de 100 ml, la quantité de produit correspond à une quantité de 50 ml. Lorsque le volume calculé est de 150 ml, les informations modifiées qui s’affichent à proximité de l’image correspondant à la partie formant texte relative à la quantité de produit sont « un tiers d’une tasse d’une capacité de 150 ml ». Grâce à cette configuration, on dispose d’une interface utilisateur qu’on optimise pour une recette au moyen de la caméra.
En outre, comme nous le voyons sur la figure 8(a), une image graphique 800 correspondant à une partition musicale est incluse dans la photo 300 reçue par le biais de la caméra 121. Dans ce cas, le dispositif de commande 180 analyse l’image graphique 800, détermine l’instrument de musique auquel correspond la partition, et comme nous le voyons sur la figure 8(b), affiche un objet graphique 820a indiquant l’instrument correspondant sur la photo. En outre, le dispositif de commande 180 édite des objets graphiques 810a et 810b associés à une fonction relative à la partition musicale sur la photo.
Les objets graphiques 820a, 810a, et 810b, illustrés sur la figure 8(a), sont édités après réception de la demande de capture de photo. Les fonctions relatives à la partition comprennent le fait de changer d’instrument de musique (ou de partition musicale), de jouer d’un instrument de musique ou similaire. En outre, comme nous le voyons sur la figure 8(b), lorsqu’on sélectionne l’objet graphique 810b associé à la fonction de changement d’instrument de musique, le dispositif de commande 180 édite une fenêtre contextuelle (ou une fenêtre de sélection) 830 par laquelle on sélectionne un autre instrument de musique à jouer sur l’unité d’affichage 151, comme nous le voyons sur la figure 8(c).
Lorsqu’on sélectionne un instrument de musique autre que l’instrument de musique déterminé, comme nous le voyons sur la figure 8(d), le dispositif de commande 180 transforme l’image graphique 800 correspondant à la partition en une image d’une partition musicale 840 correspondant à l’autre instrument de musique. Une image 820b indiquant l’autre instrument de musique peut également être affichée sur la partition 840.
Comme nous le voyons sur la figure 8(d), lorsqu’on sélectionne l’objet graphique 810a associé à la fonction consistant à jouer d’un instrument de musique, sur la base de l’image graphique 840 (l’image de la partition) éditée sur l’unité d’affichage 151, le dispositif de commande 180 édite un son résultant de la lecture de l’image graphique 840, en tant que son obtenu en jouant de l’instrument de musique 820b associé à l’image graphique 840. Grâce à cette configuration, on exécute diverses fonctions dans différents domaines en utilisant une photo reçue par le biais de la caméra.
Comme nous l’avons expliqué précédemment, selon un mode de réalisation de la présente invention, diverses fonctions peuvent être exécutées sur la base de caractéristiques d’une image correspondant à une partie formant texte incluse dans une photo. En outre, on dispose d’une nouvelle interface utilisateur grâce à laquelle on peut convertir en texte une image correspondant à une partie formant texte incluse dans une photo et on peut ainsi entrer la partie formant texte après conversion résultant de la traduction dans une application spécifique, indiquant une caractéristique de l’image correspondant à la partie formant texte. En outre, on dispose d’une interface utilisateur grâce à laquelle on peut obtenir des informations complémentaires optimisées en utilisant une photo reçue par le biais de la caméra.
Divers modes de réalisation peuvent être mis en œuvre au moyen d’un support lisible par machine sur lequel sont stockées des instructions devant être exécutées par un processeur pour effectuer divers procédés présentés dans le présent document. Comme exemples de supports possibles lisibles par machine, citons un disque dur, un disque SSD, un disque SDD (disque dur sur silicium), une mémoire morte, une mémoire vive, un CD-ROM, une bande magnétique, un disque souple, un dispositif de stockage optique de données, les autres types de supports de stockage présentés dans le présent document, et des combinaisons de ces différents supports. Le cas échéant, le support lisible par machine peut être réalisé sous forme d’onde porteuse (par exemple, une onde de transmission par l’Internet). Le processeur peut comprendre le dispositif de commande 180 du terminal mobile.
Les modes de réalisation et avantages précités sont de nature purement représentative et ne doivent pas être considérés comme limitant la présente invention. Les présents enseignements peuvent être aisément appliqués à d’autres types d’appareils. La présente description est destinée à servir d’illustration, et non à limiter la portée des revendications. L’homme du métier verra que nombres de possibilités, de modifications et de variantes peuvent être envisagées. Les caractéristiques, structures, procédés, et autres caractéristiques des modes de réalisation représentatifs décrits dans le présent document peuvent être combinés de différentes manières pour obtenir des modes de réalisation représentatifs supplémentaires et/ou alternatifs.
De même que l’on peut mettre en œuvre les présents attributs sous plusieurs formes sans pour autant s’écarter de leurs caractéristiques, précisons également que les modes de réalisation décrits ci-dessus ne sont limités par aucun des détails de la description qui précède, sauf indication contraire, mais doivent être considérés au sens large dans leur portée telle qu’elle est définie dans les revendications annexées, et par conséquent, tous les changements et toutes les modifications qui s’inscrivent dans les tenants et aboutissants des revendications, ou les équivalents de ces tenants et aboutissants, ont donc vocation à être englobés dans les revendications annexées.

Claims (15)

  1. REVENDICATIONS
    1. Terminal mobile comprenant : une caméra (121) ; un écran tactile (151) conçu pour éditer une photo reçue par le biais de la caméra (121), ladite photo comportant au moins une première partie formant texte d’image dotée d’un premier attribut et une seconde partie formant texte d’image dotée d’un second attribut différent du premier attribut ; et un dispositif de commande (180) conçu pour : afficher des premier et second objets graphiques indiquant que les première et seconde parties formant texte d’image peuvent être sélectionnées, exécuter une première fonction prédéterminée correspondant au premier attribut de la première partie formant texte d’image lorsqu’on sélectionne le premier objet graphique ou la première partie formant texte d’image, et exécuter une seconde fonction prédéterminée correspondant au second attribut de la seconde partie formant texte d’image lorsqu’on sélectionne le second objet graphique ou la seconde partie formant texte d’image.
  2. 2. Terminal mobile selon la revendication 1, dans lequel les premier et second objets graphiques comprennent au moins soit des cases à cocher pouvant être sélectionnées, soit des lignes en pointillés autour des première et seconde parties formant texte d’image respectives, soit le surlignage des première et seconde parties formant texte d’image respectives.
  3. 3. Terminal mobile selon Tune quelconque des revendications 1 et 2, dans lequel la première fonction prédéterminée correspond à une réduction ou une limitation de l’affichage de la première partie formant texte d’image sur l’écran tactile (151), et dans lequel la seconde fonction prédéterminée correspond à la conversion de la seconde partie formant texte d’image de l’écran tactile (151) en texte et l’utilisation du texte converti dans une application spécifique.
  4. 4. Terminal mobile selon Tune quelconque des revendications 1 à 3, dans lequel le dispositif de commande (180) est conçu en outre pour : lorsqu’on sélectionne le premier objet graphique ou la première partie formant texte d’image, exécuter la première fonction prédéterminée limitant la sortie de la première partie formant texte d’image et afficher un autre objet graphique pour réafficher la première partie formant texte d’image sur l’écran tactile (151 ), et lorsqu’on sélectionne le second objet graphique ou la seconde partie formant texte d’image, exécuter la seconde fonction prédéterminée convertissant la seconde partie formant texte d’image de l’écran tactile (151) en texte et utilisant le texte converti dans l’application spécifique comprenant au moins soit une fonction de recherche sur Internet, soit une fonction d’émission sonore, soit une fonction de traduction, soit une fonction mémo.
  5. 5. Terminal mobile selon la revendication 4, dans lequel le dispositif de commande (180) est conçu en outre pour afficher des icônes d’applications pouvant être sélectionnées et correspondant respectivement à la fonction de recherche sur Internet, à la fonction d’émission sonore, à la fonction de traduction et à la fonction mémo.
  6. 6. Terminal mobile selon Tune quelconque des revendications 1 à 5, dans lequel le premier attribut de la première partie formant texte d’image correspond à un texte manuscrit et le second attribut de la seconde partie formant texte d’image correspond à un texte imprimé.
  7. 7. Terminal mobile selon Tune quelconque des revendications l à 6, dans lequel le premier attribut de la première partie formant texte d’image correspond à une première couleur et le second attribut de la seconde partie formant texte d’image correspond à une seconde couleur.
  8. 8. Terminal mobile selon la revendication 7, dans lequel le dispositif de commande (180) est conçu en outre pour : afficher un objet graphique de mémo permettant d’exécuter une application mémo lorsqu’on sélectionne les premier et second objets graphiques ou les première et seconde parties formant texte d’image, lorsqu’on sélectionne l’objet graphique de mémo, convertir la première partie formant texte d’image en un premier texte et la seconde partie formant texte d’image en un second texte, et afficher le premier texte et le second texte sur un écran d’exécution de l’application mémo, et dans lequel le premier texte s’affiche avec la première couleur et le second texte s’affiche avec la seconde couleur.
  9. 9. Terminal mobile selon l’une quelconque des revendications 7 et 8, dans lequel les première et seconde couleurs sont superposées par un utilisateur, dans lequel la première fonction prédéterminée correspond à la conversion de la première partie formant texte d’image en un premier texte, à la traduction du premier texte converti en un premier texte différent issu d’une autre langue, et à l’affichage du premier texte et du premier texte différent, et dans lequel la seconde fonction prédéterminée correspond à la conversion de la seconde partie formant texte d’image en un second texte, à la traduction du second texte converti en un second texte différent issu d’une autre langue, et à l’affichage du second texte et du second texte différent.
  10. 10. Terminal mobile selon la revendication 9, dans lequel le premier texte et le premier texte différent s’affichent avec la première couleur, et le second texte et le second texte différent s’affichent avec la seconde couleur.
  11. 11. Terminal mobile selon l’une quelconque des revendications 1 à 10, dans lequel la photo comprend une image de calendrier, et dans lequel le dispositif de commande (180) est conçu en outre pour : convertir les parties formant texte d’image manuscrites de l’image de calendrier en texte, et afficher le texte converti à la même date que les parties formant texte d’image manuscrites sur un écran d’exécution d’une application de calendrier.
  12. 12. Terminal mobile selon la revendication 11, dans lequel le texte converti s’affiche dans une couleur correspondant à la couleur des parties formant texte d’image manuscrites de l’image de calendrier.
  13. 13. Terminal mobile selon l’une quelconque des revendications 1 à 12, dans lequel le dispositif de commande (180) est conçu en outre pour : afficher une autre photo reçue par le biais de la caméra (121), et lorsqu’on sélectionne une partie d’image texte dans l’autre photo, afficher des images correspondant à un lien entre le texte inclus dans la partie d’image texte de l’autre photo et le texte inclus dans les première et seconde parties formant texte d’image.
  14. 14. Terminal mobile selon l’une quelconque des revendications 1 à 13, dans lequel le dispositif de commande (180) est conçu en outre pour : afficher un objet graphique à proximité de la première partie formant texte d’image et de la seconde partie formant texte d’image indiquant que des informations supplémentaires sont disponibles, et afficher les informations supplémentaires sur la photo lorsqu’on sélectionne l’objet graphique.
  15. 15. Méthode de contrôle d’un terminal mobile, le procédé comprenant : l’édition, par l’intermédiaire d’un écran tactile (151), d’une photo reçue par le biais de la caméra (121), ladite photo comportant au moins une première partie formant texte d’image dotée d’un premier attribut et une seconde partie formant texte d’image dotée d’un second attribut différent du premier attribut ; l’affichage, par l’intermédiaire de l’écran tactile (151), de premier et second objets graphiques indiquant que les première et seconde parties formant texte d’image peuvent être sélectionnées ; l’exécution, par l’intermédiaire d’un dispositif de commande (180), d’une première fonction prédéterminée correspondant au premier attribut de la première partie formant texte d’image lorsqu’on sélectionne le premier objet graphique ou la première partie formant texte d’image ; et l’exécution, par l’intermédiaire du dispositif de commande (180), d’une seconde fonction prédéterminée correspondant au second attribut de la seconde partie formant texte d’image lorsqu’on sélectionne le second objet graphique ou la seconde partie formant texte d’image.
FR1654270A 2015-09-25 2016-05-12 Terminal mobile et methode de controle associee Expired - Fee Related FR3041785B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150137030 2015-09-25
KR1020150137030A KR20170037424A (ko) 2015-09-25 2015-09-25 이동 단말기 및 그 제어방법

Publications (2)

Publication Number Publication Date
FR3041785A1 true FR3041785A1 (fr) 2017-03-31
FR3041785B1 FR3041785B1 (fr) 2019-12-20

Family

ID=55315281

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1654270A Expired - Fee Related FR3041785B1 (fr) 2015-09-25 2016-05-12 Terminal mobile et methode de controle associee

Country Status (5)

Country Link
US (1) US20170090693A1 (fr)
EP (1) EP3147816A3 (fr)
KR (1) KR20170037424A (fr)
CN (1) CN106557226A (fr)
FR (1) FR3041785B1 (fr)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11334228B1 (en) * 2015-03-30 2022-05-17 Evernote Corporation Dynamic targeting of preferred objects in video stream of smartphone camera
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
CN107665087B (zh) * 2016-07-28 2021-03-16 夏普株式会社 图像显示装置、图像显示方法以及图像显示系统
KR102598104B1 (ko) * 2018-02-23 2023-11-06 삼성전자주식회사 외부 전자 장치로부터 텍스트 정보를 수신하는 시간 동안에 발생된 움직임을 보상하여 이미지에 포함된 객체 위에 텍스트 정보를 표시하는 방법 및 그 전자 장치
US10346549B1 (en) * 2018-08-28 2019-07-09 Read TwoGether Ltd. Single-line display of composite-text
US10817677B2 (en) * 2018-08-28 2020-10-27 Read Twogether Ltd Single-line display of composite-text
USD927462S1 (en) * 2018-11-09 2021-08-10 Sony Corporation Audio system
CN109766978B (zh) * 2019-01-17 2020-06-16 北京悦时网络科技发展有限公司 一种词码的生成方法、识别方法、装置、存储介质
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
KR20200100918A (ko) 2019-02-19 2020-08-27 삼성전자주식회사 카메라를 이용하는 어플리케이션을 통해 다양한 기능을 제공하는 전자 장치 및 그의 동작 방법
WO2021051023A1 (fr) 2019-09-11 2021-03-18 REQpay Inc. Procédé de gestion de construction, système, support lisible par ordinateur, architecture informatique, instructions mises en œuvre par ordinateur, sortie de traitement d'entrée, interfaces utilisateur graphiques, bases de données et gestion de fichiers
USD930610S1 (en) * 2019-09-29 2021-09-14 Sony Corporation Speaker
US10956016B1 (en) * 2019-11-14 2021-03-23 Rockwell Collins, Inc. No look touchscreen panel / CDU
US11093691B1 (en) * 2020-02-14 2021-08-17 Capital One Services, Llc System and method for establishing an interactive communication session
CN112183122A (zh) * 2020-10-22 2021-01-05 腾讯科技(深圳)有限公司 文字识别方法和装置、存储介质及电子设备
KR102632895B1 (ko) * 2021-04-19 2024-02-05 애플 인크. 미디어 내의 시각적 콘텐츠를 관리하기 위한 사용자 인터페이스
US11902651B2 (en) 2021-04-19 2024-02-13 Apple Inc. User interfaces for managing visual content in media
US11961291B2 (en) * 2021-04-19 2024-04-16 Apple Inc. Visual search for electronic devices
US12001642B2 (en) * 2021-04-19 2024-06-04 Apple Inc. User interfaces for managing visual content in media
CN117203682A (zh) * 2021-04-19 2023-12-08 苹果公司 用于管理媒体中的视觉内容的用户界面
US11696017B2 (en) * 2021-05-19 2023-07-04 Apple Inc. User interface for managing audible descriptions for visual media
US11995291B2 (en) * 2022-06-17 2024-05-28 Micro Focus Llc Systems and methods of automatically identifying a date in a graphical user interface
CN116738940B (zh) * 2022-09-30 2024-06-11 荣耀终端有限公司 一种备忘录存储方法及电子设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6181255B1 (en) * 1997-02-27 2001-01-30 The Chamberlain Group, Inc. Multi-frequency radio frequency transmitter with code learning capability
US6940617B2 (en) * 2001-02-09 2005-09-06 Matsushita Electric Industrial Co., Ltd. Printing control interface system and method with handwriting discrimination capability
JP2006018522A (ja) * 2004-06-30 2006-01-19 Canon Inc 画像編集システム及び方法並びにプログラム
KR101537598B1 (ko) * 2008-10-20 2015-07-20 엘지전자 주식회사 영상 프로젝터를 구비한 휴대 단말기 및 그 제어 방법
WO2010122429A2 (fr) * 2009-04-20 2010-10-28 Master Wave International Co., Ltd. Procédé et système de gestion de données à base d'image
US20120083294A1 (en) * 2010-09-30 2012-04-05 Apple Inc. Integrated image detection and contextual commands
EP2439676A1 (fr) * 2010-10-08 2012-04-11 Research in Motion Limited Système et procédé pour afficher du texte en réalité améliorée
KR101860341B1 (ko) * 2011-09-09 2018-05-24 엘지전자 주식회사 이동 단말기 및 이의 제어방법
WO2013103912A1 (fr) * 2012-01-05 2013-07-11 Visa International Service Association Appareils, procédés et systèmes de capture visuelle de transaction
KR102147935B1 (ko) * 2013-08-29 2020-08-25 삼성전자주식회사 데이터 처리 방법 및 그 전자 장치

Also Published As

Publication number Publication date
FR3041785B1 (fr) 2019-12-20
KR20170037424A (ko) 2017-04-04
CN106557226A (zh) 2017-04-05
US20170090693A1 (en) 2017-03-30
EP3147816A2 (fr) 2017-03-29
EP3147816A3 (fr) 2017-06-14

Similar Documents

Publication Publication Date Title
FR3041785A1 (fr) Terminal mobile et methode de controle associee
FR3021133B1 (fr) Terminal mobile et procede de commande dudit terminal mobile
FR3022368B1 (fr) Terminal de type montre et procede de commande associe
CN108182016B (zh) 移动终端及其控制方法
FR3021136A1 (fr) Terminal mobile et procede de commande de celui-ci
FR3031601B1 (fr) Terminal mobile et procede de commande de celui-ci
FR3021424B1 (fr) Terminal mobile et procede de commande dudit terminal mobile
FR3021766A1 (fr) Terminal mobile et methode de commande du terminal mobile
FR3028630A1 (fr) Terminal mobile et son procede de commande
FR3043478A1 (fr) Terminal mobile et methode de controle associee
FR3025328B1 (fr) Terminal mobile et procede de commande de celui-ci
FR3019665A1 (fr)
FR3039673A1 (fr) Terminal mobile et methode de controle associee
FR3021485A1 (fr) Dispositif mobile et methode de controle associee
FR3026201A1 (fr)
FR3046470B1 (fr) Terminal mobile
FR3024786A1 (fr) Terminal mobile et son procede de commande
FR3022367A1 (fr)
FR3040501A1 (fr)
FR3022649A1 (fr)
US9565354B2 (en) Mobile terminal for refocusing of a captured image and method for controlling the same
FR3021425A1 (fr)
FR3039674A1 (fr) Terminal mobile et methode de controle de celui-ci
FR3042084B1 (fr) Terminal mobile et methode de controle associee
FR3021134A1 (fr) Terminal mobile

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170721

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

ST Notification of lapse

Effective date: 20220105