FR3021133B1 - Terminal mobile et procede de commande dudit terminal mobile - Google Patents

Terminal mobile et procede de commande dudit terminal mobile Download PDF

Info

Publication number
FR3021133B1
FR3021133B1 FR1554386A FR1554386A FR3021133B1 FR 3021133 B1 FR3021133 B1 FR 3021133B1 FR 1554386 A FR1554386 A FR 1554386A FR 1554386 A FR1554386 A FR 1554386A FR 3021133 B1 FR3021133 B1 FR 3021133B1
Authority
FR
France
Prior art keywords
touch
image
preview image
mobile terminal
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
FR1554386A
Other languages
English (en)
Other versions
FR3021133A1 (fr
Inventor
Kyungmin CHO
Seongik JEON
Minah SONG
Chansoo KIM
Seoyong PARK
Jeonghyun LEE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of FR3021133A1 publication Critical patent/FR3021133A1/fr
Application granted granted Critical
Publication of FR3021133B1 publication Critical patent/FR3021133B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

Un terminal mobile incluant une unité de communication sans fil (110) pour réaliser une communication sans fil ; un appareil de captures de vues (121) pour obtenir une image; une unité d'affichage (151) pour afficher une image de prévisualisation obtenue via l'appareil de captures de vues (121) ; et un appareil de commande (180) pour commander l'unité d'affichage (151) pour fonctionner dans un d'un premier état dans lequel un objet graphique relatif à une fonction de capture d'image est affiché chevauchant l'image de prévisualisation et d'un second état dans lequel l'objet graphique n'est pas affiché alors que l'image de prévisualisation est affichée, en fonction d'une demande utilisateur, et lorsqu'un premier type préréglé de toucher est détecté dans une région sur laquelle l'image de prévisualisation est affichée dans le second état, commander l'appareil de captures de vues (121) pour capturer l'image de prévisualisation selon le type préréglé de toucher.

Description

TERMINAL MOBILE ET MÉTHODE DE CONTROLE DE CELUI-CI
La présente invention concerne un terminal mobile possédant une fonction de capture d’image et un procédé de commande dudit terminal mobile.
Les terminaux peuvent être généralement classifiés en tant que terminaux mobiles/portatifs ou terminaux stationnaires. Les terminaux mobiles peuvent également être classifiés en tant que terminaux de poche ou terminaux embarqués sur véhicule. En outre, les terminaux mobiles sont devenus de plus en plus fonctionnels. Des exemples de telles fonctions incluent des communications de données et vocales, la capture d’images et de vidéo par l’intermédiaire d’un appareil de captures de vues, l’enregistrement audio, la lecture de fichiers musicaux par l’intermédiaire d’un système à haut-parleur, et l’affichage d’images et de vidéo sur un écran d’affichage. Certains terminaux mobiles incluent une fonctionnalité supplémentaire telle que l’utilisation d’un jeu, alors que d’autres terminaux sont configurés en tant que lecteurs multimédia.
Un environnement d’interface utilisateur est également prévu permettant à des utilisateurs de rechercher ou de sélectionner des fonctions facilement et de manière pratique. Aussi, récemment, comme la résolution et les fonctions d’appareils de captures de vues prévus dans des terminaux mobiles se sont améliorées, l’utilisation d’appareils de captures de vues prévus dans des terminaux mobiles a augmenté. Cependant, les fonctions et l’interface de l’appareil de captures de vues sont limitées et parfois dérangent l’utilisateur.
Par conséquent, un objet de la présente invention est d’aborder les problèmes notés ci-dessus et autres de l’art connexe.
Un autre objet de la présente invention est de proposer un terminal mobile et un procédé correspondant pour fournir une interface utilisateur graphique (GUI) connexe à la capture d’image optimisée.
Un autre objet de la présente invention est de proposer un terminal mobile et un procédé correspondant pour fournir une fonction de capture d’image où l’utilisateur peut simplement toucher une image de prévisualisation.
Pour obtenir ces avantages et d’autres et conformément à l’objectif du présent mémoire, tel qu’il est réalisé et généralement décrit dans les présentes, la présente invention propose, dans un aspect, un terminal mobile incluant une unité de communication sans fil configurée pour réaliser une communication sans fil ; un appareil de captures de vues configuré pour obtenir une image ; une unité d’affichage configurée pour afficher une image de prévisualisation obtenue par l’intermédiaire de l’appareil de captures de vues ; et un appareil de commande configuré pour commander l’unité d’affichage pour fonctionner dans un quelconque d’un premier état dans lequel un objet graphique relatif à une fonction de capture d’image est affiché chevauchant l’image de prévisualisation et un second état dans lequel l’objet graphique n’est pas affiché alors que l’image de prévisualisation est affichée, en fonction d’une demande utilisateur, et lorsqu’un premier type préréglé de toucher est détecté dans une région sur laquelle l’image de prévisualisation est affichée dans le second état, commander l’appareil de captures de vues pour capturer l’image de prévisualisation en fonction du type préréglé de toucher.
Dans un autre aspect, la présente invention propose un procédé de commande d’un terminal mobile, qui inclut l’affichage, par l’intermédiaire d’une unité d’affichage du terminal mobile, d’une image de prévisualisation obtenue par l’intermédiaire d’un appareil de captures de vues du terminal mobile ; la commande, par l’intermédiaire d’un appareil de commande du terminal mobile, de l’unité d’affichage pour fonctionner dans un quelconque d’un premier état dans lequel un objet graphique relatif à une fonction de capture d’image est affiché chevauchant l’image de prévisualisation et un second état dans lequel l’objet graphique n’est pas affiché alors que l’image de prévisualisation est affichée, en fonction d’une demande utilisateur ; et lorsqu’un premier type préréglé de toucher est détecté dans une région sur laquelle l’image de prévisualisation est affichée dans le second état, la commande, par l’intermédiaire de l’appareil de commande, de l’appareil de captures de vues pour capturer l’image de prévisualisation en fonction du type préréglé de toucher.
En outre, la portée d’applicabilité de la présente demande deviendra plus évidente à partir de la description détaillée fournie ci-après. Cependant, il faut entendre que la description détaillée et les exemples spécifiques, bien qu’indiquant des modes de réalisation préférés de l’invention, sont fournis à titre d’illustration seulement, car divers changements et modifications au sein de l’esprit et de la portée de l’invention deviendront évidents, pour l’homme du métier, à partir de la description détaillée.
Les dessins joints, qui sont inclus pour fournir une compréhension supplémentaire de l’invention et sont incorporés dans et constituent une partie de la présente description, illustrent des modes de réalisation et conjointement avec la description servent à expliquer les principes de l’invention.
Sur les dessins : la figure IA est un schéma de principe d’un terminal mobile selon un mode de réalisation de la présente invention ; les figures IB et IC sont des vues conceptuelles d’un exemple du terminal mobile, vu à partir de différentes directions ; la figure 2 est une vue conceptuelle d’un terminal mobile selon un mode de réalisation de la présente invention ; la figure 3 est un organigramme illustrant un procédé de commande d’un terminal mobile selon un mode de réalisation de la présente invention ; la figure 4 est une vue conceptuelle illustrant le procédé de commande de la figure 3 ; les figures 5A à 5D sont des vues conceptuelles illustrant un procédé de commande d’une fonction de capture d’image de façons diverses en fonction de divers touchers ; les figures 6A à 6G sont des vues conceptuelles illustrant un procédé d’ajustage de mise au point en ce qui concerne une image de prévisualisation en utilisant des touchers appliqués sur une unité d’affichage ; les figures 7A à 7C sont des vues conceptuelles illustrant un mode de réalisation de permutation d’un second état dans lequel la sortie d’un objet graphique est limitée à un premier état dans lequel un objet graphique est sorti ; les figures 8A à 8C sont des vues conceptuelles illustrant un autre mode de réalisation de permutation d’un second état dans lequel la sortie d’un objet graphique est limitée à un premier état dans lequel un objet graphique est sorti ; les figures 9A à 9E sont des vues conceptuelles illustrant un procédé de contrôle d’images capturées dans le second état dans lequel la sortie d’un objet graphique est limitée ; et les figures 10A à 10D sont des vues conceptuelles illustrant un procédé de réalisation d’une fonction de capture d’image dans le second état dans lequel la sortie d’un objet graphique est limitée.
Une description va à présent être fournie en détail selon des modes de réalisation décrits dans les présentes, en faisant référence aux dessins joints. Pour la description brève en faisant référence aux dessins, des numéros de référence identiques ou similaires peuvent être attribués aux composants identiques ou équivalents, et la description de ces composants ne sera pas répétée. En général, un suffixe tel que « module » et « unité » peut être utilisé pour faire référence à des éléments ou composants. L’utilisation d’un tel suffixe dans les présentes est simplement prévue pour faciliter la description du mémoire, et le suffixe lui-même n’est pas prévu pour donner une signification ou fonction spéciale. Dans la présente invention, ce qui est bien connu de l’homme ordinaire du métier pertinent a généralement été omis pour la brièveté.
Les terminaux mobiles exposés dans les présentes peuvent être mis en œuvre en utilisant une variété de différents types de terminaux. Des exemples de tels terminaux incluent des téléphones cellulaires, des téléphones intelligents, des équipements utilisateur, des ordinateurs portatifs, des terminaux de diffusion numériques, des assistants numériques personnels (PDA), des lecteurs multimédia portatifs (PMP), des navigateurs, des ordinateurs portatifs (PC), des PC ardoises, des PC tablettes, des ordinateurs ultra-portatifs, des dispositifs portables (par exemple, des montres intelligentes, des lunettes intelligentes, des casques-écrans (HMD)), et analogues. A titre d’exemple non limitatif seulement, une description supplémentaire va être réalisée en faisant référence à des types particuliers de terminaux mobiles. Cependant, de tels enseignements s’appliquent tout autant à d’autres types de terminaux, tels que les types notés ci-dessus. En outre, ces enseignements peuvent également être appliqués à des terminaux stationnaires tels que la TV numérique, des ordinateurs de bureau, des signalisations numériques, et analogues. Référence est à présent faite aux figures IA à IC, où la figure IA est un schéma de principe d’un terminal mobile conformément à la présente invention, et les figures IB et IC sont des vues conceptuelles d’un exemple du terminal mobile, vu à partir de différentes directions.
En faisant à présent référence à la figure IA, le terminal mobile 100 est représenté possédant des composants tels qu’une unité de communication sans fil 110, une unité d’entrée 120, une unité de détection 140, une unité de sortie 150, une unité d’interface 160, une mémoire 170, un appareil de commande 180, et une unité d’alimentation en énergie électrique 190. La mise en œuvre de la totalité des composants illustrés n’est pas une nécessité, et plus ou moins de composants peuvent être mis en œuvre en variante.
Le terminal mobile 100 est représenté possédant l’unité de communication sans fil 110 configurée avec plusieurs composants couramment mis en œuvre. Par exemple, l’unité de communication sans fil 110 généralement inclut un ou plusieurs composants qui permettent une communication sans fil entre le terminal mobile 100 et un système ou réseau de communication sans fil à l’intérieur duquel le terminal mobile est situé.
Comme cela est représenté sur la figure IA, l’unité de communication sans fil 110 inclut un ou plusieurs parmi un module de réception de diffusion 111, un module de communication mobile 112, un module Internet sans fil 113, un module de communication à courte distance 114, et un module d’informations de localisation 115. En outre, l’unité d’entrée 120 inclut un appareil de captures de vues 121 pour obtenir des images ou vidéo, un microphone 122, qui est un type de dispositif d’entrée audio pour entrer un signal audio, et une unité d’entrée utilisateur 123 (par exemple, une touche tactile, une touche poussoir, une touche mécanique, une touche programmable, et analogues) pour permettre à un utilisateur d’entrer des informations. Des données (par exemple, audio, vidéo, image, et analogues) sont obtenues par l’unité d’entrée 120 et peuvent être analysées et traitées par l’appareil de commande 180 selon des paramètres de dispositif, des instructions utilisateur, et des associations de ceux-ci. L’unité de détection 140 est généralement mise en œuvre en utilisant un ou plusieurs capteurs configurés pour détecter des informations internes du terminal mobile, l’environnement proche du terminal mobile, des informations utilisateur, et analogues. Par exemple, sur la figure IA, l’unité de détection 140 est représentée possédant un capteur de proximité 141 et un capteur d’éclairage 142. Si l’on souhaite, l’unité de détection 140 peut en variante ou en outre inclure d’autres types de capteurs ou de dispositifs, tels qu’un capteur tactile, un capteur d’accélération, un capteur magnétique, un capteur de gravité, un capteur gyroscopique, un capteur de mouvement, un capteur RVB, un capteur infrarouge (IR), un capteur de balayage digital, un capteur ultrasonique, un capteur optique (par exemple, l’appareil de captures de vues 121), un microphone 122, une jauge de batterie, un capteur d’environnement (par exemple, un baromètre, un hygromètre, un thermomètre, un capteur de détection de rayonnement, un capteur thermique, et un capteur de gaz, entre autres), et un capteur chimique (par exemple, un nez électronique, un capteur de santé, un capteur biométrique, et analogues), pour en nommer quelques uns. Le terminal mobile 100 peut être configuré pour utiliser des informations obtenues à partir de l’unité de détection 140, et en particulier, des informations obtenues à partir d’un ou de plusieurs capteurs de l’unité de détection 140, et des associations de celles-ci. L’unité de sortie 150 est configurée pour sortir divers types d’informations, tels qu’audio, vidéo, sortie tactile, et analogues. L’unité de sortie 150 est représentée possédant une unité d’affichage 151, un module de sortie audio 152, un module haptique 153, et un module de sortie optique 154. L’unité d’affichage 151 peut posséder une structure inter-couche ou une structure intégrée avec un capteur tactile afin de faciliter un écran tactile. L’écran tactile peut fournir une interface de sortie entre le terminal mobile 100 et un utilisateur, ainsi que servir d’unité d’entrée utilisateur 123 qui fournit une interface d’entrée entre le terminal mobile 100 et l’utilisateur. L’unité d’interface 160 sert d’interface avec divers types de dispositifs externes qui peuvent être couplés au terminal mobile 100. L’unité d’interface 160, par exemple, peut inclure un quelconque parmi des ports câblés ou sans fil, des ports d’alimentation en énergie électrique externe, des ports de données câblés ou sans fil, des ports de carte de mémoire, des ports pour connecter un dispositif possédant un module d’identification, des ports d’entrée/de sortie (LO) audio, des ports LO vidéo, des ports d’oreillette, et analogues. Dans certains cas, le terminal mobile 100 peut réaliser des fonctions de commande assorties associées à un dispositif externe connecté, en réponse au dispositif qui est connecté à l’unité d’interface 160.
La mémoire 170 est généralement mise en œuvre pour stocker des données pour supporter diverses fonctions ou caractéristiques du terminal mobile 100. Par exemple, la mémoire 170 peut être configurée pour stocker des programmes d’application exécutés dans le terminal mobile 100, des données ou instructions pour des opérations du terminal mobile 100, et analogues. Certains de ces programmes d’application peuvent être téléchargés à partir d’un serveur externe par l’intermédiaire de communication sans fil. D’autres programmes d’application peuvent être installés dans le terminal mobile 100 lors de la fabrication ou de l’expédition, ce qui est typiquement le cas pour des fonctions de base du terminal mobile 100 (par exemple, la réception d’un appel, la réalisation d’un appel, la réception d’un message, l’envoi d’un message, et analogues). Il est courant pour des programmes d’application d’être stockés dans la mémoire 170, installés dans le terminal mobile 100, et exécutés par l’appareil de commande 180 pour réaliser une opération (ou fonction) pour le terminal mobile 100.
Afin de piloter un programme d’application stocké dans la mémoire 170, l’appareil de commande 180 peut commander au moins certains des composants décrits ci-dessus en faisant référence à la figure IA. En outre, afin de piloter le programme d’application, l’appareil de commande 180 peut combiner deux, ou plus, des composants inclus dans le terminal mobile 100 pour faire fonctionner celui-ci. L’unité d’alimentation en énergie électrique 190 peut être configurée pour recevoir de l’énergie électrique externe ou pour fournir de l’énergie électrique interne afin de fournir de l’énergie électrique appropriée requise pour faire fonctionner des éléments et des composants inclus dans le terminal mobile 100. L’unité d’alimentation en énergie électrique 190 peut inclure une batterie, et la batterie peut être configurée pour être incorporée dans le corps de terminal, ou configurée pour être amovible du corps de terminal. Au moins certains des composants peuvent être mis en fonctionnement de façon coopérative pour mettre en œuvre des opérations, une commande, ou des procédés de commande du terminal mobile selon divers modes de réalisation décrits ci-après. Aussi, les opérations, la commande, ou les procédés de commande du terminal mobile peuvent être mis en œuvre dans le terminal mobile en pilotant au moins un programme d’application stocké dans la mémoire 170.
En faisant toujours référence à la figure IA, divers composants illustrés sur cette figure vont à présent être décrits de façon plus détaillée. En ce qui concerne l’unité de communication sans fil 110, le module de réception de diffusion 111 est configuré pour recevoir un signal de diffusion et/ou des informations associées de diffusion à partir d’une entité de gestion de diffusion externe par l’intermédiaire d’un canal de diffusion. Le canal de diffusion peut inclure un canal satellite, un canal terrestre, ou les deux. Dans certains modes de réalisation, deux, ou plus, modules de réception de diffusion 111 peuvent être utilisés pour faciliter la réception simultanée de deux, ou plus, canaux de diffusion, ou pour supporter la commutation parmi des canaux de diffusion.
Le module de communication mobile 112 peut émettre et/ou recevoir des signaux sans fil à une ou à plusieurs et d’une ou de plusieurs entités de réseau. Des exemples typiques d’une entité de réseau incluent une station de base, un mobile terminal externe, un serveur, et analogues. De telles entités de réseau font partie d’un réseau de communication mobile, qui est construit selon des normes techniques ou des procédés de communication pour communications mobiles (par exemple, système mondial de communication avec les mobiles (GSM), accès multiple par répartition en code (CDMA), accès multiple par répartition en code 2000 (CDMA 2000), EV-DO, accès multiple par répartition en code à large bande (WCDMA), accès par paquets en liaison descendante haut débit (HSDPA), accès par paquets en liaison montante haut débit (HSUPA), technologie d’évolution à long terme (LTE), technologie d’évolution à long terme-avancée (LTE-A), et analogues).
Des exemples de signaux sans fil émis et/ou reçus par l’intermédiaire du module de communication mobile 112 incluent des signaux d’appel audio, des signaux d’appel vidéo (téléphonie), ou divers formats de données pour supporter la communication de messages texte et multimédia.
Le module Internet sans fil 113 est configuré pour faciliter l’accès Internet sans fil. Ce module peut être couplé de façon interne ou externe au terminal mobile 100. Le module Internet sans fil 113 peut émettre et/ou recevoir des signaux sans fil par l’intermédiaire de réseaux de communication selon des technologies Internet sans fil. Des exemples de tel accès Internet sans fil incluent un réseau local sans fil (WLAN), Wi-Fi, Wi-Fi Direct, DLNA, WiBro, WiMAX, accès par paquets en liaison descendante haut débit (HSDPA), accès par paquets en liaison montante haut débit (HSUPA), technologie d’évolution à long terme (LTE), technologie d’évolution à long terme-avancée (LTE-A), et analogues. Le module Internet sans fil 113 peut émettre/recevoir des données selon une ou plusieurs de telles technologies Internet sans fil, et autres technologies Internet également.
Dans certains modes de réalisation, lorsque l’accès Internet sans fil est mis en œuvre selon, par exemple, WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A et analogues, en tant que partie d’un réseau de communication mobile, le module Internet sans fil 113 réalise un tel accès Internet sans fil. En tant que tel, le module Internet 113 peut coopérer avec le, ou servir de, module de communication mobile 112.
Le module de communication à courte distance 114 est configuré pour faciliter des communications à courte distance. Des technologies appropriées pour mettre en œuvre de telles communications à courte distance incluent BLUETOOTH™, identification par radiofréquence (RLID), IrDA, bande ultralarge (UWB), ZigBee, communication en champ proche (NEC), Wi-Li, Wi-Li Direct, USB sans fil, et analogues. Le module de communication à courte distance 114 supporte en général des communications sans fil entre le terminal mobile 100 et un système de communication sans fil, des communications entre le terminal mobile 100 et un autre terminal mobile 100, ou des communications entre le terminal mobile et un réseau où un autre terminal mobile 100 (ou un serveur externe) est situé, par l’intermédiaire de réseaux sans fil. Un exemple des réseaux sans fil est un réseau personnel sans fil.
Dans certains modes de réalisation, un autre terminal mobile (qui peut être configuré de façon similaire au terminal mobile 100) peut être un dispositif portable, par exemple, une montre intelligente, des lunettes intelligentes ou un casque-écran (HMD), qui peut échanger des données avec le terminal mobile 100 (ou coopérer autrement avec le terminal mobile 100). Le module de communication à courte distance 114 peut détecter ou reconnaître le dispositif portable, et permettre une communication entre le dispositif portable et le terminal mobile 100. En outre, lorsque le dispositif portable détecté est un dispositif qui est authentifié pour communiquer avec le terminal mobile 100, l’appareil de commande 180, par exemple, peut entraîner la transmission de données traitées dans le terminal mobile 100 au dispositif portable par l’intermédiaire du module de communication à courte distance 114. Donc, un utilisateur du dispositif portable peut utiliser les données traitées dans le terminal mobile 100 sur le dispositif portable. Par exemple, lorsqu’un appel est reçu dans le terminal mobile 100, l’utilisateur peut répondre à l’appel en utilisant le dispositif portable. Aussi, lorsqu’un message est reçu dans le terminal mobile 100, l’utilisateur peut contrôler le message reçu en utilisant le dispositif portable.
Le module d’informations de localisation 115 est généralement configuré pour détecter, calculer, dériver ou autrement identifier une position du terminal mobile. A titre d’exemple, le module d’informations de localisation 115 inclut un module GPS, un module Wi-Fi, ou les deux. Si l’on souhaite, le module d’informations de localisation 115 peut en variante ou en outre fonctionner avec un quelconque des autres modules de l’unité de communication sans fil 110 pour obtenir des données connexes à la position du terminal mobile. A titre d’exemple, lorsque le terminal mobile utilise un module GPS, une position du terminal mobile peut être acquise en utilisant un signal envoyé à partir d’un satellite GPS. A titre d’autre exemple, lorsque le terminal mobile utilise le module Wi-Fi, une position du terminal mobile peut être acquise en fonction d’informations connexes à un point d’accès (AP) sans fil qui transmet ou reçoit un signal sans fil au ou à partir du module Wi-Fi. L’unité d’entrée 120 peut être configurée pour permettre divers types d’entrée dans le terminal mobile 120. Des exemples d’une telle entrée comprennent une entrée audio, image, vidéo, de données, et utilisateur. L’entrée image et vidéo est souvent obtenue en utilisant un ou plusieurs appareils de captures de vues 121. De tels appareils de captures de vues 121 peuvent traiter des cadres d’image d’images inanimées ou de vidéo obtenus par des capteurs d’image dans un mode vidéo ou de capture d’image. Les cadres d’image traités peuvent être affichés sur l’unité d’affichage 151 ou stockés dans la mémoire 170. Dans certains cas, les appareils de captures de vues 121 peuvent être agencés en une configuration de matrice pour permettre à une pluralité d’images possédant divers angles ou points focaux d’être entrées dans le terminal mobile 100. A titre d’autre exemple, les appareils de captures de vues 121 peuvent être situés dans un agencement stéréoscopique pour acquérir des images gauches et droites pour mettre en œuvre une image stéréoscopique.
Le microphone 122 est généralement mis en œuvre pour permettre une entrée audio dans le terminal mobile 100. L’entrée audio peut être traitée de diverses manières selon une fonction exécutée dans le terminal mobile 100. Si l’on souhaite, le microphone 122 peut inclure des algorithmes d’élimination de bruit assortis pour éliminer un bruit indésirable généré au cours de la réception de l’audio externe. L’unité d’entrée utilisateur 123 est un composant qui permet une entrée par un utilisateur. Une telle entrée utilisateur peut permettre à l’appareil de commande 180 de commander le fonctionnement du terminal mobile 100. L’unité d’entrée utilisateur 123 peut inclure un ou plusieurs parmi un élément d’entrée mécanique (par exemple, une touche, un bouton situé sur une surface avant et/ou arrière ou une surface latérale du terminal mobile 100, un interrupteur bombé, une roue à impulsion, un interrupteur à impulsion, et analogues), ou une entrée tactile, entre autres. A titre d’exemple, l’entrée tactile peut être une touche virtuelle ou une touche programmable, qui est affichée sur un écran tactile par l’intermédiaire de traitement logiciel, ou une touche tactile qui est située sur le terminal mobile à un emplacement qui est autre que l’écran tactile.
En outre, la touche virtuelle ou la touche visuelle peut être affichée sur l’écran tactile en diverses formes, par exemple, un graphique, un texte, une icône, une vidéo, ou une association de ceux-ci. L’unité d’entrée utilisateur 123 peut reconnaître des informations détectées par l’unité de détection 140, ainsi que par le mécanisme d’entrée mécanique et le mécanisme d’entrée de type tactile susmentionnés, sous forme d’entrée d’informations à partir d’un utilisateur. Par conséquent, l’appareil de commande 180 peut commander un fonctionnement du terminal mobile 100 correspondant aux informations détectées. L’unité de détection 140 est généralement configurée pour détecter une ou plusieurs parmi des informations internes du terminal mobile, des informations d’environnement proche du terminal mobile, des informations utilisateur, ou analogues. L’appareil de commande 180 coopère généralement avec l’unité de détection 140 pour commander le fonctionnement du terminal mobile 100 ou exécuter un traitement de données, une fonction ou une opération associée avec un programme d’application installé dans le terminal mobile en fonction de la détection fournie par l’unité de détection 140. L’unité de détection 140 peut être mise en œuvre en utilisant un quelconque parmi une variété de capteurs, dont certains vont à présent être décrits de façon plus détaillée.
Le capteur de proximité 141 peut inclure un capteur pour détecter la présence ou l’absence d’un objet se rapprochant d’une surface, ou d’un objet situé près d’une surface, en utilisant un champ électromagnétique, des rayons infrarouges, ou analogues sans contact mécanique. Le capteur de proximité 141 peut être agencé sur une région intérieure du terminal mobile couverte par l’écran tactile, ou près de l’écran tactile.
Le capteur de proximité 141, par exemple, peut inclure un quelconque parmi un capteur photoélectrique de type transmis sif, un capteur photoélectrique à réflexion spéculaire, un capteur photoélectrique à réflexion miroir, un capteur de proximité à oscillation de haute fréquence, un capteur de proximité à capacitance, un capteur de proximité de type magnétique, un capteur de proximité à rayons infrarouges, et analogues. Lorsque l’écran tactile est mis en œuvre sous forme à capacitance, le capteur de proximité 141 peut détecter la proximité d’un pointeur par rapport à l’écran tactile par des changements d’un champ électromagnétique, qui répond à une approche d’un objet avec conductivité. Dans ce cas, l’écran tactile (capteur tactile) peut également être catégorisé en tant que capteur de proximité.
Le terme « toucher en proximité » sera souvent utilisé dans les présentes pour dénoter le scénario dans lequel un pointeur est positionné pour être à proximité de l’écran tactile sans entrer en contact avec l’écran tactile. Le terme « toucher à contact » sera souvent utilisé dans les présentes pour dénoter le scénario dans lequel un pointeur entre physiquement en contact avec l’écran tactile. Pour la position correspondant au toucher en proximité du pointeur par rapport à l’écran tactile, une telle position correspondra à une position où le pointeur est perpendiculaire à l’écran tactile. Le capteur de proximité 141 peut détecter le toucher en proximité, et des profils de toucher en proximité (par exemple, distance, direction, vitesse, temps, position, état de déplacement, et analogues). En général, l’appareil de commande 180 traite des données correspondant à des touchers de proximité et des profils de toucher en proximité détectés par le capteur de proximité 141, et entraîne la sortie d’informations visuelles sur l’écran tactile. En outre, l’appareil de commande 180 peut commander le terminal mobile 100 pour exécuter différentes opérations ou traiter différentes données selon le fait qu’un toucher en ce qui concerne un point sur l’écran tactile est un toucher en proximité ou un toucher à contact.
Un capteur tactile peut détecter un toucher appliqué sur l’écran tactile, tel que l’unité d’affichage 151, en utilisant un quelconque parmi une variété de procédés tactiles. Des exemples de tels procédés tactiles comprennent un type résistif, un type capacitif, un type infrarouge, et un type à champ magnétique, entre autres. A titre d’exemple, le capteur tactile peut être configuré pour convertir des changements de pression appliquée sur une partie spécifique de l’unité d’affichage 151, ou convertir une capacitance se produisant sur une partie spécifique de l’unité d’affichage 151, en signaux d’entrée électriques. Le capteur tactile peut également être configuré pour détecter non seulement une position touchée et une zone touchée, mais également une pression tactile et/ou une capacitance tactile. Un objet tactile est généralement utilisé pour appliquer une entrée tactile sur le capteur tactile. Des exemples d’objets tactiles typiques incluent un doigt, un stylo tactile, un stylet, un pointeur, ou analogues.
Lorsqu’une entrée tactile est détectée par un capteur tactile, des signaux correspondants peuvent être transmis à un appareil de commande tactile. L’appareil de commande tactile 180 peut traiter les signaux reçus, et puis transmettre des données correspondantes à l’appareil de commande 180. Par conséquent, l’appareil de commande 180 peut détecter la région de l’unité d’affichage 151 qui a été touchée. Ici, l’appareil de commande tactile 180 peut être un composant séparé de l’appareil de commande 180, l’appareil de commande 180, et des associations de ceux-ci
Dans certains modes de réalisation, l’appareil de commande 180 peut exécuter des commandes identiques ou différentes selon un type d’objet tactile qui touche l’écran tactile ou une touche tactile prévue en plus de l’écran tactile. Le fait d’exécuter la même commande ou une commande différente selon l’objet qui fournit une entrée tactile peut être décidé en fonction d’un état de fonctionnement actuel du terminal mobile 100 ou d’un programme d’application actuellement exécuté, par exemple.
Le capteur tactile et le capteur de proximité peuvent être mis en œuvre individuellement, en en association, pour détecter divers types de touchers. De tels touchers incluent un toucher court (ou tape), un toucher long, un toucher multiple, un toucher-tirer, un toucher à coup rapide, un toucher à pincement à rapprochement, un toucher à pincement à séparation, un toucher-glisser, un toucher à flottement stationnaire, et analogues.
Si l’on souhaite, un capteur ultrasonique peut être mis en œuvre pour reconnaître des informations de position relatives à un objet tactile en utilisant des ondes ultrasoniques. L’appareil de commande 180, par exemple, peut calculer une position d’une source de génération d’onde en fonction d’informations détectées par un capteur d’éclairage et une pluralité de capteurs ultrasoniques. Comme de la lumière est bien plus rapide que des ondes ultrasoniques, le temps pendant lequel la lumière atteint le capteur optique est bien plus court que le temps pendant lequel l’onde ultrasonique atteint le capteur ultrasonique. La position de la source de génération d’onde peut être calculée en utilisant ce fait. Par exemple, la position de la source de génération d’onde peut être calculée en utilisant la différence temporelle à partir du temps auquel l’onde ultrasonique atteint le capteur en fonction de la lumière en tant que signal de référence. L’appareil de captures de vues 121 inclut typiquement au moins un parmi un capteur d’appareil de captures de vues (CCD, CMOS etc.), un photo-capteur (ou capteurs d’image), et un capteur laser. La mise en œuvre de l’appareil de captures de vues 121 avec un capteur laser peut permettre la détection d’un toucher d’un objet physique par rapport à une image stéréoscopique 3D. Le photo-capteur peut être stratifié sur, ou peut chevaucher, le dispositif d’affichage. Le photo-capteur peut être configuré pour balayer un mouvement de l’objet physique à proximité de l’écran tactile. De façon plus détaillée, le photo-capteur peut inclure des photodiodes et des phototransistors en rangées et colonnes pour balayer un contenu reçu dans le photocapteur en utilisant un signal électrique qui change selon la quantité de lumière appliquée. A savoir, le photo-capteur peut calculer les coordonnées de l’objet physique selon une variation de lumière pour ainsi obtenir des informations de position de l’objet physique. L’unité d’affichage 151 est généralement configurée pour sortir des informations traitées dans le terminal mobile 100. Par exemple, l’unité d’affichage 151 peut afficher des informations d’écran d’exécution d’un programme d’application exécuté dans le terminal mobile 100 ou des informations d’interface utilisateur (UI) et d’interface utilisateur graphique (GUI) en réponse aux informations d’écran d’exécution.
Dans certains modes de réalisation, l’unité d’affichage 151 peut être mise en œuvre sous forme d’unité d’affichage stéréoscopique pour afficher des images stéréoscopiques. Une unité d’affichage stéréoscopique typique peut utiliser un schéma d’affichage stéréoscopique tel qu’un schéma stéréoscopique (un schéma à verre), un schéma auto-stéréoscopique (schéma sans verre), un schéma de projection (schéma holographique), ou analogues.
Le module de sortie audio 152 est généralement configuré pour sortir des données audio. De telles données audio peuvent être obtenues à partir d’une quelconque parmi un nombre de sources différentes, de sorte que les donnés audio puissent être reçues à partir de l’unité de communication sans fil 110 ou puissent avoir été stockées dans la mémoire 170. Les donnés audio peuvent être sorties durant des modes tels qu’un mode de réception de signal, un mode d’appel, un mode d’enregistrement, un mode de reconnaissance vocale, un mode de réception de diffusion, et analogues. Le module de sortie audio 152 peut fournir une sortie audible connexe à une fonction particulière (par exemple, un son de réception de signal d’appel, un son de réception de message, etc.) réalisée par le terminal mobile 100. Le module de sortie audio 152 peut également être mis en œuvre sous forme de récepteur, de haut-parleur, d’avertisseur sonore, ou analogues.
Un module haptique 153 peut être configuré pour générer divers effets tactiles qu’un utilisateur ressent, perçoit, ou éprouve autrement. Un exemple typique d’un effet tactile généré par le module haptique 153 est la vibration. L’intensité, le mode et analogues de la vibration générée par le module haptique 153 peuvent être commandés par sélection utilisateur ou réglage par l’appareil de commande. Par exemple, le module haptique 153 peut sortir des vibrations différentes de manière combinatoire ou séquentielle.
En plus de la vibration, le module haptique 153 peut générer divers autres effets tactiles, y compris un effet par stimulation tel qu’un agencement à épingle se déplaçant verticalement pour entrer en contact avec la peau, une force de pulvérisation ou force d’aspiration d’air à travers un orifice à jet ou une ouverture à aspiration, un toucher de la peau, un contact d’une électrode, une force électrostatique, en effet en reproduisant la sensation de froid et de chaud en utilisant un élément qui peut absorber ou générer de la chaleur, et analogues.
Le module haptique 153 peut également être mis en œuvre pour permettre à l’utilisateur de ressentir un effet tactile par l’intermédiaire d’une sensation musculaire par exemple les doigts ou le bras de l’utilisateur, ainsi que le transfert de l’effet tactile par contact direct. Deux, ou plus, modules haptiques 153 peuvent être prévus selon la configuration particulière du terminal mobile 100.
Un module de sortie optique 154 peut sortir un signal pour indiquer une génération d’événement en utilisant de la lumière d’une source lumineuse. Des exemples d’événements générés dans le terminal mobile 100 peuvent inclure la réception de message, la réception de signal d’appel, un appel en absence, une alarme, une annonce d’agenda, une réception d’email, une réception d’informations par l’intermédiaire d’une application, et analogues. Un signal sorti par le module de sortie optique 154 peut être mis en œuvre pour que le terminal mobile émette une lumière monochrome ou une lumière avec une pluralité de couleurs. Le signal sorti peut être terminé lorsque le terminal mobile détecte qu’un utilisateur a contrôlé l’événement généré, par exemple. L’unité d’interface 160 sert d’interface pour que des dispositifs externes soient connectés au terminal mobile 100. Par exemple, l’unité d’interface 160 peut recevoir des données transmises à partir d’un dispositif externe, recevoir de l’énergie électrique à transférer à des éléments ou des composants à l’intérieur du terminal mobile 100, ou transmettre des données internes du terminal mobile 100 à un tel dispositif externe. L’unité d’interface 160 peut inclure des ports de casque d’écoute câblé ou sans fil, des ports d’alimentation en énergie électrique externe, des ports de données câblés ou sans fil, des ports de carte de mémoire, des ports pour connecter un dispositif possédant un module d’identification, des ports d’entrée/de sortie (LO) audio, des ports LO vidéo, des ports d’oreillette, ou analogues.
Le module d’identification peut être une puce qui stocke diverses informations pour authentifier l’autorité d’utiliser le terminal mobile 100 et peut inclure un module d’identité d’utilisateur (UIM), un module d’identité d’abonné (SIM), un module d’identité d’abonné universel (USIM), et analogues. En outre, le dispositif possédant le module d’identification (également appelé dans les présentes « dispositif d’identification ») peut prendre la forme d’une carte à puce intelligente. Par conséquent, le dispositif d’identification peut être connecté avec le terminal 100 par l’intermédiaire de l’unité d’interface 160.
Lorsque le terminal mobile 100 est connecté avec une station d’accueil externe, l’unité d’interface 160 peut servir de passage pour permettre à de l’énergie électrique à partir de la station d’accueil d’être fournie au terminal mobile 100 ou peut servir de passage pour permettre à divers signaux d’ordre entrés par l’utilisateur à partir de la station d’accueil d’être transférés au terminal mobile à travers celle-ci. Divers signaux d’ordre ou de l’énergie électrique entrée à partir de la station d’accueil peuvent servir de signaux pour reconnaître que le terminal mobile est correctement monté sur la station d’accueil.
La mémoire 170 peut stocker des programmes pour supporter des opérations de l’appareil de commande 180 et stocker des données d’entrée/de sortie (par exemple, annuaire téléphonique, messages, images inanimées, vidéos, etc.). La mémoire 170 peut stocker des données connexes à divers profils de vibrations et audio qui sont sortis en réponse à des entrées tactiles sur l’écran tactile.
La mémoire 170 peut inclure un ou plusieurs types de supports de stockage y compris une mémoire Flash, un disque dur, un disque à semi-conducteurs, un disque au silicium, un micro-type de carte multimédia, une mémoire de type carte (par exemple, mémoire SD ou DX, etc.), une mémoire vive (ou RAM), une mémoire vive statique (SRAM), une mémoire morte (ROM), une mémoire morte effaçable et programmable électriquement (EEPROM), une mémoire morte programmable (PROM), une mémoire magnétique, un disque magnétique, un disque optique, et analogues. Le terminal mobile 100 peut également être mis en fonctionnement par rapport à un dispositif de stockage de réseau qui réalise la fonction de stockage de la mémoire 170 par l’intermédiaire d’un réseau, tel qu’Intemet. L’appareil de commande 180 peut typiquement commander les opérations générales du terminal mobile 100. Par exemple, l’appareil de commande 180 peut régler ou libérer un état de verrouillage pour empêcher un utilisateur d’entrer un ordre de commande en ce qui concerne des applications lorsqu’un état du terminal mobile satisfait à une condition préréglée. L’appareil de commande 180 peut également réaliser la commande et le traitement associés avec des appels vocaux, des communications de données, des appels vidéo, et analogues, ou réaliser un traitement de reconnaissance de formes pour reconnaître une entrée d’écriture manuscrite ou une entrée de dessin réalisée sur l’écran tactile en tant que caractères ou images, respectivement. En outre, l’appareil de commande 180 peut commander un composant ou une association de ces composants afin de mettre en œuvre divers modes de réalisation décrits dans les présentes. L’unité d’alimentation en énergie électrique 190 reçoit de l’énergie électrique externe ou fournit de l’énergie électrique interne et réalise l’alimentation en énergie électrique appropriée requise pour faire fonctionner des éléments et composants respectifs inclus dans le terminal mobile 100. L’unité d’alimentation en énergie électrique 190 peut inclure une batterie, qui est typiquement rechargeable ou est accouplée de façon amovible au corps de terminal pour la charge. L’unité d’alimentation en énergie électrique 190 peut inclure un port de connexion. Le port de connexion peut être configuré à titre d’exemple de l’unité d’interface 160 à laquelle un chargeur externe pour réaliser l’alimentation en énergie électrique pour recharger la batterie est électriquement connecté. A titre d’autre exemple, l’unité d’alimentation en énergie électrique 190 peut être configurée pour recharger la batterie sans fil sans utiliser le port de connexion. Dans le présent exemple, l’unité d’alimentation en énergie électrique 190 peut recevoir de l’énergie électrique, transférée à partir d’un émetteur d’énergie électrique sans fil externe, en utilisant au moins un parmi un procédé de couplage inductif qui est fondé sur une induction magnétique ou un procédé de couplage à résonance magnétique qui est fondé sur une résonance électromagnétique.
Divers modes de réalisation décrits dans les présentes peuvent être mis en œuvre dans un support lisible par ordinateur, un support lisible par machine, ou support similaire en utilisant, par exemple, un logiciel, un matériel, ou une quelconque association de ceux-ci.
En faisant à présent référence aux figures IB et IC, le terminal mobile 100 est décrit en faisant référence à un corps de terminal de type barre. Cependant, le terminal mobile 100 peut être mis en œuvre en variante dans une quelconque parmi une variété de différentes configurations. Des exemples de telles configurations incluent un type montre, un type barrette, un type lunettes, ou sous forme de type pliable, de type à rabat, de type coulissant, de type à bascule, et de type pivotant dans lequel deux et plus corps sont associés les uns aux autres de manière relativement mobile, et des associations de ceux-ci. La description dans les présentes se rapportera souvent à un type particulier de terminal mobile.
Le terminal mobile 100 comprendra généralement un boîtier (par exemple, cadre, logement, couvercle, et analogues) formant l’apparence du terminal. Dans ce mode de réalisation, le boîtier est formé en utilisant un boîtier avant 101 et un boîtier arrière 102. Divers composants électroniques sont incorporés dans un espace formé entre le boîtier avant 101 et le boîtier arrière 102. Au moins un boîtier médian peut en outre être positionné entre le boîtier avant 101 et le boîtier arrière 102. L’unité d’affichage 151 est représentée située sur le côté avant du corps de terminal pour sortir des informations. Comme cela est illustré, une fenêtre 151a de l’unité d’affichage 151 peut être montée sur le boîtier avant 101 pour former la surface avant du corps de terminal conjointement avec le boîtier avant 101.
Dans certains modes de réalisation, des composants électroniques peuvent également être montés sur le boîtier arrière 102. Des exemples de tels composants électroniques incluent une batterie amovible 191, un module d’identification, une carte de mémoire, et analogues. Un couvercle arrière 103 est représenté recouvrant les composants électroniques, et ce couvercle peut être accouplé de façon amovible au boîtier arrière 102. Donc, lorsque le couvercle arrière 103 est enlevé du boîtier arrière 102, les composants électroniques montés sur le boîtier arrière 102 sont exposés extérieurement.
Comme cela est illustré, lorsque le couvercle arrière 103 est accouplé au boîtier arrière 102, une surface latérale du boîtier arrière 102 est partiellement exposée. Dans certains cas, lors de l’accouplement, le boîtier arrière 102 peut également être complètement protégé par le couvercle arrière 103. Dans certains modes de réalisation, le couvercle arrière 103 peut inclure une ouverture pour exposer extérieurement un appareil de captures de vues 121b ou un module de sortie audio 152b.
Les boîtiers 101, 102, 103 peuvent être formés en moulant par injection une résine synthétique ou peuvent être formés d’un métal, par exemple, de l’acier inoxydable (STS), de l’aluminium (Al), du titane (Ti), ou analogues. Au lieu de l’exemple dans lequel la pluralité de boîtiers forment un espace intérieur pour loger des composants, le terminal mobile 100 peut être configuré de sorte qu’un boîtier forme l’espace intérieur. Dans le présent exemple, un terminal mobile 100 possédant un uni-corps est formé pour que de la résine synthétique ou un métal s’étende d’une surface latérale à une surface arrière.
Si Ton souhaite, le terminal mobile 100 peut inclure une unité d’étanchéité à l’eau pour empêcher l’introduction d’eau dans le corps de terminal. Par exemple, l’unité d’étanchéité à l’eau peut inclure un élément d’étanchéité à l’eau qui est situé entre la fenêtre 151a et le boîtier avant 101, entre le boîtier avant 101 et le boîtier arrière 102, ou entre le boîtier arrière 102 et le couvercle arrière 103, pour fermer hermétiquement un espace intérieur lorsque ces boîtiers sont accouplés.
Le terminal mobile 100 peut inclure l’unité d’affichage 151, des première et seconde unités de sortie audio 152a et 152b, le capteur de proximité 141, un capteur d’éclairage 142, une unité de sortie de lumière 154, des premier et second appareils de captures de vues 121a et 121b, des première et seconde unités de manipulation 123a et 123b, un microphone 122, une unité d’interface 160, et analogues.
Ci-après, comme cela est illustré sur les figures IB et IC, le terminal mobile 100 dans lequel l’unité d’affichage 151, la première unité de sortie audio 152a, le capteur de proximité 141, le capteur d’éclairage 142, le module de sortie optique 154, le premier appareil de captures de vues 121a, et la première unité de manipulation 123a sont disposés sur une surface avant du corps de terminal, la seconde unité de manipulation 123b, le microphone 122, et l’unité d’interface 160 sont disposés sur le côté du corps de terminal, et la seconde unité de sortie audio 152b et le second appareil de captures de vues 121b sont disposés sur une surface arrière du corps de terminal va être décrit à titre d’exemple.
Cependant, les composants ne sont pas limités à cette configuration. Les composants peuvent être exclus, remplacés, ou disposés sur d’autres surfaces selon les besoins. Par exemple, la première unité de manipulation 123a peut ne pas être prévue sur la surface avant du corps de terminal, et la seconde unité de sortie audio 152b peut être prévue sur le côté du corps de terminal, plutôt que sur la surface arrière du corps de terminal. L’unité d’affichage 151 peut afficher (ou sortir) des informations traitées dans le terminal mobile 100. Par exemple, l’unité d’affichage 151 peut afficher des informations d’écran exécutées d’un programme d’application piloté dans le terminal mobile 100, ou des informations d’interface utilisateur (UI) ou des informations d’interface utilisateur graphique (GUI) selon les informations d’écran exécutées. L’unité d’affichage 151 peut inclure un écran d’affichage à cristaux liquides (LCD), un écran d’affichage à cristaux liquides à transistor à couches minces (TFT-LCD), une diode électroluminescente organique (OLED), un écran d’affichage flexible, un écran d’affichage tridimensionnel (3D), et un écran d’affichage à encre électronique. L’unité d’affichage 151 peut être mise en œuvre en utilisant deux dispositifs d’affichage, qui peuvent mettre en œuvre la même technologie ou une technologie d’affichage différente. Par exemple, une pluralité des unités d’affichage 151 peuvent être agencées sur un côté, espacées les unes des autres, ou ces dispositifs peuvent être intégrés, ou ces dispositifs peuvent être agencés sur des surfaces différentes. L’unité d’affichage 151 peut également inclure un capteur tactile qui détecte une entrée tactile reçue sur l’unité d’affichage. Lorsqu’un toucher est entré dans l’unité d’affichage 151, le capteur tactile peut être configuré pour détecter ce toucher et l’appareil de commande 180, par exemple, peut générer un ordre de commande ou autre signal correspondant au toucher. Le contenu qui est entré de manière tactile peut être un texte ou une valeur numérique, ou un article de menu qui peut être intégré ou désigné dans divers modes.
Le capteur tactile peut être configuré sous forme de film possédant un profil tactile, disposé entre la fenêtre 151a et un écran d’affichage sur une surface arrière de la fenêtre 151a, ou un fil métallique qui est placé en motif directement sur la surface arrière de la fenêtre 151a. En variante, le capteur tactile peut être formé d’une seule pièce avec l’écran d’affichage. Par exemple, le capteur tactile peut être disposé sur un substrat de l’écran d’affichage ou à l’intérieur de l’écran d’affichage. L’unité d’affichage 151 peut également former un écran tactile conjointement avec le capteur tactile. Ici, l’écran tactile peut servir d’unité d’entrée utilisateur 123 (voir figure IA). Donc, l’écran tactile peut remplacer au moins certaines des fonctions de la première unité de manipulation 123 a.
Le premier module de sortie audio 152a peut être mis en œuvre sous forme de récepteur et la seconde unité de sortie audio 152b peut être mise en œuvre sous forme de haut-parleur pour sortir un audio vocal, des sons d’alarme, une reproduction audio multimédia, et analogues.
La fenêtre 151a de l’unité d’affichage 151 inclura typiquement une ouverture pour permettre à un audio généré par le premier module de sortie audio 152a de passer. Une variante est de permettre à un audio d’être libéré le long d’un espace d’assemblage entre les corps structurels (par exemple, un espace entre la fenêtre 151a et le boîtier avant 101). Dans ce cas, un trou formé indépendamment pour sortir des sons audio peut ne pas être vu ou est autrement camouflé en termes d’apparence, simplifiant ainsi davantage l’apparence et la fabrication du terminal mobile 100.
Le module de sortie optique 154 peut être configuré pour sortir de la lumière pour indiquer une génération d’événement. Des exemples de tels événements incluent une réception de message, une réception de signal d’appel, un appel en absence, une alarme, une annonce d’agenda, une réception d’email, une réception d’informations par l’intermédiaire d’une application, et analogues. Lorsqu’un utilisateur a contrôlé un événement généré, l’appareil de commande peut commander l’unité de sortie optique 154 pour arrêter la sortie de lumière.
Le premier appareil de captures de vues 121a peut traiter des cadres d’image tels que des images inanimées ou animées obtenues par le capteur d’image dans un mode de capture ou un mode d’appel vidéo. Les cadres d’image traités peuvent alors être affichés sur l’unité d’affichage 151 ou stockés dans la mémoire 170.
Les première et seconde unités de manipulation 123 a et 123b sont des exemples de l’unité d’entrée utilisateur 123, qui peuvent être manipulées par utilisateur pour fournir une entrée dans le terminal mobile 100. Les première et seconde unités de manipulation 123 a et 123b peuvent également être appelées communément partie de manipulation, et peuvent utiliser un quelconque procédé tactile qui permet à l’utilisateur de réaliser une manipulation telle que le toucher, le pousser, le défilement, ou analogues. Les première et seconde unités de manipulation 123 a et 123b peuvent également utiliser un quelconque procédé non tactile qui permet à l’utilisateur de réaliser une manipulation telle que le toucher en proximité, le flottement stationnaire, ou analogues.
La figure IB illustre la première unité de manipulation 123a sous forme de touche tactile, mais d’autres possibilités incluent une touche mécanique, une touche poussoir, une touche tactile, et des associations de celles-ci. Une entrée reçue dans les première et seconde unités de manipulation 123 a et 123b peut être utilisée de diverses manières. Par exemple, la première unité de manipulation 123a peut être utilisée par l’utilisateur pour fournir une entrée à un menu, une touche d’accueil, une annulation, une recherche, ou analogues, et la seconde unité de manipulation 123b peut être utilisée par l’utilisateur pour fournir une entrée pour commander un niveau de volume sorti du premier ou du second module de sortie audio 152a ou 152b, pour passer à un mode de reconnaissance tactile de l’unité d’affichage 151, ou analogues. A titre d’autre exemple de l’unité d’entrée utilisateur 123, une unité d’entrée arrière peut être située sur la surface arrière du corps de terminal. L’unité d’entrée arrière peut être manipulée par un utilisateur pour fournir une entrée dans le terminal mobile 100. L’entrée peut être utilisée d’une variété de différentes manières. Par exemple, l’unité d’entrée arrière peut être utilisée par l’utilisateur pour fournir une entrée pour allumer/éteindre, commencer, terminer, faire défiler, commander le niveau de volume sorti du premier ou du second module de sortie audio 152a ou 152b, passer à un mode de reconnaissance tactile de l’unité d’affichage 151, et analogues. L’unité d’entrée arrière peut être configurée pour permettre une entrée tactile, une entrée de pousser, ou des associations de celles-ci. L’unité d’entrée arrière peut être située pour chevaucher l’unité d’affichage 151 du côté avant dans une direction d’épaisseur du corps de terminal. A titre d’exemple, l’unité d’entrée arrière peut être située sur une partie d’extrémité arrière du côté arrière du corps de terminal de sorte qu’un utilisateur puisse facilement la manipuler en utilisant l’index lorsque l’utilisateur saisit le corps de terminal avec une main. Cependant, la présente invention n’est pas limitée à ceci et une position de l’unité d’entrée arrière peut être modifiée.
Lorsque l’unité d’entrée arrière est prévue sur la surface arrière du corps de terminal, une nouvelle interface utilisateur peut être mise en œuvre. Aussi, lorsque l’écran tactile ou l’unité d’entrée arrière, tels qu’ils sont décrits ci-dessus, remplace au moins certaines fonctions de la première unité de manipulation 123 a prévue sur la surface avant du corps de terminal et donc la première unité de manipulation 123a est omise de la surface avant du corps de terminal, l’unité d’affichage 151 peut posséder un écran plus grand. A titre de possibilité supplémentaire, le terminal mobile 100 peut inclure un capteur de balayage digital qui balaye l’empreinte digitale d’un utilisateur. L’appareil de commande 180 peut alors utiliser des informations d’empreinte digitale détectées par le capteur de balayage digital en tant que partie d’une procédure d’authentification. Le capteur de balayage digital peut également être installé dans l’unité d’affichage 151 ou mis en œuvre dans l’unité d’entrée utilisateur 123.
Le microphone 122 est représenté situé à une extrémité du terminal mobile 100, mais d’autres emplacements sont possibles. Si l’on souhaite, de multiples microphones peuvent être mis en œuvre, avec un tel agencement permettant la réception de sons stéréo. L’unité d’interface 160 peut servir de parcours permettant au terminal mobile 100 de réaliser une interface avec des dispositifs externes. Par exemple, l’unité d’interface 160 peut inclure un ou plusieurs parmi une borne de connexion pour la connexion à un autre dispositif (par exemple, une oreillette, un haut-parleur externe, ou analogues), un port pour communication en champ proche (par exemple, un port IrDA, un port Bluetooth, un port LAN sans fil, et analogues), ou une borne d’alimentation en énergie électrique pour réaliser l’alimentation en énergie électrique au terminal mobile 100. L’unité d’interface 160 peut être mise en œuvre sous forme de connecteur pour loger une carte externe, telle qu’un module d’identification d’abonné (SIM), un module d’identification d’utilisateur (UIM), ou une carte de mémoire pour stockage d’informations.
Le second appareil de captures de vues 121b est représenté situé sur le côté arrière du corps de terminal et inclut une direction de capture d’image qui est sensiblement opposée à la direction de capture d’image de la première unité d’appareil de captures de vues 121a. En outre, le second appareil de captures de vues 121b peut inclure une pluralité de lentilles agencées le long d’au moins une ligne. La pluralité de lentilles peut également être agencée en une configuration de matrice. Les appareils de captures de vues peuvent être appelés « appareil de captures de vues en réseau ». Lorsque le second appareil de captures de vues 121b est mis en œuvre sous forme d’appareil de captures de vues en réseau, des images peuvent être capturées de diverses manières en utilisant la pluralité de lentilles et des images avec de meilleures qualités.
Comme cela est représenté sur la figure IC, un flash 124 est représenté adjacent au second appareil de captures de vues 121b. Lorsqu’une image d’un sujet est capturée avec l’appareil de captures de vues 121b, le flash 124 peut éclairer le sujet. Comme cela est représenté sur la figure IC, le second module de sortie audio 152b peut être situé sur le corps de terminal. Le second module de sortie audio 152b peut mettre en œuvre des fonctions de son stéréophonique conjointement avec le premier module de sortie audio 152a, et peut être également utilisé pour mettre en œuvre un mode de téléphone en haut-parleur pour communication d’appel.
Au moins une antenne pour la communication sans fil peut être située sur le corps de terminal. L’antenne peut être installée dans le corps de terminal ou formée par le boîtier. Par exemple, une antenne qui configure une partie du module de réception de diffusion 111 peut être rétractable dans le corps de terminal. En variante, une antenne peut être formée en utilisant un film fixé à une surface intérieure du couvercle arrière 103, ou un boîtier qui inclut un matériau conducteur.
Une unité d’alimentation en énergie électrique 190 pour réaliser l’alimentation en énergie électrique au terminal mobile 100 peut inclure une batterie 191, qui est montée dans le corps de terminal ou accouplée de façon amovible à un extérieur du corps de terminal. La batterie 191 peut recevoir de l’énergie électrique par l’intermédiaire d’un câble de source d’énergie électrique connecté à l’unité d’interface 160. Aussi, la batterie 191 peut être rechargée sans fil en utilisant un chargeur sans fil. La charge sans fil peut être mise en œuvre par induction magnétique ou résonance électromagnétique.
Le couvercle arrière 103 est représenté accouplé au boîtier arrière 102 pour protéger la batterie 191, pour empêcher la séparation de la batterie 191, et pour protéger la batterie 191 d’un impact externe ou de matières étrangères. Lorsque la batterie 191 est amovible du corps de terminal, le boîtier arrière 103 peut être accouplé de façon amovible au boîtier arrière 102.
Un accessoire pour protéger une apparence ou assister ou augmenter les fonctions du terminal mobile 100 peut également être prévu sur le terminal mobile 100. A titre d’exemple d’un accessoire, un couvercle ou une pochette pour couvrir ou loger au moins une surface du terminal mobile 100 peut être prévu. Le couvercle ou la pochette peut coopérer avec l’unité d’affichage 151 pour augmenter la fonction du terminal mobile 100. Un autre exemple de l’accessoire est un stylo tactile pour assister ou augmenter une entrée tactile sur un écran tactile.
Le terminal mobile qui peut inclure un ou plusieurs parmi les composants tels qu’ils sont décrits ci-dessus selon un mode de réalisation de la présente invention peut afficher une image reçue par l’intermédiaire d’un appareil de captures de vues sur une unité d’écran d’affichage. De façon plus détaillée, le terminal mobile peut afficher une image reçue par l’intermédiaire d’un appareil de captures de vues sur une unité d’écran d’affichage en temps réel. Ici, une image reçue par l’intermédiaire de l’appareil de captures de vues peut être appelée « image de prévisualisation », « image », ou analogues.
Le terminal mobile selon un mode de réalisation de la présente invention peut fournir une fonction de capture d’image de stockage d’une image (image de prévisualisation) reçue par l’intermédiaire d’un appareil de captures de vues dans une mémoire. Ici, l’opération de stockage, par le terminal mobile, d’une image reçue par l’intermédiaire de l’appareil de captures de vues dans la mémoire peut être appelée « capturer une image », « obtenir une image », « capturer une image de prévisualisation », « réaliser une capture sur une image de prévisualisation », « traiter un ordre de formation d’image sur une image de prévisualisation», «réaliser une fonction de capture d’image sur une image de prévisualisation », ou analogues. Aussi, sans être limité aux expressions mentionnées ci-dessus, une quelconque expression peut être utilisée librement du moment qu’elle signifie qu’une image reçue par l’intermédiaire d’un appareil de captures de vues est stockée dans une unité de mémoire.
Dans un mode de réalisation, un terminal mobile peut réaliser une opération de capture d’image en fonction de sélection utilisateur. Une telle sélection utilisateur peut être appelée « ordre de commande utilisateur » ou « ordre de commande ». La sélection utilisateur peut être réalisée de diverses manières. Par exemple, un utilisateur peut sélectionner une fonction de capture d’image en touchant ou pressant une touche de matériel prévue dans le terminal mobile ou en touchant au moins une parmi une sortie de touche logicielle et une sortie de touche visuelle sur l’unité d’affichage 151. A savoir, lorsqu’une touche de matériel associée à une fonction de capture d’image est touchée ou pressée ou lorsqu’au moins une parmi une sortie de touche logicielle et une sortie de touche visuelle sur l’unité d’affichage 151 est touchée, l’appareil de commande 180 peut déterminer qu’un ordre de commande utilisateur pour réaliser une fonction de capture d’image a été reçu. En fonction d’un tel ordre de commande, l’appareil de commande 180 peut capturer une image entrée par l’intermédiaire de l’appareil de captures de vues 121. Aussi, en plus de ces exemples, la fonction de capture d’image peut être réalisée lorsqu’une voix d’utilisateur correspondant à un ordre préréglé est reçue, lorsqu’un geste particulier est appliqué sur le terminal mobile, ou lorsqu’un mouvement préréglé est détecté par le terminal mobile.
Entretemps, dans un mode de réalisation de la présente invention, la fonction de capture d’image peut être exécutée. L’exécution de la fonction de capture d’image peut faire référence à l’exécution d’une application pilotée pour capturer une image. Lorsque la fonction de capture d’image est exécutée, l’appareil de commande 180 peut activer l’appareil de captures de vues 121 en préparation pour capturer une image. Aussi, l’appareil de commande 180 peut sortir une image entrée par l’intermédiaire de l’appareil de captures de vues 121 sur l’unité d’affichage 151.
En outre, dans un mode de réalisation de la présente invention, une image entrée par l’intermédiaire de l’appareil de captures de vues activé 121 et sortie sur l’unité d’affichage 151 est définie comme étant une « image de prévisualisation ». En tant qu’imagé de prévisualisation, une image entrée par l’intermédiaire de l’appareil de captures de vues 121 en temps réel peut être affichée sur l’unité d’affichage 151. Aussi, lorsqu’une opération de capture d’image est réalisée en fonction d’une sélection utilisateur, l’appareil de commande 180 peut stocker une image de prévisualisation sortie sur l’unité d’affichage 151 dans la mémoire 170.
Ci-après, un fonctionnement du terminal mobile dans l’exécution de la fonction de capture d’image va être décrit en faisant référence à la figure 2. En particulier, la figure 2 est une vue conceptuelle d’un terminal mobile selon un mode de réalisation de la présente invention. Comme cela est décrit ci-dessus, le terminal mobile selon un mode de réalisation de la présente invention peut exécuter une fonction de capture d’image.
Par exemple, la fonction de capture d’image peut être exécutée lorsqu’une icône associée à la fonction de capture d’image (ou une icône d’une application) est sélectionnée (ou touchée). Lorsque la fonction de capture d’image est exécutée par l’intermédiaire de l’icône, l’unité d’affichage 151 peut être dans un état allumé. En plus de la méthode de sélection de l’icône associée à la fonction de capture d’image pour exécuter la fonction de capture d’image, la fonction de capture d’image peut également être exécutée lorsqu’au moins une parmi des touches prévues dans le terminal mobile (par exemple, au moins une parmi une touche de matériel et une touche logicielle) est sélectionnée. Dans ce cas, bien que l’unité d’affichage 151 soit dans un état éteint, l’appareil de commande 180 peut exécuter la fonction de capture d’image en réponse à la sélection d’une touche prévue dans le terminal mobile.
Lorsque la fonction de capture d’image est exécutée comme cela est mentionné ci-dessus, l’appareil de commande 180 peut afficher une image de prévisualisation 300 et un objet graphique 302 connexes à la fonction de capture d’image sur l’unité d’affichage 151 comme cela est illustré sur (a) de la figure 2. A savoir, l’appareil de commande 180 peut sortir l’objet graphique 302 connexe à la fonction de capture d’image sur l’unité d’affichage 151 en chevauchement. Ici, l’objet graphique 302 peut être au moins une parmi la touche logicielle et la touche visuelle, comme cela est décrit ci-dessus.
Aussi, en fonction d’une demande utilisateur, l’appareil de commande 180 peut commander l’appareil de captures de vues pour réaliser une capture sur l’image de prévisualisation 300. De façon plus détaillée, en fonction d’une demande utilisateur appliquée sur l’objet graphique 302 sorti sur l’unité d’affichage 151, l’appareil de commande 180 peut régler des fonctions (par exemple, le réglage, mode de capture d’image, la permutation entre un appareil de captures de vues avant et un appareil de captures de vues arrière, le flash, la permutation entre une image inanimée et une vidéo, l’entrée dans la mémoire, et analogues) connexes à la fonction de capture d’image, et peut réaliser la capture sur l’image de prévisualisation 300 en fonction d’un toucher appliqué sur un bouton de capture d’image.
Dans un mode de réalisation de la présente invention, un état dans lequel l’objet graphique 302 connexe à la fonction de capture d’image chevauche l’image de prévisualisation 300, comme cela est illustré sur (a) de la figure 2, est défini comme étant un « premier état ». Dans le terminal mobile selon un mode de réalisation de la présente invention, lorsque la fonction de capture d’image est exécutée, l’objet graphique 302 peut ne pas être sorti et seulement l’image de prévisualisation 300 peut être sortie sur l’unité d’affichage 151, comme cela est illustré sur (b) de la figure 2.
En outre, l’état dans lequel seulement l’image de prévisualisation 300 est sortie sur l’unité d’affichage 151, sans l’objet graphique 302 sur celle-ci, comme cela est illustré sur (b) de la figure 2 peut être appelé état dans lequel la sortie de l’objet graphique 302 sur l’image de prévisualisation 300 est limitée. Aussi, dans un mode de réalisation de la présente invention, l’état dans lequel la sortie de l’objet graphique 302 sur l’image de prévisualisation 300 est limitée est défini comme étant un « second « état ». Dans le second état, l’appareil de commande 180 peut réaliser une capture sur l’image de prévisualisation 300 en fonction d’une demande utilisateur. Par exemple, lorsqu’un toucher appliqué sur une région de l’unité d’affichage 151 sortie sur l’image de prévisualisation 300 est détecté, l’appareil de commande 180 peut traiter le toucher détecté comme étant un ordre de capture d’image.
Aussi, l’appareil de commande 180 peut stocker l’image de prévisualisation capturée 300 dans la mémoire 151. En d’autres termes, l’appareil de commande 180 peut exécuter la fonction de capture d’image dans un quelconque parmi le premier état dans lequel l’objet graphique 302 et l’image de prévisualisation 300 sont sortis ensemble et le second état dans lequel la sortie de l’objet graphique 302 sur l’image de prévisualisation 300 est limitée.
Aussi, l’appareil de commande 180 peut déterminer l’état parmi le premier état et le second état dans lequel l’unité d’affichage doit fonctionner, en fonction d’une demande utilisateur. De façon plus détaillée, en fonction d’une demande utilisateur, l’appareil de commande 180 peut commander l’unité d’affichage 151 pour fonctionner dans un quelconque parmi le premier état dans lequel l’objet graphique 302 connexe à la fonction de capture d’image chevauche l’image de prévisualisation 300 et le second état dans lequel la sortie de l’objet graphique 302 sur l’image de prévisualisation 300 est limitée. L’unité d’affichage 151 peut fonctionner dans un quelconque parmi le premier état dans lequel l’objet graphique 302 connexe à la fonction de capture d’image chevauche l’image de prévisualisation 300 et le second état dans lequel la sortie de l’objet graphique 302 sur l’image de prévisualisation 300 est limitée selon une demande utilisateur. Par exemple, en fonction d’une demande utilisateur, l’appareil de commande 180 peut sortir un menu pour sélectionner un quelconque parmi le premier état et le second état, et lorsque l’utilisateur sélectionne un quelconque parmi le premier état et le second état à partir du menu, l’appareil de commande 180 peut commander l’unité d’affichage 151 pour fonctionner dans l’état sélectionné. Dans un autre exemple, lorsqu’un toucher de type préréglé (par exemple, un toucher à coup rapide) appliqué par l’utilisateur sur l’unité d’affichage 151 est détecté, l’appareil de commande 180 peut permuter un état de l’unité d’affichage 151 du premier état au second état ou du second état au premier état.
Lorsque l’unité d’affichage 151 est dans le premier état, l’appareil de commande 180 peut capturer l’image de prévisualisation 300 en fonction d’une sélection utilisateur (ou toucher) en ce qui concerne l’objet graphique 302 (bouton de capture d’image) sortie sur l’unité d’affichage 151. Un procédé d’exécution d’une fonction de capture d’image sur l’image de prévisualisation 300 lorsque l’unité d’affichage 151 est dans le second état va à présent être décrit en détail.
Ci-après, le procédé de réalisation de capture d’image lorsque l’unité d’affichage 151 est dans le second état va être décrit en détail en faisant référence aux figures 3 et 4. La figure 3 est un organigramme illustrant un procédé de commande d’un terminal mobile selon un mode de réalisation de la présente invention, et la figure 4 est une vue conceptuelle illustrant le procédé de commande de la figure 3. L’appareil de commande 180 peut exécuter la fonction de capture d’image, et la fonction de capture d’image peut être exécutée de diverses manières en fonction de sélection de (ou de toucher appliqué sur) une icône associée à la fonction de capture d’image (ou une icône d’une application).
Lorsque la fonction de capture d’image est exécutée, l’appareil de commande 180 peut activer l’appareil de captures de vues 121. L’appareil de commande 180 peut sortir l’image de prévisualisation 300 entrée par l’intermédiaire de l’appareil de captures de vues 121 sur l’unité d’affichage 151. L’unité d’affichage 151 peut inclure une région d’affichage (ou une région d’affichage d’écran d’exécution) sur laquelle un écran d’exécution d’une application est affiché. Seulement l’image de prévisualisation 300 peut être sortie sur la région d’affichage. A savoir, un objet graphique connexe à une capture d’image peut ne pas être affiché sur l’unité d’affichage 151. En d’autres termes, l’appareil de commande 180 peut limiter la sortie d’un objet graphique relatif à la fonction de capture d’image. Comme la sortie d’un objet graphique est limitée, seulement une image de prévisualisation peut être sortie sur l’unité d’affichage 151 comme cela est représenté dans l’étape S310. Ainsi, un phénomène dans lequel une partie de l’image de prévisualisation est couverte par un objet graphique lorsque l’objet graphique est sorti ne se produit pas. A savoir, l’appareil de commande 180 peut limiter la sortie d’une image graphique relative à la fonction de capture d’image et sortir l’image de prévisualisation 300 (par exemple, sous forme de plein écran). De façon plus détaillée, l’appareil de commande 180 peut ne pas sortir un objet graphique qui couvre une partie de l’image de prévisualisation. L’objet graphique peut inclure un bouton de capture d’image, un bouton de réglage pour changer un réglage en ce qui concerne l’image de prévisualisation 300, un bouton pour entrer dans une galerie pour contrôler une image stockée dans la mémoire, un bouton pour permuter entre un mode de capture d’image inanimée et un mode de capture de vidéo, et analogues.
Lorsque seulement l’image de prévisualisation 300 est sortie, sans chevaucher l’objet graphique 320, l’appareil de commande 180 peut exécuter la fonction de capture d’image. Dans ce cas, comme la sortie d’un objet graphique incluant un bouton de capture d’image, ou analogues, est limitée, l’appareil de commande 180 peut traiter une demande utilisateur en tant qu’ordre de capture d’image en ce qui concerne l’image de prévisualisation 300. A savoir, dans le second état dans lequel la sortie d’un objet graphique sur l’unité d’affichage 151 est limitée, l’appareil de commande 180 peut réaliser une capture sur l’image de prévisualisation 300 en fonction d’une demande utilisateur. Ici, la demande utilisateur peut être un toucher utilisateur appliqué sur l’unité d’affichage 151. Lorsqu’un toucher de type préréglé est détecté, l’appareil de commande 180 peut réaliser la capture sur l’image de prévisualisation 300.
En d’autres termes, dans le second état dans lequel la sortie de l’objet graphique 302 sur l’unité d’affichage 151 est limitée, lorsqu’un toucher de type préréglé est détecté dans une région dans laquelle l’image de prévisualisation 300 est sortie, l’appareil de commande 180 peut traiter le toucher détecté comme étant un ordre de capture d’image dans l’étape S320. Après cela, l’appareil de commande 180 peut réaliser la capture d’image en fonction du toucher de type préréglé détecté et stocker l’image capturée dans la mémoire 170.
Ci-après, un procédé de commande de la fonction de capture d’image en fonction de divers touchers appliqués sur une région sur laquelle une image de prévisualisation est sortie dans le second état va être décrit. Par exemple, l’appareil de commande 180 peut commander des types d’images capturées en fonction de différents types de touchers. Les types d’images peuvent inclure une image inanimée, vidéo, et analogues. Un procédé de commande du terminal mobile 100 va à présent être décrit en détail en faisant référence à la figure 5.
Lorsqu’un type préréglé de toucher est appliqué sur une partie de la région de l’unité d’affichage 151 sur laquelle l’image de prévisualisation 300 est sortie, l’appareil de commande 180 peut capturer une image. Dans ce cas, l’appareil de commande 180 peut réaliser une capture d’image indépendamment de la position à laquelle le type préréglé de toucher est appliqué. Lorsque le type préréglé de toucher est appliqué, l’appareil de commande 180 peut ajuster une mise au point en ce qui concerne l’image de prévisualisation 300.
La fonction d’ajustage de mise au point peut être réalisée en fonction de différents types préréglés de touchers appliqués. Différents types de fonctions d’ajustage de mise au point peuvent être associés aux différents types préréglés de touchers. A savoir, lorsqu’un quelconque parmi les différents types préréglés de touchers est détecté, l’appareil de commande 180 peut ajuster une mise au point en ce qui concerne l’image de prévisualisation 300 selon la méthode associée au toucher détecté. Aussi, l’appareil de commande 180 peut ajuster une mise au point en considération d’une position sur laquelle le type préréglé de toucher est appliqué.
Par exemple, lorsqu’un type préréglé de toucher appliqué sur une première région de la région de prévisualisation 300 est détecté, l’appareil de commande 180 peut ajuster une mise au point, et lorsqu’un type préréglé de toucher appliqué sur une seconde région, différente de la première région, de la région de prévisualisation est détecté, l’appareil de commande 810 peut réaliser la fonction de capture d’image sans ajuster la mise au point. Le procédé de commande relatif à l’ajustage de la mise au point par l’appareil de commande 180 va être décrit en détail en faisant référence à la figure 6. Ainsi, lorsque la capture de l’image de prévisualisation est réalisée en fonction du type préréglé détecté de toucher, l’image capturée peut être stockée dans la mémoire 170.
Ceci peut être compris en faisant référence à la figure 4. Comme cela est illustré sur (a) de la figure 4, l’appareil de commande 180 peut sortir l’image de prévisualisation 300 sur l’unité d’affichage 151 dans le second état dans lequel la sortie d’un graphique relatif à la capture d’image est limitée. Par la suite, comme cela est illustré sur (b) de la figure 4, lorsqu’un type préréglé de toucher appliqué sur la région sur laquelle l’image de prévisualisation 300 est sortie est détecté, l’appareil de commande 180 peut capturer l’image comme cela est illustré sur (c) de la figure 4. L’image capturée peut être stockée dans la mémoire 170.
Comme cela est décrit ci-dessus, dans le terminal mobile selon un mode de réalisation de la présente invention, la sortie d’un objet graphique sur l’image de prévisualisation est limitée et seulement l’image de prévisualisation est fournie, moyennant quoi l’image de prévisualisation n’est pas couverte par un objet graphique lors de la capture d’image. Aussi, dans le terminal mobile selon un mode de réalisation de la présente invention, même dans un état dans lequel la sortie d’un objet graphique est limitée, l’image de prévisualisation peut être capturée par l’intermédiaire d’une simple manipulation. Ainsi, l’utilisateur peut visualiser une image nette et capturer celle-ci, et ainsi, la commodité de l’utilisateur est augmentée.
Ci-après, un procédé de commande de la fonction de capture d’image en fonction de divers touchers va être décrit en détail en faisant référence aux dessins joints. En particulier, les figures 5A à 5D sont des vues conceptuelles illustrant un procédé de commande d’une fonction de capture d’image de façons diverses en fonction de divers touchers. L’appareil de commande 180 peut réaliser diverses fonctions de capture d’image et réaliser une fonction de capture d’image dans différents modes de capture d’image.
Ici, les modes de capture d’image peuvent inclure un mode de capture d’image inanimée, un mode de capture de vidéo, un mode de prise de vue et de suppression (mode dans lequel une partie particulière (sujet) incluse dans une image capturée est éliminée), un mode à étendue dynamique élevée (HDR), un mode à panorama, un mode à panorama de réalité virtuelle (VR), un mode de prise de vue en rafale, un mode de prise de vue esthétique (mode dans lequel des pixels pour lesquels il est découvert qu’ils possèdent des couleurs différentes, distinguées de couleurs voisines, sont changés à une valeur moyenne des couleurs voisines), un mode à deux appareils de captures de vues (capturant simultanément une image en utilisant à la fois un appareil de captures de vues avant et un appareil de captures de vues arrière), un mode à appareil de captures de vues à temps machine (mode dans lequel des images sont capturées et stockées à des intervalles de temps prédéterminés dans une mémoire et un nombre préréglé d’images sont affichées en fonction d’un instant auquel la capture d’image a été réalisée), un mode photo intelligent (mode dans lequel un mode de capture d’image le plus approprié est réglé pour chaque situation et une capture d’image est réalisée par conséquent), un mode sport (mode dans lequel une vitesse d’obturateur est réglée pour être plus rapide pour capturer les moments), un mode nocturne (mode dans lequel une ouverture est élargie pour augmenter une quantité de lumière entrée), et analogues. L’appareil de commande 180 peut capturer l’image de prévisualisation 300 dans différents modes de capture d’image en fonction de différents types préréglés de touchers. Ici, les différents types préréglés de touchers peuvent inclure un toucher court (ou tape), un toucher long, un toucher-tirer, un toucher à coup rapide, un toucher-glisser, et un toucher à flottement stationnaire. Différentes fonctions relatives à la capture d’image peuvent être associées aux différents types préréglés de touchers dans la mémoire 170. A savoir, lorsqu’un quelconque parmi les différents types préréglés de touchers est détecté, l’appareil de commande 180 peut réaliser une fonction associée au toucher détecté en faisant référence à des informations (informations correspondantes) en association et stockées dans la mémoire 170.
Par exemple, comme cela est illustré sur (a) de la figure 5A, lorsqu’un premier type de toucher auquel un ordre de commande pour capturer une image dans le mode image inanimée parmi les types préréglés est détecté dans la région sur laquelle l’image de prévisualisation 300 est sortie, l’appareil de commande 180 peut capturer une image inanimée. Par exemple, lorsque le premier type de toucher (par exemple, un toucher court ou clic) appliqué sur la région sur laquelle l’image de prévisualisation 300 est sortie est détecté, une image inanimée comme cela est illustré sur (b) de la figure 5A peut être capturée.
Dans un autre exemple, comme cela est illustré sur (a) de la figure 5B, lorsqu’un second type de toucher, qui correspond à un ordre de commande pour capturer une image dans un mode de capture vidéo différent du premier type de toucher parmi les types préréglés de touchers, appliqué sur la région sur laquelle l’image de prévisualisation 300 est sortie, une vidéo peut être capturée. Par exemple, lorsqu’un second type de toucher (par exemple, un toucher long) appliqué sur la région sur laquelle l’image de prévisualisation 300 est sortie est détecté, une vidéo peut être capturée comme cela est illustré sur (b) de la figure 5B. Après cela, dans un état dans lequel une vidéo est capturée en fonction du second type de toucher, lorsque le second type de toucher est détecté à nouveau ou un type de toucher (par exemple, un toucher court) différent du second type est détecté, l’appareil de commande 180 peut arrêter de capturer la vidéo.
Dans un autre exemple, comme cela est illustré sur la figure 5C, la fonction de capture d’image peut être exécutée sur l’image de prévisualisation 300 dans le mode de capture d’image associé à une touche de type préréglé parmi différents modes de capture d’image. De façon plus détaillée, le type préréglé de toucher peut être un parmi une pluralité de touchers appliqués dans différentes directions de mouvement. La pluralité de touchers appliqués dans différentes directions de mouvement peut inclure un toucher-tirer, un toucher à coup rapide, et analogues. La pluralité de touchers peut être associée à des ordres de commande de capture d’une image dans différents modes de capture d’image, respectivement. Comme cela est illustré sur la figure 5C, l’appareil de commande 180 peut réaliser une fonction de capture d’image sur l’image de prévisualisation 300 dans un mode de capture d’image associé au toucher détecté (un parmi une pluralité de touchers appliqués dans différentes directions de mouvement) parmi les différents modes de capture d’image.
Par exemple, le type préréglé de toucher peut être un quelconque parmi un toucher-tirer appliqué dans une première direction et un toucher-tirer appliqué dans une deuxième direction différente de la première direction. Aussi, le toucher-tirer appliqué dans la première direction peut être associé à un premier mode de capture d’image, et le toucher-tirer appliqué dans la deuxième direction peut être associé à un second mode de capture d’image différent du premier mode de capture d’image. Dans ce cas, l’appareil de commande 180 peut exécuter une fonction de capture d’image dans le mode de capture d’image associé à une direction du toucher-tirer appliqué dans les premier et second modes de capture d’image.
Comme cela est illustré sur la figure 5C, lorsque le premier mode de capture d’image est associé à un toucher appliqué dans la direction vers la gauche, et lorsqu’un toucher appliqué sur la région dans laquelle l’image de prévisualisation 300 est sortie dans la direction vers la gauche, l’appareil de commande 180 peut réaliser la fonction de capture d’image dans le premier mode de capture d’image en fonction du toucher détecté. Aussi, comme cela est illustré sur la figure 5C, lorsqu’un quelconque toucher (par exemple, un toucher appliqué dans une direction descendante) parmi une pluralité de touchers appliqués dans différentes directions de mouvement est détecté dans le second état, l’appareil de commande 180 peut permuter un état de l’unité d’affichage 151 du second état au premier état dans lequel un objet graphique connexe à la fonction de capture d’image est sorti.
Aussi, une fonction de permutation d’appareils de captures de vues avant/arrière peut être associée au type préréglé de toucher. Par exemple, comme cela est illustré sur la figure 5C, un toucher-tirer appliqué dans une troisième direction peut être associé à la fonction de permutation d’appareils de captures de vues avant/arrière. Lorsqu’un toucher appliqué dans la troisième direction est détecté, l’appareil de commande 180 peut permuter un appareil de captures de vues activé de l’appareil de captures de vues avant à l’appareil de captures de vues arrière ou de l’appareil de captures de vues arrière à l’appareil de captures de vues avant. Par conséquent, dans un mode de réalisation de la présente invention, sans sortir en outre un objet graphique relatif à la fonction de capture d’image pour permuter l’appareil de captures de vues avant/arrière, l’appareil de captures de vues avant/arrière peut être permuté dans le second état dans lequel la sortie de l’objet graphique est limitée.
Dans un autre exemple, comme cela est illustré sur la figure 5D, l’appareil de commande 180 peut exécuter la fonction de capture d’image en fonction du fait qu’un objet se rapproche de l’unité d’affichage 151. L’appareil de commande 180 peut détecter un objet qui se rapproche d’une surface de détection prédéterminée par l’intermédiaire du capteur de proximité 141. Lorsque l’objet est détecté, l’appareil de commande 180 peut capturer l’image de prévisualisation 300. L’objet peut inclure les doigts, le visage de l’utilisateur, et analogues.
Pour la commodité de l’explication, le terme « toucher en proximité » va être utilisé dans les présentes pour dénoter le scénario dans lequel un objet est positionné pour être à proximité de l’unité d’affichage 151 sans entrer en contact avec l’écran tactile. Le terme « toucher à contact » va être utilisé dans les présentes pour dénoter le scénario dans lequel un objet entre physiquement en contact avec l’unité d’affichage 151. Lorsque le toucher en proximité est détecté, l’appareil de commande 180 peut capturer l’image de prévisualisation 300 en fonction du toucher en proximité détecté.
De façon plus détaillée, lorsqu’un toucher en proximité est détecté pendant une période plus longue qu’une période préréglée, l’appareil de commande 180 peut capturer l’image de prévisualisation 300. Ainsi, dans un mode de réalisation de la présente invention, le toucher en proximité et le toucher à contact peuvent être clairement différentiés. De façon plus détaillée, le toucher à contact est positionné au-dessus de l’unité d’affichage 151 à un moment auquel il entre en contact avec l’unité d’affichage 151, et ainsi, il inclut un toucher en proximité. Dans un mode de réalisation de la présente invention, lorsqu’un toucher en proximité est détecté pendant une période plus longue qu’une période préréglée, l’image de prévisualisation est capturée, et ainsi, un problème dans lequel le terminal mobile reconnaît le toucher à contact comme étant un toucher en proximité lorsque l’utilisateur souhaite réaliser un toucher à contact peut être résolu. L’appareil de commande 180 peut sortir l’image de prévisualisation 300 dans un état dans lequel la sortie de l’objet graphique est limitée. Par la suite, comme cela est illustré sur (a) de la figure 5D, l’appareil de commande 180 peut détecter un toucher en proximité selon lequel un objet est positionné pour être à proximité de l’unité d’affichage 151, sans être en contact avec l’unité d’affichage 151. Lorsque le toucher en proximité est détecté, comme cela est illustré sur (b) de la figure 5D, l’appareil de commande 180 peut capturer l’image de prévisualisation 300. Dans un mode de réalisation de la présente invention, en exécutant la fonction de capture d’image en utilisant un toucher en proximité, un objet étranger restant en raison d’un toucher peut être empêché par avance, et ainsi, une capture d’image peut être réalisée, tout en visionnant l’image de prévisualisation nette.
Comme cela est décrit ci-dessus, dans le terminal mobile selon un mode de réalisation de la présente invention, dans un état dans lequel la sortie d’un objet graphique est limitée, diverses fonctions relatives à la fonction de capture d’image peuvent être exécutées lorsque différents types préréglés de touchers sont détectés. Ainsi, même sans un objet graphique couvrant une partie de l’image de prévisualisation, l’utilisateur peut exécuter sa fonction d’image souhaitée, et ainsi, la commodité de l’utilisateur peut être augmentée.
Entretemps, dans le terminal mobile selon un mode de réalisation de la présente invention, lorsqu’un type préréglé de toucher est détecté dans un état dans lequel la sortie d’un objet graphique est limitée, une mise au point en ce qui concerne l’image de prévisualisation peut être ajustée en fonction du toucher détecté. En particulier, les figures 6A à 6G sont des vues conceptuelles illustrant un procédé d’ajustage de mise au point en ce qui concerne une image de prévisualisation en utilisant des touchers appliqués sur une unité d’affichage.
Lorsque seulement l’image de prévisualisation est sortie sur l’unité d’affichage 151 (le second état), l’appareil de commande 180 peut ajuster une mise au point en ce qui concerne l’image de prévisualisation. Dans un mode de réalisation, une fonction de mise au point inclut une fonction de mise au point automatique continue (CAL) d’ajustage automatique de mise au point lorsque le terminal mobile est arrêté pendant une période prédéterminée, une mise au point automatique par toucher (TAL) d’ajustage de mise au point en fonction d’une région où un toucher est détecté lorsque le toucher appliqué sur l’image de prévisualisation est détecté, et analogues. Ci-après, un procédé pour régler une région dans laquelle la mise au point est ajustée dans une image de prévisualisation par l’appareil de commande 180 va être décrit en faisant référence aux dessins joints.
Comme cela est décrit ci-dessus en faisant référence aux figures 3 et 4, l’appareil de commande 180 peut exécuter la fonction de capture d’image par un toucher lorsque la sortie d’un objet graphique relatif à la fonction de capture d’image est limitée. En outre, lorsqu’un type préréglé de toucher est détecté dans la région sur laquelle l’image de prévisualisation 300 est sortie dans l’état dans lequel la sortie d’un objet graphique relatif à la fonction de capture d’image est limitée, l’appareil de commande 180 peut ajuster une mise au point en ce qui concerne l’image de prévisualisation avant d’exécuter la fonction de capture d’image.
Dans un mode de réalisation, lorsqu’un type préréglé de toucher est détecté dans la région sur laquelle l’image de prévisualisation 300 est sortie, l’appareil de commande 180 peut ajuster une mise au point autour de la région où le toucher a été détecté dans la région sur laquelle l’image de prévisualisation 300 est sortie. Par exemple, lorsqu’un type préréglé de toucher (par exemple, un toucher court) est détecté dans une région sur laquelle l’image de prévisualisation 300 est sortie comme cela est illustré sur (a) de la figure 6A, l’appareil de commande 180 peut ajuster une mise au point sur la région dans laquelle le toucher (toucher court) a été détecté dans la région sur laquelle l’image de prévisualisation 300 est sortie comme cela est illustré sur (b) de la figure 6A.
Après cela, comme cela est illustré sur (c) de la figure 6A, l’appareil de commande 180 peut capturer une image inanimée en ce qui concerne l’image de prévisualisation 300 dont la mise au point a été ajustée autour de la région dans laquelle le toucher a été détecté. A savoir, comme cela est illustré sur (a), (b), et (c) de la figure 6A, lorsqu’un toucher court unique a été appliqué l’appareil de commande 180 peut ajuster une mise au point autour de la région sur laquelle le toucher court unique court a été appliqué, et séquentiellement capturer l’image inanimée.
Aussi, lorsqu’un type préréglé de toucher (par exemple, un toucher court) est détecté dans la région sur laquelle l’image de prévisualisation 300 est sortie, l’appareil de commande 180 peut ajuster une mise au point autour de la région dans laquelle le toucher a été détecté, comme cela est illustré sur (b) de la figure 6A. Après cela, lorsqu’un type préréglé de toucher (par exemple, un toucher court) est appliqué à nouveau dans un état dans lequel la mise au point a été ajustée autour de la région dans laquelle le toucher a été détecté, l’appareil de commande 180 peut capturer une image inanimée en ce qui concerne l’image de prévisualisation à mise au point ajustée 300.
Dans un autre mode de réalisation, lorsqu’un type préréglé de toucher (par exemple, un toucher long) est détecté dans la région sur laquelle l’image de prévisualisation 300 est sortie dans le second état, comme cela est illustré sur (a) de la figure 6B, l’appareil de commande 180 peut ajuster une mise au point sur la région dans laquelle le toucher (toucher long) a été détecté dans la région sur laquelle l’image de prévisualisation 300 est sortie, comme cela est illustré sur (b) de la figure 6B. Après cela, comme cela est illustré sur (c) de la figure 6B, l’appareil de commande 180 peut capturer une vidéo en ce qui concerne l’image de prévisualisation à mise au point ajustée 300. Comme cela est illustré sur la figure 6B, l’appareil de commande 180 peut réaliser à la fois l’ajustage de mise au point et la capture de vidéo seulement avec le toucher unique (toucher long), ou en variante, lorsqu’un toucher unique (toucher long) est appliqué, l’appareil de commande 180 peut seulement ajuster une mise au point, et après cela, lorsqu’un toucher supplémentaire est appliqué, l’appareil de commande 180 peut capturer une vidéo.
Ici, le toucher supplémentaire peut être un toucher (toucher long) déjà appliqué sur la région sur laquelle l’image de prévisualisation 300 est sortie ou peut être un toucher (par exemple, toucher court) différent du toucher déjà appliqué pour exécuter une fonction correspondant au toucher déjà appliqué (toucher long). A savoir, en fonction du type de toucher initialement entré, l’appareil de commande 180 peut ajuster une mise au point sur la région sur laquelle le toucher a été appliqué, ainsi que déterminer une fonction de capture d’image en ce qui concerne l’image de prévisualisation 300. Aussi, comme la fonction de capture d’image est déterminée en fonction du toucher entré initialement, lorsqu’un toucher (par exemple, un toucher court) différent du toucher entré initialement est détecté, l’appareil de commande 180 peut traiter l’image de prévisualisation à mise au point ajustée 300 selon la fonction de capture d’image déterminée. L’appareil de commande 180 peut réaliser un ajustage de mise au point et une capture d’image seulement avec un toucher unique. De façon plus détaillée, le type préréglé de toucher peut inclure un toucher-bas appliqué sur l’unité d’affichage 151 et un toucher-haut pour relâcher un toucher appliqué sur l’unité d’affichage 151. Par exemple, un toucher court peut inclure un toucher court-bas et un toucher court-haut, et un toucher long peut inclure un toucher long-bas et un toucher long-haut.
Lorsqu’un toucher est un toucher court-bas ou un toucher court-haut ou le fait qu’un toucher est un toucher long-bas ou un toucher long-haut peut être déterminé en fonction d’une période durant laquelle un toucher est maintenu entre un toucher-bas et un toucher-haut. Par exemple, lorsqu’une période durant laquelle un toucher est maintenu entre un toucher-bas et un toucher-haut inclus dans le toucher est plus courte qu’une période préréglée, l’appareil de commande 180 peut déterminer le toucher comme étant un toucher court. Aussi, lorsqu’une période durant laquelle un toucher est maintenu entre un toucher-bas et un toucher-haut inclus dans le toucher est plus longue qu’une période préréglée, l’appareil de commande 180 peut déterminer que le toucher est un toucher long.
Lorsqu’un toucher-bas est détecté dans l’unité d’affichage 151, l’appareil de commande 180 peut traiter le toucher-bas détecté en tant qu’ordre de commande pour ajuster la mise au point autour d’une région dans laquelle le toucher-bas a été détecté. Lorsque le toucher-haut est détecté, l’appareil de commande 180 peut traiter le toucher-haut détecté en tant qu’ordre de commande pour capturer une image. Ainsi, en faisant référence aux figures 6A et 6B, l’appareil de commande 180 peut réaliser l’ajustage de mise au point et la capture d’image seulement avec un toucher unique.
Dans un autre mode de réalisation, comme cela est illustré sur (a) de la figure 6C, l’appareil de commande 180 peut ajuster une mise au point en ce qui concerne une image de prévisualisation en fonction d’un toucher-tirer appliqué dans une direction préréglée. L’appareil de commande 180 peut ajuster une mise au point en fonction d’au moins un point inclus dans un parcours le long duquel le toucher-tirer est détecté. Par exemple, lorsqu’un toucher-tirer appliqué dans une direction préréglée est détecté, l’appareil de commande 180 peut ajuster une mise au point en fonction d’au moins un parmi un point de début 342 et un point de fin 344 dans la région sur laquelle l’image de prévisualisation 300 est sortie.
Par exemple, comme cela est illustré sur (a) de la figure 6c, lorsqu’un toucher-tirer appliqué dans une direction de mouvement préréglée incluant le point de début 342 et le point de fin est détecté, comme cela est illustré sur (b) de la figure 6C, l’appareil de commande 180 peut ajuster une mise au point en fonction du point de début 342. Après cela, comme cela est illustré sur (c) de la figure 6C, l’appareil de commande 180 peut exécuter une fonction de capture d’image sur l’image de prévisualisation à mise au point ajustée 300 en fonction du point de début 342 dans un mode de capture d’image (par exemple, le premier mode de capture d’image illustré sur la figure 5C) associé au toucher-tirer appliqué dans la direction de mouvement préréglée.
En outre, l’appareil de commande 180 peut ajuster une mise au point en fonction du point de fin 344 inclus dans le toucher-tirer appliqué dans la direction de mouvement préréglée, ou peut ajuster une mise au point en fonction du point de début 342 ainsi que du point de fin 344. Aussi, comme cela est décrit ci-dessus en faisant référence à la figure 6A, l’appareil de commande 180 peut réaliser l’ajustage de mise au point seulement avec un toucher unique (un toucher appliqué dans une direction de mouvement préréglée) et la capture d’image dans le mode de capture d’image associé au toucher unique (le toucher appliqué dans la direction de mouvement préréglée) également, ou en variante, lorsqu’un toucher unique (un toucher appliqué dans une direction de mouvement préréglée) est appliqué, l’appareil de commande 180 peut réaliser seulement l’ajustage de mise au point, et après cela, lorsqu’un toucher supplémentaire est appliqué, l’appareil de commande 180 peut réaliser la fonction de capture d’image dans le mode de capture d’image associé.
Dans un autre mode de réalisation, comme cela est illustré sur (a) de la figure 6D, lorsqu’un type préréglé de toucher (par exemple, un toucher-tirer s’étendant pour tirer un tracé circulaire à partir d’un point de début d’un toucher, qui va être appelé « toucher-tirer circulaire », ci-après) est appliqué, l’appareil de commande 180 peut ajuster une mise au point en fonction de la région à toucher appliqué. Par exemple, comme cela est illustré sur (a) de la figure 6D, lorsqu’un toucher-tirer circulaire est détecté dans la région sur laquelle l’image de prévisualisation 300 est sortie, comme cela est illustré sur (b) de la figure 6D, l’appareil de commande 180 peut ajuster une mise au point en fonction de la région dans laquelle le toucher-tirer a été détecté.
Après cela, lorsqu’un type préréglé de toucher (par exemple, un toucher court, un toucher long, un toucher appliqué dans la direction préréglée) différent du toucher appliqué est détecté, l’appareil de commande 180 peut réaliser la fonction de capture d’image sur l’image de prévisualisation à mise au point ajustée 300. Ici, lorsqu’un mode de capture d’image est associé au toucher-tirer circulaire, l’appareil de commande 180 peut ajuster une mise au point seulement en fonction du toucher unique (le toucher-tirer circulaire) et par la suite réaliser une capture sur l’image de prévisualisation dans le mode de capture d’image associé.
Dans un autre exemple, comme cela est illustré sur (a) de la figure 6E, lorsqu’un toucher-tirer incluant au moins un point d’intersection est appliqué, comme cela est illustré sur (b) de la figure 6E, l’appareil de commande 180 peut ajuster une mise au point en fonction de l’au moins un point d’intersection. Après cela, lorsque le type préréglé de toucher est détecté, l’appareil de commande 180 peut réaliser la fonction de capture d’image sur l’image de prévisualisation 300 dont la mise au point a été ajustée en fonction de l’au moins un point d’intersection, en fonction du toucher détecté, comme cela est illustré sur (c) de la figure 6E. En outre, l’appareil de commande 180 peut ajuster une mise au point en fonction de l’au moins une région 364 incluant l’au moins un point d’intersection.
Lorsqu’un type préréglé de toucher (par exemple, un toucher court, un toucher long, ou un toucher appliqué dans une direction préréglée) différent du toucher appliqué est détecté, l’appareil de commande 180 peut réaliser la fonction de capture d’image sur l’image de prévisualisation 300 dont la mise au point a été ajustée en fonction du toucher détecté (par exemple, un toucher court, un toucher long, ou un toucher appliqué dans une direction préréglée). De façon similaire, comme cela est décrit ci-dessus en faisant référence à la figure 6D, lorsqu’un mode de capture d’image est associé au toucher-tirer incluant l’au moins un point d’intersection, l’appareil de commande 180 peut ajuster une mise au point seulement en fonction du toucher unique (le toucher-tirer incluant au moins un point d’intersection) et par la suite réaliser une capture sur l’image de prévisualisation dans le mode de capture d’image associé.
Dans un autre mode de réalisation, comme cela est illustré sur (a) de la figure 6L, l’appareil de commande 180 peut diviser la région de l’image de prévisualisation 300. Aussi, l’appareil de commande 180 peut réaliser différentes fonctions de capture d’image en fonction de la région, parmi la pluralité de régions divisées, dans laquelle un toucher est détecté. Par exemple, l’appareil de commande 180 peut ajuster une mise au point selon un point tactile appliqué sur les régions divisées 332 et 334 et exécuter la fonction de capture d’image, ou peut directement exécuter la fonction de capture d’image sans ajustage de mise au point.
En outre, l’appareil de commande 180 peut afficher une ligne de guidage 330 indiquant que l’image de prévisualisation a été divisée sur l’image de prévisualisation 300. Par exemple, comme cela est illustré sur (b) de la figure 6F, lorsqu’un type préréglé de toucher est appliqué sur la première région 332, l’appareil de commande 180 peut ajuster une mise au point en fonction de la région sur laquelle le toucher a été appliqué, et exécuter la fonction de capture d’image sur l’image de prévisualisation 300. Aussi, comme cela est illustré sur (c) de la figure 6F, lorsqu’un type préréglé de toucher est appliqué sur la seconde région 334 différente de la première région 332 parmi les régions divisées, l’appareil de commande 180 peut exécuter immédiatement la fonction de capture d’image sur l’image de prévisualisation 300 sans ajustage de mise au point en fonction du toucher.
Dans un mode de réalisation de la présente invention, en fonction du fait que la mise au point a été ajustée ou non en ce qui concerne une image, une méthode de capture d’image destinée à être exécutée lorsqu’un type préréglé de toucher est détecté peut varier. De façon plus détaillée, en fonction du fait que la mise au point de l’image de prévisualisation a été ajustée ou non, l’appareil de commande 180 peut exécuter différentes fonctions en ce qui concerne le même type de toucher. D’abord, lorsque la mise au point en ce qui concerne l’image de prévisualisation 300 a été ajustée selon une fonction de mise au point automatique continue (CAF) automatiquement exécutée lorsque le terminal mobile est mis en pause pendant une période prédéterminée, et lorsqu’un type préréglé de toucher (par exemple, un toucher court) est détecté, l’appareil de commande 180 peut réaliser une capture sur l’image de prévisualisation 300 sans réaliser d’ajustage de mise au point. Aussi, une mise au point en ce qui concerne l’image de prévisualisation 300 a été ajustée selon une fonction de mise au point automatique par toucher (TAF) exécutée pour ajuster une mise au point en fonction d’une région dans laquelle un toucher est détecté, en fonction du toucher détecté dans l’image de prévisualisation 300, lorsqu’un type préréglé de toucher (par exemple, un toucher court) est détecté, l’appareil de commande 180 peut réaliser une capture sur l’image de prévisualisation 300 sans en outre réaliser d’ajustage de mise au point.
Dans un autre exemple, dans un état dans lequel la mise au point a été ajustée sur l’image de prévisualisation 300 par la fonction CAF ou dans un état dans lequel la mise au point a été ajustée sur l’image de prévisualisation 300 par la fonction TAF, et lorsqu’un type préréglé de toucher (par exemple, un toucher court) est détecté après l’écoulement d’une période préréglée, l’appareil de commande 180 peut réajuster une mise au point en fonction de la région dans laquelle le type préréglé de toucher a été détecté.
Dans un autre exemple, comme cela est illustré sur la figure 6G, l’appareil de commande 180 peut ajuster une mise au point en ce qui concerne l’image de prévisualisation 300 en fonction d’un objet se rapprochant de l’unité d’affichage 151. L’appareil de commande 180 peut détecter un objet qui se rapproche d’une surface de détection prédéterminée par l’intermédiaire du capteur de proximité 141. Lorsque l’objet est détecté, l’appareil de commande 180 peut capturer l’image de prévisualisation 300. L’objet peut inclure les doigts, le visage de l’utilisateur, et analogues.
Lorsque le toucher en proximité est détecté, l’appareil de commande 180 peut ajuster une mise au point en ce qui concerne l’image de prévisualisation 300 en fonction du toucher en proximité détecté. De façon plus détaillée, lorsque le toucher en proximité est détecté, l’appareil de commande 180 peut ajuster une mise au point en ce qui concerne la région de prévisualisation correspondant au toucher en proximité détecté. Aussi, lorsque le toucher en proximité est détecté pendant une période plus longue qu’une période préréglée, l’appareil de commande 180 peut ajuster une mise au point en ce qui concerne la région de l’image de prévisualisation correspondant à la région dans laquelle le toucher en proximité est détecté. Comme cela est décrit ci-dessus, dans un mode de réalisation de la présente invention, lorsque la période préréglée s’est écoulée, la mise au point est ajustée, moyennant quoi un toucher en proximité et un toucher à contact peuvent être clairement différentiés.
Comme cela est illustré sur (a) de la figure 6G, dans un état dans lequel la sortie d’un objet graphique est limitée, l’appareil de commande 180 peut détecter un toucher en proximité selon lequel un objet est positionné pour être à proximité de l’unité d’affichage 151 sans être en contact avec l’unité d’affichage 151. Lorsque le toucher en proximité est détecté, l’appareil de commande 180 peut ajuster une mise au point en ce qui concerne une région de l’image de prévisualisation correspondant au toucher en proximité détecté. Après cela, comme cela est illustré sur (b) de la figure 6G, l’appareil de commande 180 peut capturer l’image de prévisualisation 300 en fonction du fait qu’un toucher est appliqué sur une région de l’image de prévisualisation à mise au point ajustée.
Dans un autre exemple, lorsque la mise au point de l’image de prévisualisation a été ajustée, l’appareil de commande 180 peut capturer l’image de prévisualisation 300 en fonction d’un signal vocal entré à partir de l’extérieur. Comme cela est décrit ci-dessus, dans le terminal mobile selon un mode de réalisation de la présente invention, en fonction d’un type préréglé de toucher détecté dans le second état dans lequel la sortie d’un objet graphique est limitée, une mise au point en ce qui concerne une image de prévisualisation est ajustée et une fonction de capture d’image peut être exécutée. Ainsi, l’utilisateur peut utiliser la fonction de capture d’image sur l’image de prévisualisation nette non couverte par un objet graphique et ajuster une mise au point en ce qui concerne l’image de prévisualisation par l’intermédiaire d’une simple manipulation, et ainsi, les nécessités de l’utilisateur pour capturer une image de haute qualité sont satisfaites.
Ci-après, un procédé pour permuter d’un second état dans lequel la sortie d’un objet graphique sur une unité d’affichage est limitée à un premier état dans lequel un objet graphique relatif à une fonction de capture d’image chevauche une image de prévisualisation va être décrit en détail. En particulier, les figures 7A à 7C sont des vues conceptuelles illustrant un mode de réalisation de permutation d’un second état dans lequel la sortie d’un objet graphique est limitée à un premier état dans lequel un objet graphique est sorti.
Dans le terminal mobile selon un mode de réalisation de la présente invention, la permutation peut être réalisée entre le premier état et le second état. Une telle permutation peut être réalisée selon une demande utilisateur. De façon plus détaillée, en fonction d’un type préréglé de toucher détecté dans une région sur laquelle l’image de prévisualisation 300 est sortie dans le second état, l’appareil de commande 180 peut permuter un état de l’unité d’affichage 151 du second état au premier état dans lequel l’objet graphique 302 chevauche l’image de prévisualisation 300. Lorsqu’un quelconque parmi une pluralité de touchers appliqués dans différentes directions de mouvement, parmi des types préréglés de touchers, est détecté dans le second état, l’appareil de commande 180 peut sortir l’objet graphique 302 relatif à la fonction de capture d’image sur l’image de prévisualisation 300 en chevauchement.
Par exemple, comme cela est illustré sur (a) de la figure 7A et la figure 5C, lorsqu’un quelconque toucher (par exemple, un toucher-tirer appliqué dans une direction descendante) parmi une pluralité de touchers appliqués dans différentes directions de mouvement est détecté, comme cela est illustré sur (b) de la figure 7A, l’appareil de commande 180 peut sortir l’objet graphique 302 relatif à la fonction de capture d’image.
Aussi, lorsqu’un quelconque parmi une pluralité de touchers appliqués dans différentes directions de mouvement, parmi des types préréglés de touchers, sur la région dans laquelle l’image de prévisualisation 300 est sortie est détecté dans le second état, l’appareil de commande 108 peut déterminer une position sur laquelle un objet graphique doit être sorti en fonction de la direction de mouvement du toucher. Par exemple, comme cela est illustré sur (a) de la figure 7B, lorsqu’un quelconque toucher (par exemple, un toucher-tirer appliqué dans une direction vers la droite) parmi une pluralité de touchers appliqués dans différentes directions de mouvement, parmi des types préréglés de touchers, est détecté dans le second état, en fonction de la direction de mouvement (par exemple, la direction vers la droite) du toucher détecté, l’appareil de commande 180 peut sortir des objets graphiques 302a sur un côté (côté gauche) et l’autre côté (côté droit) correspondant à la direction de mouvement du toucher détecté.
En outre, comme cela est illustré sur (b) de la figure 7B, lorsque les objets graphiques 302a sont sortis, et lorsqu’un quelconque toucher (par exemple, un toucher appliqué dans une direction vers la droite), parmi la pluralité de touchers, est appliqué à nouveau, l’appareil de commande 180 peut en outre sortir un objet graphique 302b différent des objets graphiques déjà sortis 302a. Ici, de préférence, l’objet graphique différent 302b est fondé sur une capture d’image appartenant à une sous-catégorie de l’objet graphique 302a qui a déjà été sorti. Cependant, la présente invention n’est pas limitée à ceci et les autres objets graphiques 302b peuvent être un objet graphique différent des objets graphiques déjà sortis 302a.
En outre, lorsqu’un type préréglé de toucher (par exemple, un toucher appliqué dans une direction vers la gauche) est appliqué dans le premier état dans lequel un objet graphique est sorti, l’appareil de commande 180 peut permuter un état de l’unité d’affichage 151 du premier état à un second état dans lequel la sortie de l’objet graphique est limitée. Dans un autre exemple, lorsqu’un quelconque toucher (par exemple, un toucher-tirer appliqué dans une direction vers la droite) parmi une pluralité de touchers appliqués dans des directions différentes, parmi des types préréglés de touchers, est détecté dans le second état, l’appareil de commande 180 peut exécuter une fonction associée à l’un toucher quelconque, au lieu de sortir l’objet graphique relatif à la fonction de capture d’image.
Par exemple, la fonction associée à l’un toucher quelconque peut être une fonction de permutation d’appareils de captures de vues avant/arrière, comme cela est illustré sur la figure 5C. En outre, (a) de la figure 7C est une vue illustrant un état dans lequel l’appareil de captures de vues avant est activé. Lorsqu’un toucher-tirer appliqué dans une direction vers la droite est détecté dans le second état dans lequel la sortie d’un objet graphique est limitée, comme cela est illustré sur (a) de la figure 7C, l’appareil de commande 180 peut permuter l’appareil de captures de vues activé de l’appareil de captures de vues avant à l’appareil de captures de vues arrière en exécutant la fonction de permutation d’appareils de captures de vues avant/arrière associée au toucher-tirer appliqué dans la direction vers la droite, comme cela est illustré sur (b) de la figure 7C. Aussi, lorsque l’appareil de captures de vues arrière est activé, et lorsqu’un toucher (par exemple, un toucher-tirer appliqué dans la direction vers la droite) associé à la fonction de permutation d’appareils de captures de vues avant/arrière est détecté, l’appareil de commande 180 peut permuter l’appareil de captures de vues activé de l’appareil de captures de vues arrière à l’appareil de captures de vues avant. Entretemps, le terminal mobile peut sortir un objet graphique en fonction de divers types de touchers.
Maintenant, les figures 8A à 8C sont des vues conceptuelles illustrant un autre mode de réalisation de permutation d’un second état dans lequel la sortie d’un objet graphique est limitée à un premier état dans lequel un objet graphique est sorti. Dans le second état dans lequel la sortie d’un objet graphique sur l’image de prévisualisation 300 sortie sur l’unité d’affichage 151 est limitée, et lorsque des touchers sont détectés à une pluralité de points de l’unité d’affichage 151, l’appareil de commande 180 peut permuter l’état de l’unité d’affichage 151 du second état au premier état dans lequel l’objet graphique 302 connexe à la fonction de capture d’image chevauche l’image de prévisualisation 300. Ici, la permutation de l’état de l’unité d’affichage 151 du second état au premier état peut faire référence à la sortie de l’objet graphique.
En outre, lorsque la pluralité de points incluent des premier et second touchers, l’appareil de commande 180 peut sortir l’objet graphique sur le voisinage d’un point tactile d’au moins un parmi les premier et second touchers. Dans un mode de réalisation de la présente invention, lorsque des touchers sont détectés sur une pluralité de points 352 et 354 de l’unité d’affichage 151, comme cela est illustré sur (a) de la figure 8A, l’appareil de commande 180 peut sortir un objet graphique 302 relatif à la fonction de capture d’image sur le voisinage d’un point tactile d’un toucher quelconque 352 parmi le premier toucher 352 et le second toucher 354 correspondant à la pluralité de points détectés, comme cela est illustré sur (b) de la figure 8A.
Ici, l’objet graphique sorti 302 relatif à la fonction de capture d’image peut se rapporter à des types de touchers détectés sur la pluralité de points. De façon plus détaillée, lorsque des touchers détectés sur une pluralité de points de l’unité d’affichage 151 correspondent à un quelconque (par exemple, un toucher long) parmi des types préréglés de touchers, l’objet graphique 302 peut être sorti. En outre, l’objet graphique sorti 302 peut être une pluralité d’objets. Lorsqu’un quelconque parmi la pluralité d’objets graphiques 30 est sélectionné (ou touché), la pluralité d’objets graphiques 302 peut disparaître. Après cela, lorsqu’un toucher correspondant à un quelconque (par exemple, un toucher long) de types préréglés de touchers est détecté sur un point, plutôt qu’une pluralité de points, l’appareil de commande 180 peut capturer une image par l’intermédiaire d’une fonction correspondant à un objet graphique sélectionné (ou touché) par l’utilisateur.
Par exemple, comme cela est illustré sur (a) de la figure 8A, lorsqu’une pluralité de touchers sont détectés de manière préréglée (type toucher long), un objet graphique peut être sorti sur le voisinage du point de toucher de l’au moins un toucher 352 parmi la pluralité de touchers 352 et 354, comme cela est illustré sur (b) de la figure 8A. L’utilisateur peut sélectionner un quelconque (prise de vue en rafale) des objets graphiques sortis. Après cela, comme cela est illustré sur (a) de la figure 5B, lorsqu’un toucher correspondant à un type préréglé (type toucher long) est détecté sur un point, l’appareil de commande 180 peut capturer une image par l’intermédiaire d’une fonction (prise de vue en rafale) correspondant à l’objet graphique sélectionné.
Dans un autre mode de réalisation, comme cela est illustré sur (a) de la figure 8B, lorsque des touchers sont détectés sur une pluralité de points 352 et 354 de l’unité d’affichage 151, comme cela est illustré sur (b) de la figure 8B, l’appareil de commande 180 peut sortir un objet graphique 302 relatif à la fonction de capture d’image sur le voisinage du point de toucher de l’au moins un toucher 352 parmi le premier toucher 352 et le second toucher 354 correspondant à la pluralité de points détectés.
En outre, l’objet graphique 302 relatif à la fonction de capture d’image sortie peut se rapporter à un type de touchers détectés sur la pluralité de points. De façon plus détaillée, lorsque les touchers détectés sur la pluralité de points de l’unité d’affichage 151 sont détectés comme étant un type quelconque (par exemple, un toucher-tirer appliqué dans une direction préréglée) de touchers, l’appareil de commande 180 peut sortir un objet graphique. L’objet graphique peut être une pluralité d’objets. Lorsqu’un quelconque parmi la pluralité d’objets graphiques est sélectionné, l’objet graphique sorti peut disparaître. Après cela, lorsqu’un toucher appliqué selon un quelconque (par exemple, un toucher-tirer appliqué dans une direction préréglée) des types préréglés de touchers est détecté sur un point, l’appareil de commande 180 peut capturer une image par l’intermédiaire d’une fonction correspondant à l’objet graphique sélectionné.
Par exemple, comme cela est illustré sur (a) de la figure 8B, lorsqu’une pluralité de touchers sont détectés de manière préréglée (par exemple, un toucher-tirer appliqué dans une direction vers la gauche), un objet graphique peut être sorti sur le voisinage du point de toucher de l’au moins un toucher 352 parmi la pluralité de touchers 352 et 354, comme cela est illustré sur (b) de la figure 8A. L’utilisateur peut sélectionner un quelconque (par exemple, une minuterie) parmi les objets graphiques sortis. Dans ce cas, l’appareil de commande 180 peut déterminer la fonction (par exemple, la minuterie) correspondant à l’objet graphique sélectionné, en tant que fonction destinée à être réalisée lorsqu’un toucher, plutôt qu’une pluralité de touchers, est détecté comme étant un type préréglé (par exemple, un toucher-tirer appliqué dans une direction vers la gauche).
Après cela, comme cela est illustré sur la figure 5C, lorsqu’un toucher correspondant au type préréglé (un toucher-tirer appliqué dans une direction vers la gauche) est détecté sur un point, l’appareil de commande 180 peut capturer une image par l’intermédiaire de la fonction (minuterie) correspondant à l’objet graphique sélectionné. Dans un autre mode de réalisation, bien que des touchers ne soient pas détectés sur une pluralité de points, l’appareil de commande 180 peut permuter un état de l’unité d’affichage 151 du second état au premier état. A savoir, lorsqu’un type préréglé de toucher est détecté sur un point, l’appareil de commande 180 peut sortir l’objet graphique relatif à la fonction de capture d’image sur le voisinage du point de toucher du toucher détecté.
Par exemple, lorsqu’un type préréglé de toucher (par exemple, un toucher long) est détecté dans une région sur laquelle l’image de prévisualisation 300 est sortie, comme cela est illustré sur (a) de la figure 8C, l’appareil de commande 180 peut sortir l’objet graphique 302 relatif à la capture d’image sur le voisinage du toucher détecté, comme cela est illustré sur (a) de la figure 8C, plutôt que de capturer immédiatement une vidéo en ce qui concerne l’image de prévisualisation, comme cela est illustré sur (b) de la figure 5B ou plutôt que d’ajuster la mise au point, comme cela est illustré sur (b) de la figure 6B. Après cela, lorsqu’un quelconque parmi la pluralité d’objets graphiques 302 est sélectionné selon une demande utilisateur, l’appareil de commande 180 peut exécuter une fonction (par exemple, prise de vue en rafale) correspondant à l’objet graphique sélectionné (par exemple, une icône de prise de vue en rafale).
Comme cela est illustré sur (b) de la figure 8C, lorsqu’un toucher-tirer s’étendant à partir d’un toucher appliqué sur un point quelconque dans la région sur laquelle l’image de prévisualisation 300 est sortie est maintenu à un point (toucher long), l’appareil de commande 180 peut sortir l’objet graphique 302 relatif à la capture d’image sur le voisinage de l’un point quelconque où le toucher-tirer est maintenu. Comme cela est décrit ci-dessus, dans le terminal mobile selon un mode de réalisation de la présente invention, même dans le second état, le terminal mobile 100 peut être permuté au premier état par l’intermédiaire d’une simple manipulation.
Aussi, lorsque des types préréglés de touchers sont détectés sur une pluralité de points, un objet graphique pour régler une fonction de capture d’image destinée à être réalisée lorsque le type préréglé de toucher est détecté sur un point peut être sorti. Ainsi, même sans objet graphique, l’utilisateur peut facilement associer la fonction de capture d’image correspondant à son type souhaité de toucher, et facilement exécuter la fonction de capture d’image associée en appliquant le toucher à nouveau.
Ci-après, un procédé de fourniture d’une fonction supplémentaire en ce qui concerne une image capturée après que l’image est capturée dans le terminal mobile selon un mode de réalisation de la présente invention va être décrit en détail. En particulier, les figures 9A à 9E sont des vues conceptuelles illustrant un procédé de contrôle d’images capturées dans le second état dans lequel la sortie d’un objet graphique est limitée.
Comme cela est illustré sur (a) de la figure 9A, dans le second état, lorsqu’un toucher préréglé est détecté dans une région sur laquelle l’image de prévisualisation 300 est sortie, l’image de prévisualisation 300 peut être capturée. Après cela, comme cela est illustré sur (b) de la figure 9A, l’appareil de commande 180 peut sortir une vignette 400 en ce qui concerne l’image capturée sur une région de la région sur laquelle image de prévisualisation 300 est sortie. La vignette 400 peut chevaucher l’image de prévisualisation 300.
En outre, la vignette 400 peut être une vignette en ce qui concerne l’image capturée la plus récemment. Aussi, la vignette 400 peut disparaître lorsqu’une période préréglée s’est écoulée ou selon une demande utilisateur. Lorsqu’un toucher court est détecté sur la vignette 400, l’appareil de commande 400 peut entrer dans une galerie pour sortir une image stockée dans la mémoire 170.
En outre, avec la vignette 400 sortie, lorsqu’un type préréglé de toucher (par exemple, un toucher long) est appliqué sur la vignette 400, comme cela est illustré sur (c) de la figure 9A, l’appareil de commande 180 peut sortir une image capturée 500 correspondant à la vignette 400 sur la région dans laquelle l’image de prévisualisation 300 est sortie, comme cela est illustré sur (d) de la figure 9A. La vignette 400 peut chevaucher l’image de prévisualisation 300.
Aussi, comme cela est illustré sur (d) de la figure 8A, la vignette 400 en ce qui concerne l’image capturée et les vignettes 401 et 402 en ce qui concerne des images qui ont été capturées avant l’image capturée la plus récemment 500 et stockées dans la mémoire peuvent être sorties ensemble sur l’image capturée 500 sortie en chevauchement. Aussi, l’appareil de commande 180 peut sortir un objet graphique de corbeille 600 exécutant une fonction de suppression d’une image capturée sur l’unité d’affichage 151. L’appareil de commande 180 peut également déterminer s’il faut sortir au moins un parmi les vignettes 400, 401, et 402 et l’objet graphique de corbeille 600 selon des conditions ou selon des circonstances. Par exemple, comme cela est illustré sur (d) de la figure 9A, alors qu’un toucher long est maintenu, l’appareil de commande 180 peut sortir au moins un parmi les vignettes 400, 401, et 402 et l’objet graphique de corbeille 600 sur l’unité d’affichage 151. Aussi, lorsque le relâchement du toucher long est détecté, l’appareil de commande 180 peut permuter un état de l’unité d’affichage 151 au second état de sorte que seulement l’image de prévisualisation 300 soit sortie, comme cela est illustré sur (a) de la figure 9A.
Comme cela est illustré sur (a) de la figure 9B, lorsqu’un toucher long est appliqué sur la vignette 400 en ce qui concerne l’image capturée, l’appareil de commande 180 peut sortir l’image 500 correspondant à la vignette 400 sur la région dans laquelle l’image de prévisualisation 300 est sortie, en chevauchement. Après cela, comme cela est illustré sur (b) de la figure 9B, lorsqu’un toucher s’étendant à partir du toucher long appliqué est détecté sur la vignette 401 en ce qui concerne l’image capturée auparavant, l’appareil de commande 180 peut permuter l’image sortie 500 à une image 501 correspondant à la vignette 401 sur laquelle le toucher s’étendant à partir du toucher long est détecté.
En d’autres termes, lorsque le toucher long est maintenu et s’étend de la première vignette 400 à la seconde vignette 401, l’appareil de commande 180 peut permuter l’image 500 correspondant à la première vignette 400 à l’image 501 correspondant à la seconde vignette et sort l’image 501 sur l’unité d’affichage 151.
Comme cela est illustré sur (c) de la figure 9B, avec le toucher long détecté dans la vignette 401 maintenu, lorsqu’un toucher-tirer présentant la forme de toucher long s’étend de la vignette 401 à l’objet graphique de corbeille est détecté, l’image capturée auparavant 501 correspondant à la vignette à toucher long détecté 401 peut être supprimée. Ici, la vignette 401 peut être gérée sous forme de données séparées par rapport à l’image d’origine 501.
Dans ce cas, lorsque la vignette à toucher long détecté 401 est tirée jusqu’à l’objet graphique de corbeille 600, l’appareil de commande 180 peut supprimer à la fois la vignette 401 et l’image d’origine 501 correspondant à la vignette 401. Ici, en plus du cas dans lequel à la fois la vignette 401 et l’image d’origine correspondant à la vignette sont supprimées ensemble, seulement une quelconque parmi la vignette 401 et l’image d’origine correspondant à la vignette peut être supprimée.
Par exemple, lorsqu’un toucher long sur une quelconque 401 parmi la pluralité de vignettes 400, 401, et 402 est détecté, et lorsqu’un toucher s’étendant de la vignette 401 sur laquelle le toucher long est sélectivement détecté à l’objet graphique de corbeille 600 est détecté, l’appareil de commande 180 peut supprimer la vignette sélectionnée 401 et l’image capturée auparavant 501 correspondant à la vignette sélectionnée 401 à partir de l’unité de mémoire.
Lorsqu’un toucher long est relâché dans un quelconque des états illustrés dans (a), (b), et (c) de la figure 9B, l’appareil de commande 180 peut remettre l’état de l’unité d’affichage 151 au second état dans lequel la sortie d’un objet graphique est limitée, comme cela est illustré sur (d) de la figure 9B. En outre, dans un mode de réalisation de la présente invention, une image stockée auparavant dans la mémoire peut être sortie même avant que l’image de prévisualisation soit capturée, ainsi qu’après que l’image de prévisualisation est capturée.
De façon plus détaillée, dans un état dans lequel la sortie d’un objet graphique relatif à la fonction de capture d’image est limitée, lorsqu’un type préréglé de toucher est détecté, l’appareil de commande 180 peut sortir une vignette en ce qui concerne une image déjà capturée sur l’unité d’affichage. Dans ce cas, au moins une vignette peut être sortie. La vignette peut être sortie par un type préréglé de toucher appliqué sur une région préréglée. La région préréglée peut être une région sur laquelle la vignette doit être sortie.
Au moins une région (ci-après, appelée « région de vignette ») sur laquelle la vignette doit être sortie peut être positionnée dans au moins une partie de la région sur laquelle l’image de prévisualisation est sortie. A savoir, l’appareil de commande 180 peut attribuer au moins une partie de la région dans laquelle l’image de prévisualisation est sortie, en tant que région de vignette. La région de vignette peut être réglée lorsqu’une application ou un logiciel a été créé ou peut être réglée selon une demande utilisateur.
Comme cela est illustré sur (a) de la figure 9C, l’appareil de commande 180 peut régler au moins une région 700 (région de vignette) pour sortir une vignette. Après cela, lorsqu’un type préréglé de toucher est détecté dans la région de vignette, l’appareil de commande 180 peut sortir au moins une vignette 400 en ce qui concerne une image stockée dans la mémoire 170 sur la région de vignette 700, comme cela est illustré sur (b) de la figure 9C. Avec au moins une vignette 400 sortie, lorsqu’un toucher (toucher court) sur une quelconque parmi les vignettes sorties 400 est détecté, l’appareil de commande 180 peut entrer dans une galerie pour sortir une image stockée dans la mémoire 170.
En outre, avec les vignettes 400 sorties, lorsqu’un toucher (toucher long) sur une quelconque parmi les vignettes sorties 400 est détecté, l’appareil de commande 180 peut fournir une commande pour réaliser une telle fonction, comme cela est décrit ci-dessus en faisant référence aux figures 9A et 9B.
En outre, une taille d’affichage et le nombre des vignettes sorties peuvent être déterminés en fonction de la superficie d’un toucher détecté sur l’unité d’affichage 151. Aussi, la région de vignette 700 peut être déterminée en fonction de la superficie d’un toucher détecté sur l’unité d’affichage 151. De façon plus détaillée, l’appareil de commande 180 peut détecter la superficie d’un toucher détecté sur l’unité d’affichage 151. En fonction de la superficie, l’appareil de commande 180 peut régler une taille d’au moins une région (région de vignette) pour sortir une vignette.
Par exemple, une taille de la région de vignette peut être proportionnelle à la superficie du toucher détecté sur l’unité d’affichage 151. L’appareil de commande 180 peut déterminer au moins un parmi le nombre et une taille d’affichage de la vignette sortie selon la taille de la région de vignette, et sortir une ou des vignette(s) sur la vignette en fonction du nombre et de la taille d’affichage déterminés de la vignette(s). Par exemple, comme cela est illustré sur (a) de la figure 9D, lorsque la superficie d’un toucher détecté dans la région de vignette 700 est étroite, l’appareil de commande 180 peut régler (par exemple, réduire) la taille de la région de vignette 700 et sortir la vignette 400 en fonction de la taille de la région de vignette ajustée 700.
Comme cela est illustré sur (b) de la figure 9D, lorsque la superficie d’un toucher détecté dans la région de vignette 700 est grande, l’appareil de commande 180 peut régler la taille de la région de vignette 700 à une taille correspondant à la superficie et sortir la vignette 400 en fonction de la taille ajustée de la région de vignette 700. Lorsque (a) et (b) des figures 9D sont comparés, (a) possède une superficie de toucher étroite, par rapport à (b), et ainsi, un nombre plus grand de vignettes possédant une petite taille peuvent être sorties, alors que (b) possède une grande superficie de toucher, par rapport à (a), un nombre plus petit de vignettes possédant une grande taille peuvent être sorties. Grâce à cette configuration, dans un mode de réalisation de la présente invention, dans un état dans lequel la sortie d’un objet graphique est limitée, les besoins de l’utilisateur pour contrôler une image stockée dans la mémoire sont satisfaits même avant qu’une image de prévisualisation soit capturée.
En outre, dans un mode de réalisation de la présente invention, dans le second état dans lequel la sortie d’un objet graphique est limitée, une vignette stockée dans la mémoire peut être sortie en utilisant une fonction d’analyse d’image. De façon plus détaillée, lorsqu’un type préréglé de toucher est détecté sur un sujet inclus dans une image de prévisualisation, l’appareil de commande 180 peut sortir une vignette en ce qui concerne une image obtenue en capturant le sujet correspondant au toucher détecté.
Par exemple, comme cela est illustré sur (a) de la figure 9E, lorsqu’un type préréglé de toucher (par exemple, toucher long) est détecté sur un sujet sorti sur l’image de prévisualisation 300, l’appareil de commande 180 peut réaliser une analyse d’image sur le sujet. En fonction des résultats d’analyse d’image, l’appareil de commande 180 peut extraire une image correspondant aux résultats à partir d’images stockées dans la mémoire 170, et sortir l’image extraite sur l’unité d’affichage 151. Dans ce cas, l’appareil de commande 180 peut sortir l’image extraite sur le voisinage de la région dans laquelle le type préréglé de toucher a été détecté ou sur une région préréglée (une région pour sortir une vignette).
Grâce à cette configuration, dans un mode de réalisation de la présente invention, même lorsque la sortie d’un objet graphique est limitée, l’image relative au sujet inclus dans l’image de prévisualisation peut être sortie. Ainsi, dans un mode de réalisation de la présente invention, l’image capturée du sujet peut être facilement contrôlée par l’intermédiaire d’une simple manipulation, et les besoins de l’utilisateur de capturer des images de diverses figures d’un sujet sont satisfaits.
Comme cela est décrit ci-dessus, dans le terminal mobile selon un mode de réalisation de la présente invention, une vignette pour contrôler une image capturée peut être sortie, et l’image capturée peut être contrôlée et supprimée en utilisant la vignette. Ainsi, comme l’utilisateur peut contrôler et supprimer l’image capturée même dans le second état dans lequel un objet graphique n’est pas sorti, la commodité de l’utilisateur peut être augmentée.
Ci-après, un autre mode de réalisation dans lequel une fonction de capture d’image est réalisée dans le second état dans lequel la sortie d’un objet graphique est limitée va être décrit en détail. En particulier, les figures 10A à 10D sont des vues conceptuelles illustrant un procédé de réalisation d’une fonction de capture d’image dans le second état dans lequel la sortie d’un objet graphique est limitée. L’appareil de commande 180 peut réaliser une capture d’image sur une image de prévisualisation dans le second état en utilisant une configuration de matériel différente fournie dans le terminal mobile. Par exemple, lorsqu’un type préréglé de toucher est appliqué sur le microphone 122 du terminal mobile, l’appareil de commande 180 peut réaliser une capture d’image sur l’image de prévisualisation 300 sortie dans le second état. Lorsqu’une tape ou un type préréglé de toucher est détecté sur le microphone 122, comme cela est illustré sur la figure 10A, ou lorsque le microphone 122 est couvert pour bloquer le bruit, comme cela est illustré sur la figure 10B, l’appareil de commande 180 peut réaliser une capture d’image sur l’image de prévisualisation 300 affichée sur l’unité d’affichage.
Dans un autre exemple, comme cela est illustré sur la figure 10C, l’appareil de commande 180 peut détecter le mouvement d’un utilisateur par l’intermédiaire de l’unité d’appareil de captures de vues 121a et exécuter une fonction de capture d’image sur l’image de prévisualisation 300 en fonction du mouvement détecté. En outre, l’appareil de commande 180 peut reconnaître le visage d’un utilisateur, ainsi que le mouvement d’un utilisateur, par l’intermédiaire de l’appareil de captures de vues 121a et réaliser une capture d’image sur l’image de prévisualisation 300.
Aussi, l’appareil de commande 180 peut exécuter la fonction de capture d’image sur l’image de prévisualisation 300 en fonction du mouvement d’un utilisateur détecté par l’intermédiaire du capteur de proximité 141. Le mouvement de l’utilisateur peut inclure un mouvement de couverture du capteur de proximité 141 pendant une période préréglée, ou analogues, comme cela est illustré sur la figure 10D.
En outre, le mode de réalisation de la présente invention tel qu’il est décrit ci-dessus peut être installé sous forme de fonction de base d’un terminal mobile lorsque le terminal mobile est mis en vente ou peut être fourni sous forme d’application qui peut être téléchargée par l’intermédiaire d’un serveur externe en utilisant une communication sans fil. Ainsi, lorsqu’une application téléchargée est installée dans le terminal mobile, les fonctions selon le mode de réalisation de la présente invention peuvent être fournies dans le terminal mobile.
Dans les modes de réalisation de la présente invention, le procédé précédent peut être mis en œuvre sous forme de codes qui peuvent être lus par un processeur dans un support à programme enregistré. Le support lisible par processeur peut inclure une ROM, une RAM, un CD-ROM, une bande magnétique, une disquette, un dispositif de stockage de données optique, et analogues. Le support lisible par processeur inclut également des mises en œuvre sous forme d’ondes porteuses (par exemple, transmission par l’intermédiaire d’Internet).
Le terminal mobile selon les modes de réalisation de la présente invention n’est pas limité dans son application des configurations et des procédés, mais la totalité ou une partie des modes de réalisation peut être sélectivement associée pour être configurée en diverses modifications.
Les modes de réalisation précédents et les avantages sont simplement illustratifs et ne doivent pas être considérés comme limitant la présente invention. Les présents enseignements peuvent être facilement appliqués à d’autres types d’appareils. La présente description est prévue pour être illustrative, et non pour limiter la portée des revendications. L’homme du métier réalisera que nombreuses autres possibilités, modifications, et variations sont possibles. Les particularités, structures, procédés, et autres caractéristiques des modes de réalisation décrits dans les présentes peuvent être associées de diverses manières pour obtenir des modes de réalisation supplémentaires et/ou autres.
Comme les présentes particularités peuvent être réalisées en plusieurs formes sans s’éloigner de leurs caractéristiques, il faut également entendre que les modes de réalisation décrits ci-dessus ne sont limités par aucun des détails de la description précédente, sauf indication contraire, mais plutôt doivent être considérés généralement au sein de la portée telle qu’elle est définie dans les revendications jointes, et donc tous les changements et toutes les modifications qui se trouvent au sein des bornes et limites des revendications, ou d’équivalents de telles bornes et limites, sont donc prévus pour être englobés par les revendications jointes.

Claims (15)

  1. REVENDICATIONS
    1. Terminal mobile, comprenant : une unité de communication sans fil (110) configurée pour réaliser une communication sans fil ; un appareil de captures de vues (121) configuré pour obtenir une image ; une unité d’affichage (151) configurée pour afficher une image de prévisualisation obtenue par l’intermédiaire de l’appareil de captures de vues (121) ; et un appareil de commande (180) configuré pour : commander l’unité d’affichage (151) pour fonctionner dans un quelconque d’un premier état, dans lequel un objet graphique relatif à une fonction de capture d’image est affiché chevauchant l’image de prévisualisation, et un second état, dans lequel l’objet graphique n’est pas affiché alors que l’image de prévisualisation est affichée, en fonction d’une demande utilisateur, et lorsqu’un premier type préréglé de toucher est détecté dans une région sur laquelle l’image de prévisualisation est affichée dans le second état, commander l’appareil de captures de vues (121) pour capturer l’image de prévisualisation en fonction du type préréglé de toucher.
  2. 2. Terminal mobile selon la revendication 1, dans lequel lorsque l’unité d’affichage (151) est dans le second état, l’appareil de commande (180) est en outre configuré pour exécuter différentes fonctions en fonction de différents types préréglés de touchers détectés dans la région sur laquelle l’image de prévisualisation est affichée.
  3. 3. Terminal mobile selon une quelconque des revendications 1 et 2, dans lequel l’appareil de commande (180) est en outre pour commander l’appareil de captures de vues (121) pour capturer une image inanimée de l’image de prévisualisation en fonction du premier type préréglé de toucher et pour capturer une vidéo de l’image de prévisualisation en fonction d’un type préréglé différent de toucher.
  4. 4. Terminal mobile selon une quelconque des revendications 1 à 3, dans lequel le premier type préréglé de toucher est un quelconque parmi une pluralité de touchers appliqués dans différentes directions de mouvement, et la pluralité de touchers sont associés à différents modes de capture d’image, respectivement, et dans lequel l’appareil de commande (180) est en outre configuré pour exécuter la fonction de capture d’image sur l’image de prévisualisation dans un mode de capture d’image parmi les différents modes de capture d’image associés au premier type préréglé détecté de toucher.
  5. 5. Terminal mobile selon une quelconque des revendications 1 à 4, dans lequel le premier type préréglé de toucher est un quelconque parmi un toucher-tirer appliqué dans une première direction et un toucher-tirer appliqué dans une seconde direction différente de la première direction, dans lequel le toucher-tirer appliqué dans la première direction est associé à un premier mode de capture d’image et le toucher-tirer appliqué dans la seconde direction est associé à un second mode de capture d’image différente du premier mode de capture d’image, et dans lequel l’appareil de commande (180) est en outre configuré pour exécuter la fonction de capture d’image sur l’image de prévisualisation dans le premier ou second mode de capture d’image associé à la direction du toucher-tirer appliqué.
  6. 6. Terminal mobile selon une quelconque des revendications 1 à 5, dans lequel lorsqu’un second type préréglé de toucher est détecté dans la région sur laquelle l’image de prévisualisation est affichée dans le second état, l’appareil de commande (180) est en outre configuré pour ajuster une mise au point de l’image de prévisualisation en fonction d’une région dans laquelle le toucher est détecté.
  7. 7. Terminal mobile selon une quelconque des revendications 1 à 6, dans lequel un second type préréglé de toucher correspondant à un toucher-tirer appliqué dans une direction de mouvement préréglée dans le second état est détecté, l’appareil de commande (180) est en outre configuré pour ajuster une mise au point de l’image de prévisualisation en fonction d’au moins un parmi un point de début et un point de fin du toucher-tirer sur l’image de prévisualisation.
  8. 8. Terminal mobile selon une quelconque des revendications 1 à 7, dans lequel lorsque le premier type préréglé de toucher inclut des touchers détectés sur une pluralité de points sur l’unité d’affichage (151) dans le second état, l’appareil de commande (180) est en outre configuré pour permuter un état de l’unité d’affichage (151) du second état au premier état.
  9. 9. Terminal mobile selon la revendication 8, dans lequel les touchers sur la pluralité de points incluent un premier toucher et un second toucher, et dans lequel l’appareil de commande (180) est en outre configuré pour afficher l’objet graphique sur un voisinage d’un point tactile d’au moins un parmi les premier et second touchers.
  10. 10. Terminal mobile selon une quelconque des revendications 1 à 9, dans lequel lorsque le premier type préréglé de toucher est un toucher court, l’appareil de commande (180) est en outre configuré pour capturer l’image de prévisualisation sous forme d’image inanimée et lorsque le premier type préréglé de toucher est un toucher long, l’appareil de commande (180) est en outre configuré pour capturer une vidéo de l’image obtenue par l’intermédiaire de l’appareil de captures de vues (121).
  11. 11. Procédé de commande d’un terminal mobile, le procédé comprenant : l’affichage, par l’intermédiaire d’une unité d’affichage (151) du terminal mobile, d’une image de prévisualisation obtenue par l’intermédiaire d’un appareil de captures de vues (121) du terminal mobile ; la commande, par l’intermédiaire d’un appareil de commande (180) du terminal mobile, de l’unité d’affichage (151) pour fonctionner dans un quelconque d’un premier état dans lequel un objet graphique relatif à une fonction de capture d’image est affiché chevauchant l’image de prévisualisation et un second état dans lequel l’objet graphique n’est pas affiché alors que l’image de prévisualisation est affichée, en fonction d’une demande utilisateur ; et lorsqu’un premier type préréglé de toucher est détecté dans une région sur laquelle l’image de prévisualisation est affichée dans le second état, la commande, par l’intermédiaire de l’appareil de commande (180), de l’appareil de captures de vues (121) pour capturer l’image de prévisualisation en fonction du type préréglé de toucher.
  12. 12. Procédé selon la revendication 11, dans lequel lorsque l’unité d’affichage (151) est dans le second état, le procédé comprend en outre l’exécution de différentes fonctions en fonction de différents types préréglés de touchers détectés dans la région sur laquelle l’image de prévisualisation est affichée.
  13. 13. Procédé selon une quelconque des revendications 11 et 12, comprenant en outre : la commande de l’appareil de captures de vues (121) pour capturer une image inanimée de l’image de prévisualisation en fonction du premier type préréglé de toucher et pour capturer une vidéo de l’image de prévisualisation en fonction d’un type préréglé différent de toucher.
  14. 14. Procédé selon une quelconque des revendications 11 à 13, dans lequel le premier type préréglé de toucher est un quelconque parmi une pluralité de touchers appliqués dans différentes directions de mouvement, et la pluralité de touchers sont associés à différents modes de capture d’image, respectivement, et dans lequel le procédé comprend en outre l’exécution de la fonction de capture d’image sur l’image de prévisualisation dans un mode de capture d’image parmi les différents modes de capture d’image associés au premier type préréglé détecté de toucher.
  15. 15. Procédé selon une quelconque des revendications 11 à 14, dans lequel le premier type préréglé de toucher est un quelconque parmi un toucher-tirer appliqué dans une première direction et un toucher-tirer appliqué dans une seconde direction différente de la première direction, dans lequel le toucher-tirer appliqué dans la première direction est associé à un premier mode de capture d’image et le toucher-tirer appliqué dans la seconde direction est associé à un second mode de capture d’image différente du premier mode de capture d’image, et dans lequel le procédé comprend en outre l’exécution de la fonction de capture d’image sur l’image de prévisualisation dans le premier ou second mode de capture d’image associé à la direction du toucher-tirer appliqué.
FR1554386A 2014-05-19 2015-05-15 Terminal mobile et procede de commande dudit terminal mobile Expired - Fee Related FR3021133B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140059902A KR102158214B1 (ko) 2014-05-19 2014-05-19 이동 단말기 및 그것의 제어방법
KR1020140059902 2014-05-19

Publications (2)

Publication Number Publication Date
FR3021133A1 FR3021133A1 (fr) 2015-11-20
FR3021133B1 true FR3021133B1 (fr) 2019-08-30

Family

ID=51846442

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1554386A Expired - Fee Related FR3021133B1 (fr) 2014-05-19 2015-05-15 Terminal mobile et procede de commande dudit terminal mobile

Country Status (5)

Country Link
US (1) US9787890B2 (fr)
EP (1) EP2947867B1 (fr)
KR (1) KR102158214B1 (fr)
CN (1) CN105100388B (fr)
FR (1) FR3021133B1 (fr)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102091161B1 (ko) * 2013-12-05 2020-03-19 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
USD767520S1 (en) * 2014-03-13 2016-09-27 Lg Electronics Inc. Cellular phone
WO2016024440A1 (fr) 2014-08-12 2016-02-18 ソニー株式会社 Dispositif de traitement d'information, programme, et procédé de traitement d'information
US9503846B2 (en) * 2014-08-14 2016-11-22 Nicholas Sandin Embedded location tracking systems for sports equipment
US11567626B2 (en) * 2014-12-17 2023-01-31 Datalogic Usa, Inc. Gesture configurable floating soft trigger for touch displays on data-capture electronic devices
KR102302197B1 (ko) * 2015-04-01 2021-09-14 삼성전자주식회사 촬영 장치, 그 제어 방법 및 컴퓨터로 판독 가능한 기록매체.
US9838607B2 (en) 2015-04-17 2017-12-05 mPerpetuo, Inc. Passive optical electronic camera viewfinder apparatus
US10122914B2 (en) * 2015-04-17 2018-11-06 mPerpetuo, Inc. Method of controlling a camera using a touch slider
US10628010B2 (en) * 2015-06-05 2020-04-21 Apple Inc. Quick review of captured image data
US20170078240A1 (en) * 2015-09-16 2017-03-16 Whatsapp Inc. Techniques to select and configure media for media messaging
US9871962B2 (en) * 2016-03-04 2018-01-16 RollCall, LLC Movable user interface shutter button for camera
US10225471B2 (en) * 2016-03-18 2019-03-05 Kenneth L. Poindexter, JR. System and method for autonomously recording a visual media
US20190174069A1 (en) * 2016-03-18 2019-06-06 Kenneth L. Poindexter, JR. System and Method for Autonomously Recording a Visual Media
US9800975B1 (en) 2016-04-18 2017-10-24 mPerpetuo, Inc. Audio system for a digital camera
KR20170131101A (ko) * 2016-05-20 2017-11-29 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
US10547776B2 (en) * 2016-09-23 2020-01-28 Apple Inc. Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes
KR20180061652A (ko) * 2016-11-30 2018-06-08 엘지전자 주식회사 이동단말기 및 그 제어 방법
KR102289837B1 (ko) * 2017-01-06 2021-08-17 삼성전자주식회사 촬영 방법 및 전자 장치
KR102361885B1 (ko) * 2017-03-28 2022-02-11 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
KR102586170B1 (ko) * 2017-08-01 2023-10-10 삼성전자주식회사 전자 장치 및 이의 검색 결과 제공 방법
EP3438853A1 (fr) * 2017-08-01 2019-02-06 Samsung Electronics Co., Ltd. Dispositif électronique et procédé de fourniture de résultat de recherche associé
CN107563316A (zh) * 2017-08-22 2018-01-09 努比亚技术有限公司 一种拍摄方法、终端及计算机可读存储介质
CN107562347B (zh) * 2017-09-07 2021-04-13 北京小米移动软件有限公司 显示对象的方法和装置
CN111201772A (zh) * 2017-10-09 2020-05-26 深圳传音通讯有限公司 一种录像方法、装置及终端
CN107800878A (zh) * 2017-10-19 2018-03-13 广东欧珀移动通信有限公司 图片显示方法及装置
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
JP7143098B2 (ja) * 2018-03-23 2022-09-28 キヤノン株式会社 電子機器及びその制御方法
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11314410B2 (en) * 2018-05-29 2022-04-26 Asustek Computer Inc. Mobile device
JP6703057B2 (ja) * 2018-08-31 2020-06-03 キヤノン株式会社 電子機器、その制御方法、およびそのプログラム
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
CN111124236B (zh) * 2018-10-30 2023-04-28 斑马智行网络(香港)有限公司 一种数据处理方法、装置和机器可读介质
CN113227940A (zh) 2018-11-09 2021-08-06 贝克曼库尔特有限公司 具有选择性数据提供的服务眼镜
US11604575B2 (en) * 2018-12-14 2023-03-14 Honeywell International Inc. Systems and methods for managing configurations of multiple displays of a vehicle
US11983959B2 (en) 2019-04-18 2024-05-14 Beckman Coulter, Inc. Securing data of objects in a laboratory environment
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
KR20210046323A (ko) * 2019-10-18 2021-04-28 엘지전자 주식회사 이동 단말기 및 이에 결합하는 보조 장치
CN111228793B (zh) * 2020-01-21 2021-11-19 腾讯科技(深圳)有限公司 交互界面的显示方法和装置、存储介质及电子装置
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
CN115484386B (zh) * 2021-06-16 2023-10-31 荣耀终端有限公司 一种视频拍摄方法及电子设备
CN117729420A (zh) * 2023-05-16 2024-03-19 荣耀终端有限公司 一种连拍方法及电子设备

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7551223B2 (en) 2002-12-26 2009-06-23 Sony Corporation Apparatus, method, and computer program for imaging and automatic focusing
KR20040083788A (ko) * 2003-03-25 2004-10-06 삼성전자주식회사 제스쳐 커맨드를 이용하여 프로그램을 구동시킬 수 있는휴대용 단말기 및 이를 이용한 프로그램 구동 방법
KR101491594B1 (ko) * 2007-11-05 2015-02-09 삼성전자주식회사 터치 스크린을 갖는 휴대 단말기 및 그의 이미지 처리 방법
KR20090066368A (ko) * 2007-12-20 2009-06-24 삼성전자주식회사 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법
US10503376B2 (en) * 2007-12-20 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for adjusting an image and control guides displayed on a display
JP5083049B2 (ja) * 2008-06-05 2012-11-28 富士通株式会社 携帯端末装置、プレビュー表示方法、及び表示機能を備えたプログラム
TWI422020B (zh) * 2008-12-08 2014-01-01 Sony Corp 固態成像裝置
KR20100071754A (ko) * 2008-12-19 2010-06-29 삼성전자주식회사 터치와 키조작에 의한 멀티 입력 방식을 이용한 촬영방법 및 이를 적용한 촬영장치
EP2207342B1 (fr) * 2009-01-07 2017-12-06 LG Electronics Inc. Terminal mobile et son procédé de contrôle d'image d'appareil photographique
KR101598335B1 (ko) * 2009-06-11 2016-02-29 엘지전자 주식회사 휴대 단말기 및 그 동작방법
EP2393000B1 (fr) * 2010-06-04 2019-08-07 Lg Electronics Inc. Terminal mobile capable de fournir un jeu multi-joueurs et procédé pour contrôler le terminal mobile
US8638385B2 (en) * 2011-06-05 2014-01-28 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
JP5532033B2 (ja) 2011-09-16 2014-06-25 カシオ計算機株式会社 撮像装置、撮像方法、及びプログラム
JP5816571B2 (ja) * 2012-02-21 2015-11-18 京セラ株式会社 携帯端末、撮影キー制御プログラムおよび撮影キー制御方法
KR20130143381A (ko) * 2012-06-21 2013-12-31 삼성전자주식회사 디지털 촬영 장치 및 그의 제어 방법
CN102902452A (zh) 2012-08-06 2013-01-30 北京小米科技有限责任公司 一种拍摄图像的方法及移动终端
JP6039328B2 (ja) 2012-09-14 2016-12-07 キヤノン株式会社 撮影制御装置および撮像装置の制御方法
US9232127B2 (en) * 2013-04-28 2016-01-05 Moshe Lior Alkouby Loupe accessory and viewing method

Also Published As

Publication number Publication date
EP2947867A1 (fr) 2015-11-25
CN105100388A (zh) 2015-11-25
FR3021133A1 (fr) 2015-11-20
US9787890B2 (en) 2017-10-10
CN105100388B (zh) 2019-06-21
KR102158214B1 (ko) 2020-09-22
KR20150133056A (ko) 2015-11-27
EP2947867B1 (fr) 2019-09-18
US20150334291A1 (en) 2015-11-19

Similar Documents

Publication Publication Date Title
FR3021133B1 (fr) Terminal mobile et procede de commande dudit terminal mobile
FR3022368B1 (fr) Terminal de type montre et procede de commande associe
FR3031601B1 (fr) Terminal mobile et procede de commande de celui-ci
FR3021424B1 (fr) Terminal mobile et procede de commande dudit terminal mobile
US10154186B2 (en) Mobile terminal and method for controlling the same
FR3025328B1 (fr) Terminal mobile et procede de commande de celui-ci
FR3043478A1 (fr) Terminal mobile et methode de controle associee
FR3024786A1 (fr) Terminal mobile et son procede de commande
FR3021425A1 (fr)
US9874998B2 (en) Mobile terminal and controlling method thereof
FR3026201A1 (fr)
FR3039673A1 (fr) Terminal mobile et methode de controle associee
FR3028630A1 (fr) Terminal mobile et son procede de commande
FR3021766A1 (fr) Terminal mobile et methode de commande du terminal mobile
FR3019665A1 (fr)
FR3046470B1 (fr) Terminal mobile
FR3022367A1 (fr)
FR3021136A1 (fr) Terminal mobile et procede de commande de celui-ci
FR3039674A1 (fr) Terminal mobile et methode de controle de celui-ci
FR3041785A1 (fr) Terminal mobile et methode de controle associee
FR3022424A1 (fr) Terminal de type lunettes et procede de commande associe
FR3021485A1 (fr) Dispositif mobile et methode de controle associee
FR3021767A1 (fr) Terminal mobile et son procede de commande
FR3022649A1 (fr)
FR3021135A1 (fr)

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLSC Publication of the preliminary search report

Effective date: 20190201

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

ST Notification of lapse

Effective date: 20230105