FR3043478A1 - Terminal mobile et methode de controle associee - Google Patents

Terminal mobile et methode de controle associee Download PDF

Info

Publication number
FR3043478A1
FR3043478A1 FR1654247A FR1654247A FR3043478A1 FR 3043478 A1 FR3043478 A1 FR 3043478A1 FR 1654247 A FR1654247 A FR 1654247A FR 1654247 A FR1654247 A FR 1654247A FR 3043478 A1 FR3043478 A1 FR 3043478A1
Authority
FR
France
Prior art keywords
image
touch
images
mobile terminal
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1654247A
Other languages
English (en)
Other versions
FR3043478B1 (fr
Inventor
Wanho Ju
Youngjun Lee
Seonhwi Cho
Donghoe Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of FR3043478A1 publication Critical patent/FR3043478A1/fr
Application granted granted Critical
Publication of FR3043478B1 publication Critical patent/FR3043478B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2125Display of information relating to the still picture recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions

Abstract

Un terminal mobile incluant un appareil de capture de vues ; un écran tactile configuré pour afficher de façon continue des images capturées par l'appareil de capture de vues ; une mémoire ; et un contrôleur configuré pour, en réponse à un premier toucher appliqué sur l'écran tactile affichant de façon continue les images à un instant de premier toucher appliqué, stocker une première image affichée sur l'écran tactile à l'instant de premier toucher appliqué dans la mémoire, afficher une première image vignette correspondant à la première image sur l'écran tactile, en réponse à un second toucher appliqué sur l'écran tactile affichant de façon continue les images à un instant de second toucher appliqué, stocker une seconde image affichée sur l'écran tactile à l'instant de second toucher appliqué dans la mémoire, en groupant la seconde image avec la première image dans la mémoire.

Description

TERMINAL MOBILE ET MÉTHODE DE CONTROLE ASSOCIEE
La présente invention concerne un terminal mobile capable de capturer une vidéo et de stocker des images.
Un terminal mobile peut enregistrer et reproduire des vidéos, et afficher des interfaces utilisateur graphiques (GUI) pour mettre en œuvre les différentes fonctions du terminal. Aussi, des terminaux mobiles incluent des ordinateurs portatifs, des téléphones cellulaires, des lunettes et des montres capables d’afficher des informations d’écran, des machines de jeu et analogues.
Comme il devient multifonctionnel, un terminal mobile peut capturer des images inanimées ou animées, lire des fichiers de musique ou vidéo, exécuter des jeux, recevoir une diffusion et analogues, afin d’être mis en œuvre sous forme de lecteur multimédia intégré. De nombreux efforts incluent non seulement des changements et une amélioration de composants structuraux mettant en œuvre un terminal mobile, mais également une amélioration de logiciel pour supporter et améliorer des fonctions du terminal. Récemment, comme un appareil de capture de vues installé dans un terminal mobile présente des performances améliorées et les besoins des utilisateurs augmentent selon des fonctions de l’appareil de capture de vues, diverses fonctions de capture de vidéos et d’images sont en cours de développement. Cependant, lorsqu’une grande quantité d’images est capturée, spécifiquement, lorsque des images incluses dans une vidéo sont stockées séparément, une tâche supplémentaire du groupage de ces images est requise de façon non pratique.
Donc, un objet de la présente invention est d’aborder les problèmes notés ci-dessus et autres de l’art connexe.
Un autre objet de la présente invention est de proposer une méthode de stockage d’images de manière classifiée durant la capture d’une vidéo.
Pour obtenir ceux-ci et d’autres avantages et conformément à l’objectif de la présente invention, telle que représentée et généralement décrite dans les présentes, la présente invention propose, dans un aspect, un terminal mobile incluant un appareil de capture de vues ; un écran tactile configuré pour afficher de façon continue des images capturées par l’appareil de capture de vues ; une mémoire ; et un contrôleur configuré pour, en réponse à un premier toucher appliqué sur l’écran tactile affichant de façon continue les images à un instant de premier toucher appliqué, stocker une première image affichée sur l’écran tactile à l’instant de premier toucher appliqué dans la mémoire, afficher une première image vignette correspondant à la première image sur l’écran tactile, et, en réponse à un second toucher appliqué sur l’écran tactile affichant de façon continue les images à un instant de second toucher appliqué, stocker une deuxième image affichée sur l’écran tactile à l’instant de second toucher appliqué dans la mémoire, en groupant la deuxième image avec la première image dans la mémoire.
Une portée supplémentaire d’applicabilité de la présente demande deviendra plus évidente à partir de la description détaillée fournie ci-après. Cependant, il faut entendre que la description détaillée et des exemples spécifiques, bien qu’indiquant des modes de réalisation préférés de l’invention, sont fournis à titre d’illustration seulement, car divers changements et diverses modifications au sein de l’esprit et de la portée de l’invention deviendront évidents, pour l’homme du métier, à partir de la description détaillée.
Les dessins joints, qui sont inclus pour fournir une compréhension supplémentaire de l’invention et sont incorporés dans et constituent une partie de ce mémoire, illustrent des modes de réalisation et, conjointement avec la description, servent à expliquer les principes de l’invention.
Sur les dessins : la figure IA est un schéma de principe d’un terminal mobile selon un mode de réalisation de la présente invention ; les figures 1B et IC sont des vues conceptuelles illustrant un exemple d’un terminal mobile, vu à partir de différentes directions ; la figure 2A est un organigramme illustrant une méthode pour contrôler un terminal mobile conformément à un mode de réalisation de la présente invention ; les figures 2B à 2C sont des vues conceptuelles illustrant la méthode de contrôle de la figure 2A ; les figures 3 A et 3 B sont des vues conceptuelles illustrant une méthode de contrôle du stockage d’images durant la capture de vidéo conformément à un mode de réalisation de la présente invention ; les figures 4A à 4D sont des vues conceptuelles illustrant une méthode de contrôle du stockage d’images de manière catégorisée lorsque des sujets discriminés sont détectés ; la figure 5A est un organigramme illustrant une méthode de contrôle du contrôle d’une fonction associée à une image stockée ; les figures 5B à 5E sont des vues conceptuelles chacune illustrant une méthode de contrôle de la révision d’un fichier vidéo et d’images stockés conformément à différents modes de réalisation décrits dans les présentes ; les figures 6A et 6B sont des vues conceptuelles illustrant une méthode de contrôle de la sélection individuelle d’images stockées de façon discriminative ; les figures 7A à 7C sont des vues conceptuelles illustrant une méthode de contrôle de la révision d’une classification d’images conformément à différents modes de réalisation ; les figures 8A à 8D sont des vues conceptuelles illustrant une méthode de contrôle de la modification de catégories d’images préstockées ; et les figures 9A à 9C sont des vues conceptuelles illustrant une méthode de contrôle de la fourniture d’un fichier vidéo et d’images stockées.
Une description est à présent fournie en détail selon des modes de réalisation décrits dans les présentes, en référence aux dessins joints. Pour la brièveté de la description en référence aux dessins, les mêmes composants ou composants équivalents peuvent être dotés des mêmes numéros de référence ou de numéros de référence similaires, et la description de ceux-ci ne sera pas répétée. En général, un suffixe tel que « module » et « unité » peut être utilisé pour faire référence à des éléments ou des composants. L’utilisation d’un tel suffixe dans les présentes est simplement prévue pour faciliter la description du mémoire, et le suffixe lui-même n’est pas prévu pour donner une quelconque signification ou fonction spéciale. Dans la présente divulgation, ce qui est bien connu de l’homme ordinaire du métier a généralement été omis pour la brièveté. Les dessins joints sont utilisés pour aider à comprendre facilement des caractéristiques techniques variées et il faut entendre que les modes de réalisation présentés ici ne sont pas limités par les dessins joints. En tant que telle, la présente description doit être interprétée comme s’étendant à de quelconques modifications, équivalents et substituts en plus de ceux qui sont particulièrement présentés sur les dessins joints.
Des terminaux mobiles présentés ici peuvent être mis en œuvre en utilisant une variété de différents types de terminaux. Des exemples de tels terminaux incluent des téléphones cellulaires, des téléphones intelligents, des équipements utilisateur, des ordinateurs portables, des terminaux de diffusion numérique, des assistants numériques personnels (PDA), des lecteurs multimédia portatifs (PMP), des navigateurs, des ordinateurs portatifs (PC), des PC ardoises, des PC tablettes, des ordinateurs ultra-portatifs, des dispositifs portables (par exemple, des montres intelligentes, des lunettes intelligentes, des visiocasques (HMD)), et analogues. À titre d’exemple non limitatif seulement, une description supplémentaire va être réalisée en référence à des types particuliers de terminaux mobiles. Cependant, de tels enseignements s’appliquent tout autant à d’autres types de terminaux, tels que les types notés ci-dessus. En outre, ces enseignements peuvent également être appliqués à des terminaux stationnaires tels que des TV numériques, des ordinateurs de bureau, et analogues.
En faisant référence aux figures IA à IC, la figure IA est un schéma de principe d’un terminal mobile conformément à un mode de réalisation de la présente invention, et les figures IB et IC sont des vues conceptuelles illustrant un exemple d’un terminal mobile, vu à partir de différentes directions. Le terminal mobile 100 peut être représenté possédant des composants tels qu’une unité de communication sans fil 110, une unité d’entrée 120, une unité de détection 140, une unité de sortie 150, une unité d’interface 160, une mémoire 170, un contrôleur 180, et une unité d’alimentation en énergie électrique 190. La mise en œuvre de la totalité des composants illustrés n’est pas une nécessité, et plus ou moins de composants peuvent en variante être mis en œuvre.
De façon plus détaillée, l’unité de communication sans fil 110 peut typiquement inclure un ou plusieurs modules qui permettent des communications telles que des communications sans fil entre le terminal mobile 100 et un système de communication sans fil, des communications entre le terminal mobile 100 et un autre terminal mobile, des communications entre le terminal mobile 100 et un serveur externe. En outre, l’unité de communication sans fil 110 peut typiquement inclure un ou plusieurs modules qui connectent le terminal mobile 100 à un ou à plusieurs réseaux. L’unité de communication sans fil 110 peut inclure un ou plusieurs parmi un module de réception de diffusion 111, un module de communication mobile 112, un module Internet sans fil 113, un module de communication à courte distance 114, et un module d’informations de localisation 115. L’unité d’entrée 120 peut inclure un appareil de capture de vues 121 ou une unité d’entrée d’image pour obtenir des images ou une vidéo, un microphone 122, qui est un type de dispositif d’entrée audio pour entrer un signal audio, et une unité d’entrée utilisateur 123 (par exemple, une touche tactile, une touche mécanique, et analogues) pour permettre à un utilisateur d’entrer des informations. Des données (par exemple, audio, vidéo, image, et analogues) peuvent être obtenues par l’unité d’entrée 120 et peuvent être analysées et traitées selon des commandes utilisateur. L’unité de détection 140 peut typiquement être mise en œuvre en utilisant un ou plusieurs capteurs configurés pour détecter des informations internes du terminal mobile, l’environnement avoisinant du terminal mobile, des informations utilisateur, et analogues. Par exemple, l’unité de détection 140 peut inclure au moins l’un parmi un capteur de proximité 141, un capteur d’éclairage 142, un capteur tactile, un capteur d’accélération, un capteur magnétique, un capteur de gravité, un capteur gyroscopique, un capteur de mouvement, un capteur RGB, un capteur infrarouge (IR), un capteur de balayage digital, un capteur ultrasonique, un capteur optique (par exemple, appareil de capture de vues 121), un microphone 122, une jauge de batterie, un capteur d’environnement (par exemple, un baromètre, un hygromètre, un thermomètre, un capteur de détection de rayonnement, un capteur thermique, et un capteur de gaz, entre autres), et un capteur chimique (par exemple, un nez électronique, un capteur de santé, un capteur biométrique, et analogues). Le terminal mobile décrit dans les présentes peut être configuré pour utiliser des informations obtenues à partir d’un ou de plusieurs capteurs de l’unité de détection 140, et des associations de celles-ci. L’unité de sortie 150 peut typiquement être configurée pour produire en sortie divers types d’informations, telle qu’audio, vidéo, sortie tactile, et analogues. L’unité de sortie 150 peut être représentée possédant au moins l’un parmi une unité d’affichage 151, un module de sortie audio 152, un module haptique 153, et un module de sortie optique 154. L’unité d’affichage 151 peut posséder une structure inter-couche ou une structure intégrée avec un capteur tactile afin de faciliter un écran tactile. L’écran tactile peut fournir une interface de sortie entre le terminal mobile 100 et un utilisateur, ainsi que servir d’unité d’entrée utilisateur 123 qui fournit une interface d’entrée entre le terminal mobile 100 et l’utilisateur. L’imité d’interface 160 sert d’interface avec divers types de dispositifs externes qui peuvent être couplés au terminal mobile 100. L’unité d’interface 160, par exemple, peut inclure l’un quelconque parmi des ports câblés ou sans fil, des ports d’alimentation en énergie électrique externe, des ports de données câblés ou sans fil, des ports de carte de mémoire, des ports pour connecter un dispositif possédant un module d’identification, des ports d’entrée/de sortie (I/O) audio, des ports I/O vidéo, des ports d’oreillette, et analogues. Dans certains cas, le terminal mobile 100 peut réaliser des fonctions de commande assorties associées à un dispositif externe connecté, en réponse au dispositif externe connecté à l’unité d’interface 160.
La mémoire 170 est typiquement mise en œuvre pour stocker des données pour supporter diverses fonctions ou caractéristiques du terminal mobile 100. Par exemple, la mémoire 170 peut être configurée pour stocker des programmes d’application exécutés dans le terminal mobile 100, des données ou des instructions pour des opérations du terminal mobile 100, et analogues. Certains de ces programmes d’application peuvent être téléchargés à partir d’un serveur externe par l’intermédiaire de communication sans fil. D’autres programmes d’application peuvent être installés à l’intérieur du terminal mobile 100 lors de la fabrication ou de l’expédition, ce qui est typiquement le cas pour des fonctions de base du terminal mobile 100 (par exemple, la réception d’un appel, la réalisation d’un appel, la réception d’un message, l’envoi d’un message, et analogues). Il est courant que des programmes d’application soient stockés dans la mémoire 170, installés dans le terminal mobile 100, et exécutés par le contrôleur 180 pour réaliser une opération (ou fonction) pour le terminal mobile 100.
Le contrôleur 180 fonctionne typiquement pour contrôler le fonctionnement général du terminal mobile 100, en plus des opérations associées aux programmes d’application. Le contrôleur 180 peut fournir ou traiter des informations ou fonctions appropriées pour un utilisateur en traitant des signaux, des données, des informations et analogues, qui sont entrées ou sorties par les divers composants susmentionnés, ou en activant des programmes d’application stockés dans la mémoire 170.
Aussi, le contrôleur 180 contrôle certains ou la totalité des composants illustrés sur la figure IA selon l’exécution d’un programme d’application qui a été stocké dans la mémoire 170. De plus, le contrôleur 180 peut contrôler au moins deux de ces composants inclus dans le terminal mobile pour activer le programme d’application. L’unité d’alimentation en énergie électrique 190 peut être configurée pour recevoir de l’énergie électrique externe ou fournir de l’énergie électrique interne afin de fournir de l’énergie électrique appropriée requise pour faire fonctionner des éléments et composants inclus dans le terminal mobile 100. L’unité d’alimentation en énergie électrique 190 peut inclure une batterie, et la batterie peut être configurée pour être incorporée dans le corps de terminal, ou configurée pour être séparable du corps de terminal.
Au moins une partie des composants peut fonctionner de façon coopérative pour mettre en œuvre une opération, un contrôle ou une méthode de contrôle d’un terminal mobile selon divers modes de réalisation décrits dans les présentes. Aussi, l’opération, le contrôle ou la méthode de contrôle du terminal mobile peuvent être mis en œuvre sur le terminal mobile par une activation d’au moins un programme d’application stocké dans la mémoire 170.
Ci-après, une description sera fournie de façon plus détaillée des composants susmentionnés en référence à la figure IA, avant de décrire divers modes de réalisation mis en œuvre par l’intermédiaire du terminal mobile 100. D’abord, en ce qui concerne l’unité de communication sans fil 110, le module de réception de diffusion 111 est typiquement configuré pour recevoir un signal de diffusion et/ou des informations associées à la diffusion à partir d’une entité de gestion de diffusion externe par l’intermédiaire d’un canal de diffusion. Le canal de diffusion peut inclure un canal satellite, un canal terrestre, ou les deux. Dans certains modes de réalisation, deux ou plus modules de réception de diffusion 111 peuvent être utilisés pour faciliter la réception simultanée de deux, ou plus, canaux de diffusion, ou pour supporter la commutation parmi des canaux de diffusion.
Le module de communication mobile 112 peut transmettre et/ou recevoir des signaux sans fil à une ou plusieurs et à partir d’une ou de plusieurs entités de réseau. Des exemples typiques d’une entité de réseau incluent une station de base, un terminal mobile externe, un serveur, et analogues. De telles entités de réseau font partie d’un réseau de communication mobile, qui est construit selon des normes techniques ou méthodes de communication pour des communications mobiles (par exemple, système mondial de communication avec les mobiles (GSM), accès multiple par répartition en code (CDMA), accès multiple par répartition en code 2000 (CDMA 2000), accès multiple par répartition en code à large bande (WCDMA), accès par paquets en liaison descendante à haut débit (HSDPA), accès par paquets en liaison montante à haut débit (HSUPA), technologie d’évolution à long terme (LTE), technologie d’évolution à long terme-avancée (LTE-A), et analogues). Des exemples de signaux sans fil incluent des signaux d’appel audio, des signaux d’appel vidéo (téléphonie), ou divers formats de données pour supporter la communication de messages textuels et multimédia.
Le module Internet sans fil 113 est configuré pour faciliter l’accès Internet sans fil. Ce module peut être couplé intérieurement ou extérieurement au terminal mobile 100. Le module Internet sans fil 113 peut transmettre et/ou recevoir des signaux sans fil par l’intermédiaire de réseaux de communication selon des technologies Internet sans fil.
Des exemples de tel accès Internet sans fil incluent un réseau local sans fil (WLAN), Wi-Fi, Wi-Fi Direct, DLNA, large bande sans fil (WiBro), WiMAX, HSDPA, HSUPA, LTE, LTE-A, et analogues. Le module Internet sans fil 113 peut transmettre/recevoir des données selon l’une ou plusieurs parmi de telles technologies Internet sans fil, et d’autres technologies Internet également.
Dans certains modes de réalisation, lorsque l’accès Internet sans fil est mis en œuvre selon, par exemple, WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LET-A, et analogues, an tant que partie d’un réseau de communication mobile, le module Internet sans fil 113 réalise un tel accès Internet sans fil et peut être entendu comme étant un type du module de communication mobile 112.
Le module de communication à courte distance 114 est configuré pour faciliter des communications à courte distance. Des technologies appropriées pour mettre en œuvre des telles communications à courte distance incluent BLUETOOTH™, identification par radiofréquence (RFID), association de données infrarouge (IrDA), bande ultralarge (UWB), ZigBee, communication en champ proche (NFC), Wi-Fi, Wi-Fi Direct, et bus série universel, et analogues. Le module de communication à courte distance 114 supporte en général des communications sans fil entre le terminal mobile 100 et un système de communication sans fil, des communications entre le terminal mobile 100 et un autre terminal mobile 100, ou des communications entre le terminal mobile et un réseau où un autre terminal mobile 100 (ou un serveur externe) est situé, par l’intermédiaire de réseaux sans fil. Un exemple des réseaux sans fil est un réseau personnel sans fil.
Ici, un autre terminal mobile (qui peut être configuré de façon similaire à terminal mobile 100) peut être un dispositif portable, par exemple, une montre intelligente, des lunettes intelligentes ou un visiocasque (HMD), qui peut échanger des données avec le terminal mobile 100 (ou autrement coopérer avec le terminal mobile 100). Le module de communication à courte distance 114 peut détecter ou reconnaître le dispositif portable, et permettre la communication entre le dispositif portable et le terminal mobile 100. De plus, lorsque le dispositif portable détecté est un dispositif qui est authentifié pour communiquer avec le terminal mobile 100, le contrôleur 180, par exemple, peut entraîner la transmission d’au moins une partie de données traitées dans le terminal mobile 100 au dispositif portable par l’intermédiaire du module de communication à courte distance 114. Donc, un utilisateur du dispositif portable peut utiliser les données traitées dans le terminal mobile 100 sur le dispositif portable. Par exemple, lorsqu’un appel est reçu dans le terminal mobile 100, l’utilisateur peut répondre à l’appel en utilisant le dispositif portable. Aussi, lorsqu’un message est reçu dans le terminal mobile 100, l’utilisateur peut vérifier le message reçu en utilisant le dispositif portable.
Le module d’informations de localisation 115 est généralement configuré pour détecter, calculer, dériver ou autrement identifier une position (ou position actuelle) du terminal mobile. A titre d’exemple, le module d’informations de localisation 115 inclut un module de système mondial de localisation (GPS), un module Wi-Fi, ou les deux. Par exemple, lorsque le terminal mobile utilise un module GPS, une position du terminal mobile peut être acquise en utilisant un signal envoyé à partir d’un satellite GPS. A titre d’autre exemple, lorsque le terminal mobile utilise le module Wi-Fi, une position du terminal mobile peut être acquise en fonction d’informations connexes à un point d’accès (AP) sans fil qui transmet ou reçoit un signal sans fil au ou à partir du module Wi-Fi. Si l’on souhaite, le module d’informations de localisation 115 peut en variante ou en outre fonctionner avec l’un quelconque des autres modules de l’unité de communication sans fil 110 pour obtenir des données connexes à la position du terminal mobile. Le module d’informations de localisation 115 est un module utilisé pour acquérir la position (ou la position actuelle) et n’est pas limité à un module pour directement calculer ou acquérir la position du terminal mobile. L’unité d’entrée 120 peut être configurée pour permettre divers types d’entrées dans le terminal mobile 120. Des exemples de telles entrées incluent une entrée audio, d’image, vidéo, de données, et utilisateur. Une entrée d’image et vidéo est souvent obtenue en utilisant un ou plusieurs appareils de capture de vues 121. De tels appareils de capture de vues 121 peuvent traiter des vues d’image d’images inanimées ou vidéo obtenues par des capteurs d’image dans un mode de capture vidéo ou d’image. Les vues d’image traitées peuvent être affichées sur l’unité d’affichage 151 ou stockées dans la mémoire 170. De plus, les appareils de capture de vues 121 peuvent être agencés en une configuration de matrice pour permettre à une pluralité d’images possédant divers angles ou points focaux d’être entrées dans le terminal mobile 100. Aussi, les appareils de capture de vues 121 peuvent être situés dans un agencement stéréoscopique pour acquérir des images gauche et droite pour mettre en œuvre une image stéréoscopique.
Le microphone 122 traite un signal audio externe en données audio (sonores) électriques. Les données audio traitées peuvent être traitées de diverses manières selon une fonction exécutée dans le terminal mobile 100. Si l’on souhaite, le microphone 122 peut inclure des algorithmes d’élimination de bruit assortis pour éliminer un bruit indésirable généré au cours de la réception du signal audio externe. L’unité d’entrée utilisateur 123 est un composant qui permet l’entrée par un utilisateur. Une telle entrée utilisateur peut permettre au contrôleur 180 de contrôler le fonctionnement du terminal mobile 100. L’unité d’entrée utilisateur 123 peut inclure un ou plusieurs parmi un élément d’entrée mécanique (par exemple, une touche mécanique, un bouton situé sur une surface avant et/ou arrière ou une surface latérale du terminal mobile 100, un interrupteur bombé, une roue à impulsion, un interrupteur à impulsion, et analogues), ou un élément d’entrée tactile, entre autres. A titre d’exemple, l’élément d’entrée tactile peut être une touche virtuelle, une touche programmable ou une touche visuelle, qui est affichée sur un écran tactile par traitement logiciel, ou une touche tactile qui est située sur le terminal mobile à un emplacement qui est autre que l’écran tactile. En outre, la touche virtuelle ou la touche visuelle peut être affichée sur l’écran tactile en diverses formes, par exemple, graphique, textuelle, iconique, vidéo, ou une association de celles-ci. L’unité de détection 140 est généralement configurée pour détecter l’une ou plusieurs parmi des informations internes du terminal mobile, des informations d’environnement avoisinant du terminal mobile, des informations utilisateur, ou analogues, et générer un signal de détection correspondant. Le contrôleur 180 coopère généralement avec l’unité de détection 140 pour contrôler le fonctionnement du terminal mobile 100 ou exécuter un traitement de données, une fonction ou une opération associée à un programme d’application installé dans le terminal mobile en fonction du signal de détection. L’imité de détection 140 peut être mise en œuvre en utilisant l’un quelconque parmi une variété de capteurs, dont certains vont à présent être décrits de façon plus détaillée.
Le capteur de proximité 141 fait référence à un capteur pour détecter la présence ou l’absence d’un objet se rapprochant d’une surface, ou d’un objet situé près d’une surface, en utilisant un champ électromagnétique, des rayons infrarouges, ou analogues sans contact mécanique. Le capteur de proximité 141 peut être agencé dans une région intérieure du terminal mobile couverte par l’écran tactile, ou près de l’écran tactile.
Le capteur de proximité 141, par exemple, peut inclure l’un quelconque parmi un capteur photoélectrique à transmission, un capteur photoélectrique à réflexion directe, un capteur photoélectrique à réflexion miroir, un capteur de proximité à vibration haute fréquence, un capteur de proximité capacitif, un capteur de proximité magnétique, un capteur de proximité infrarouge, et analogues. Lorsque l’écran tactile est mis en œuvre sous forme capacitive, le capteur de proximité 141 peut détecter la proximité d’un pointeur relativement à l’écran tactile par l’intermédiaire de changements d’un champ électromagnétique, qui répond à une approche d’un objet avec conductivité. Dans ce cas, l’écran tactile (capteur tactile) peut également être catégorisé en tant que capteur de proximité.
On fera souvent référence au terme « toucher en proximité » dans les présentes pour dénoter le scénario dans lequel un pointeur est positionné pour être à proximité de l’écran tactile sans entrer en contact avec l’écran tactile. On fera souvent référence au terme « toucher à contact » dans les présentes pour dénoter le scénario dans lequel un pointeur entre en contact physique avec l’écran tactile. Pour la position correspondant au toucher en proximité du pointeur relativement à l’écran tactile, une telle position correspondra à une position où le pointeur est perpendiculaire à l’écran tactile. Le capteur de proximité 141 peut capter un toucher en proximité, et des profils de toucher en proximité (par exemple, distance, direction, vitesse, temps, position, état de mouvement, et analogues). En général, le contrôleur 180 traite des données correspondant à des touchers en proximité et des profils de toucher en proximité détectés par le capteur de proximité 141, et entraîne la sortie d’informations visuelles sur l’écran tactile. De plus, le contrôleur 180 peut contrôler le terminal mobile 100 pour exécuter différentes opérations ou traiter différentes données (ou informations) selon le fait qu’un toucher par rapport à un point sur l’écran tactile est un toucher en proximité ou un toucher à contact.
Un capteur tactile peut détecter un toucher (ou une entrée tactile) appliqué sur l’écran tactile, tel que l’unité d’affichage 151, en utilisant l’une quelconque parmi une variété de méthodes tactiles. Exemples de telles méthodes tactiles incluent un type résistif, un type capacitif, un type infrarouge, et un type à champ magnétique, entre autres. À titre d’exemple, le capteur tactile peut être configuré pour convertir des changements de pression appliqués sur une partie spécifique de l’unité d’affichage 151, ou convertir une capacité se produisant sur une partie spécifique de l’unité d’affichage 151, en signaux d’entrée électriques. Le capteur tactile peut également être configuré pour détecter non seulement une position touchée et une zone touchée, mais également une pression tactile et/ou une capacité tactile. Un objet tactile est généralement utilisé pour appliquer une entrée tactile sur le capteur tactile. Des exemples d’objets tactiles typiques incluent un doigt, un stylo tactile, un stylet, un pointeur, ou analogues.
Lorsqu’une entrée tactile est détectée par un capteur tactile, des signaux correspondants peuvent être transmis à un contrôleur tactile. Le contrôleur tactile peut traiter les signaux reçus, et puis transmettre des données correspondantes au contrôleur 180. Par conséquent, le contrôleur 180 peut détecter la région de l’unité d’affichage 151 qui a été touchée. Ici, le contrôleur tactile peut être un composant séparé du contrôleur 180, le contrôleur 180, et des associations de ceux-ci.
De plus, le contrôleur 180 peut exécuter les mêmes contrôles ou des contrôles différents selon un type d’objet tactile qui touche l’écran tactile ou une touche tactile fourni en plus de l’écran tactile. Le fait qu’il faille exécuter le même contrôle ou un contrôle différent selon l’objet qui fournit une entrée tactile peut être décidé en fonction d’un état de fonctionnement actuel du terminal mobile 100 ou d’un programme d’application actuellement exécuté, par exemple.
Le capteur tactile et le capteur de proximité peuvent être mis en œuvre individuellement, ou en association, pour détecter divers types de touchers. De tels touchers incluent un toucher court (ou tape), un toucher long, un toucher multiple, un toucher-tirer, un toucher à coup rapide, un toucher à pincement à rapprochement, un toucher à pincement à écartement, un toucher-glisser, un toucher à flottement, et analogues.
Si l’on souhaite, un capteur ultrasonique peut être mis en œuvre pour reconnaître des informations de localisation concernant un objet tactile en utilisant des ondes ultrasoniques. Le contrôleur 180, par exemple, peut calculer une position d’une source de génération d’ondes en fonction d’informations détectées par un capteur d’éclairage et une pluralité de capteurs ultrasoniques. Comme la lumière est bien plus rapide que des ondes ultrasoniques, le temps pour que la lumière atteigne le capteur optique est bien plus court que le temps pour que l’onde ultrasonique atteigne le capteur ultrasonique. La position de la source de génération d’ondes peut être calculée en utilisant ce fait. Par exemple, la position de la source de génération d’ondes peut être calculée en utilisant la différence de temps par rapport au temps pour que l’onde ultrasonique atteigne le capteur en fonction de la lumière en tant que signal de référence. L’appareil de capture de vues 121, qui a été illustré comme étant un composant de l’unité d’entrée 120, inclut typiquement au moins un capteur d’appareil de capture de vues (CCD, CMOS etc.), un photo-capteur (ou capteurs d’image), et un capteur laser. La mise en œuvre de l’appareil de capture de vues 121 avec un capteur laser peut permettre la détection d’un toucher d’un objet physique par rapport à une 3D image stéréoscopique. Le photo-capteur peut être stratifié sur, ou recouvert partiellement par, le dispositif d’affichage. Le photo-capteur peut être configuré pour balayer un mouvement de l’objet physique à proximité de l’écran tactile. De façon plus détaillée, le photo-capteur peut inclure des photo-diodes et des transistors en rangées et colonnes pour balayer le contenu reçu dans le photo-capteur en utilisant un signal électrique qui change selon la quantité de lumière appliquée. À savoir, le photo-capteur peut calculer les coordonnées de l’objet physique selon une variation de lumière pour ainsi obtenir des informations de localisation de l’objet physique. L’unité d’affichage 151 est généralement configurée pour produire en sortie des informations traitées dans le terminal mobile 100. Par exemple, l’unité d’affichage 151 peut afficher des informations d’écran d’exécution d’un programme d’application exécuté dans le terminal mobile 100 ou des informations d’interface utilisateur (UI) et d’interface utilisateur graphique (GUI) en réponse aux informations d’écran d’exécution.
Aussi, l’unité d’affichage 151 peut être mise en oeuvre sous forme d’unité d’affichage stéréoscopique pour afficher des images stéréoscopiques. Une unité d’affichage stéréoscopique typique peut utiliser un système d’affichage stéréoscopique tel qu’un système stéréoscopique (un système à lunette), un système auto-stéréoscopique (système sans lunette), un système de projection (système holographique), ou analogues.
Le module de sortie audio 152 est généralement configuré pour produire en sortie des données audio. De telles données audio peuvent être obtenues à partir de l’une quelconque parmi un nombre de sources différentes, de telle sorte que les données audio puissent être reçues à partir de l’unité de communication sans fil 110 ou puissent avoir été stockées dans la mémoire 170. Les données audio peuvent être produites en sortie durant des modes tels qu’un mode de réception de signal, un mode d’appel, un mode d’enregistrement, un mode de reconnaissance vocale, un mode de réception de diffusion, et analogues. Le module de sortie audio 152 peut fournir une sortie audible connexe à une fonction particulière (par exemple, un son de réception de signal d’appel, un son de réception de message, etc.) réalisée par le terminal mobile 100. Le module de sortie audio 152 peut également être mis en œuvre sous forme de récepteur, de haut-parleur, d’avertisseur sonore, ou analogues.
Un module haptique 153 peut être configuré pour générer divers effets tactiles qu’un utilisateur ressent, perçoit, ou autrement subit. Un exemple typique d’un effet tactile généré par le module haptique 153 est la vibration. L’intensité, le profil et analogues de la vibration générée par le module haptique 153 peuvent être contrôlés par sélection utilisateur par réglage par le contrôleur. Par exemple, le module haptique 153 peut produire en sortie différentes vibrations de manière combinée ou de manière séquentielle.
En plus de vibration, le module haptique 153 peut générer divers autres effets tactiles, y compris un effet par stimulation tel qu’un agencement à épingle se déplaçant verticalement pour entrer en contact avec la peau, une force de pulvérisation ou une force d’aspiration d’air à travers un orifice à jet ou une ouverture d’aspiration, un toucher sur la peau, un contact d’une électrode, une force électrostatique, un effet en reproduisant la sensation de froid ou de chaud en utilisant un élément qui peut absorber ou générer de la chaleur, et analogues.
Le module haptique 153 peut également être mis en œuvre pour permettre à l’utilisateur de ressentir un effet tactile par l’intermédiaire d’une sensation musculaire, par exemple par les doigts ou les bras de l’utilisateur, ainsi que transférer l’effet tactile par contact direct. Deux, ou plus, modules haptiques 153 peuvent être prévus selon la configuration particulière du terminal mobile 100.
Un module de sortie optique 154 peut produire en sortie un signal pour indiquer une génération d’événement en utilisant de la lumière d’une source lumineuse. Des exemples d’événements générés dans le terminal mobile 100 peuvent inclure la réception de message, la réception de signal d’appel, un appel en absence, une alarme, une notification de calendrier, une réception de courrier électronique, une réception d’informations par l’intermédiaire d’une application, et analogues. Un signal produit en sortie par le module de sortie optique 154 peut être mis en œuvre pour que le terminal mobile émette une lumière monochrome ou de la lumière avec une pluralité de couleurs. Le signal produit en sortie peut être terminé lorsque le terminal mobile détecte qu’un utilisateur a vérifié l’événement généré, par exemple. L’unité d’interface 160 sert d’interface pour des dispositifs externes destinés à être connectés au terminal mobile 100. Par exemple, l’unité d’interface 160 peut recevoir des données transmises à partir d’un dispositif externe, recevoir de l’énergie électrique à transférer à des éléments et composants à l’intérieur du terminal mobile 100, ou transmettre des données internes du terminal mobile 100 à un tel dispositif externe. L’unité d’interface 160 peut inclure des ports de casque câblés ou sans fil, des ports d’alimentation en énergie électrique externe, des ports de données câblés ou sans fil, des ports de carte de mémoire, des ports pour connecter un dispositif possédant un module d’identification, des ports d’entrée/de sortie (I/O) audio, des ports LO vidéo, des ports d’oreillette, ou analogues.
Le module d’identification peut être une puce qui stocke diverses informations pour authentifier l’autorité de l’utilisation du terminal mobile 100 et peut inclure un module d’identification utilisateur (UIM), un module d’identification d’abonné (SIM), et un module d’identification d’abonnée universel (USIM), et analogues. En outre, le dispositif possédant le module d’identification (également appelé dans les présentes « dispositif d’identification ») peut prendre la forme d’une carte intelligente. Par conséquent, le dispositif d’identification peut être connecté au terminal 100 par l’intermédiaire de l’unité d’interface 160.
Lorsque le terminal mobile 100 est connecté à un socle d’accueil externe, l’unité d’interface 160 peut servir de passage pour permettre à de l’énergie électrique, à partir du socle d’accueil, d’être fournie au terminal mobile 100 ou peut servir de passage pour permettre à divers signaux de commande entrés par futilisateur, à partir du socle d’accueil, d’être transférés au terminal mobile par l’intermédiaire de celui-ci. Divers signaux de commande ou l’entrée d’énergie électrique à partir du socle d’accueil peuvent servir de signaux pour reconnaître que le terminal mobile est correctement monté sur le socle d’accueil.
La mémoire 170 peut stocker des programmes pour supporter des opérations du contrôleur 180 et stocker des données d’entrée/de sortie (par exemple, annuaire, messages, images inanimées, vidéos, etc.). La mémoire 170 peut stocker des données connexes à divers profils de vibrations et audio qui sont produites en sortie en réponse à des entrées tactiles sur l’écran tactile. La mémoire 170 peut inclure un ou plusieurs types de supports de stockage, y compris un type mémoire flash, un type disque dur, un type disque à semi-conducteur (S SD), un type disque de silicium (S SD), un type microcarte multimédia, une mémoire de type carte (par exemple, mémoire SD ou XD, etc.), une mémoire vive (RAM), une mémoire vive statique (SRAM), une mémoire morte (ROM), une mémoire morte effaçable et programmable électriquement (EEPROM), une mémoire morte programmable (PROM), une mémoire magnétique, un disque magnétique, et un disque optique, et analogues. Le terminal mobile 100 peut également être mis en fonctionnement par rapport à un dispositif de stockage en réseau qui réalise la fonction de stockage de la mémoire 170 par l’intermédiaire d’un réseau, tel qu’Intemet.
Le contrôleur 180 peut typiquement contrôler des opérations concernant des programmes d’application et les fonctionnements généraux du terminal mobile 100. Par exemple, le contrôleur 180 peut régler ou libérer un état de verrouillage pour empêcher un utilisateur d’entrer une commande de contrôle par rapport à des applications lorsqu’un état du terminal mobile satisfait à une condition préréglée.
Le contrôleur 180 peut également réaliser le contrôle et le traitement associés à des appels vocaux, des communications de données, des appels vidéo, et analogues, ou réaliser un traitement de reconnaissance de profil pour reconnaître une entrée manuscrite ou une entrée de dessin réalisée sur l’écran tactile sous forme de caractères ou d’images, respectivement. De plus, le contrôleur 180 peut contrôler l’un ou une association de ces composants afin de mettre en œuvre divers modes de réalisation décrits dans les présentes. L’unité d’alimentation en énergie électrique 190 reçoit de l’énergie électrique externe ou fournit de l’énergie électrique interne et fournit l’énergie électrique appropriée requise pour faire fonctionner des éléments et composants respectifs inclus dans le terminal mobile 100. L’unité d’alimentation en énergie électrique 190 peut inclure une batterie, qui est typiquement rechargeable ou est accouplée de façon séparable au corps de terminal pour la charge. L’unité d’alimentation en énergie électrique 190 peut inclure un port de connexion. Le port de connexion peut être configuré, à titre d’exemple, de l’unité d’interface 160 à laquelle un chargeur externe, pour fournir de l’énergie électrique pour recharger la batterie, est électriquement connecté. À titre d’autre exemple, l’unité d’alimentation en énergie électrique 190 peut être configurée pour recharger la batterie sans fil sans utiliser le port de connexion. Dans cet exemple, l’unité d’alimentation en énergie électrique 190 peut recevoir de l’énergie électrique, transférée à partir d’un transmetteur d’énergie électrique sans fil externe, en utilisant au moins l’une parmi une méthode de couplage à induction qui est fondée sur l’induction magnétique ou une méthode de couplage à résonance magnétique qui est fondée sur la résonance électromagnétique. Divers modes de réalisation décrits dans les présentes peuvent être mis en œuvre dans un support lisible par ordinateur, un support lisible par machine, ou support similaire en utilisant, par exemple, un logiciel, un matériel, ou une quelconque association de ceux-ci.
En faisant à présent référence aux figures IB et IC, le terminal mobile 100 est décrit en référence à un corps de terminal de type barre. Cependant, le terminal mobile 100 peut en variante être mis en œuvre dans l’une quelconque parmi une variété de différentes configurations. Des exemples de telles configurations incluent un type montre, un type barrette, un type lunette, ou sous forme de type pliant, de type à rabat, de type coulissant, de type à bascule, de type pivotant dans lequel deux, ou plus, corps sont associés l’un à l’autre de manière relativement mobile, et des associations de ceux-ci. La description dans les présentes concernera souvent un type particulier de terminal mobile. Cependant, de tels enseignements en ce qui concerne un type particulier de terminal mobile s’appliqueront généralement à d’autres types de terminaux mobiles également.
Le terminal mobile 100 inclura généralement un boîtier (par exemple, cadre, logement, couvercle, et analogues) formant l’apparence du terminal. Dans le présent mode de réalisation, le boîtier est formé en utilisant un boîtier avant 101 et un boîtier arrière 102. Divers composants électroniques sont incorporés dans un espace formé entre le boîtier avant 101 et le boîtier arrière 102. Au moins un boîtier médian peut en outre être positionné entre le boîtier avant 101 et le boîtier arrière 102. L’unité d’affichage 151 est représentée située sur le côté avant du corps de terminal pour produire en sortie des informations. Comme cela est illustré, une fenêtre 151a de l’unité d’affichage 151 peut être montée sur le boîtier avant 101 pour former la surface avant du corps de terminal conjointement avec le boîtier avant 101.
Dans certains modes de réalisation, des composants électroniques peuvent également être montés sur le boîtier arrière 102. Des exemples de tels composants électroniques incluent une batterie séparable, un module d’identification, une carte de mémoire, et analogues. Un couvercle arrière 103 est représenté couvrant les composants électroniques, et ce couvercle peut être accouplé de façon séparable au boîtier arrière 102. Donc, lorsque le couvercle arrière 103 est séparé du boîtier arrière 102, les composants électroniques montés sur le boîtier arrière 102 sont exposés extérieurement.
Comme cela est illustré, lorsque le couvercle arrière 103 est accouplé au boîtier arrière 102, une surface latérale du boîtier arrière 102 est partiellement exposée. Dans certains cas, lors de l’accouplement, le boîtier arrière 102 peut également être complètement protégé par le couvercle arrière 103. Dans certains modes de réalisation, le couvercle arrière 103 peut inclure une ouverture pour exposer extérieurement un appareil de capture de vues 121b ou un module de sortie audio 152b.
Les boîtiers 101, 102, 103 peuvent être formés en moulant par injection une résine synthétique ou peuvent être formés d’un métal, par exemple, d’acier inoxydable (STS), d’aluminium (Al), de titane (Ti), ou analogues. À titre de variante de l’exemple dans lequel la pluralité de boîtiers forment un espace intérieur pour loger des composants, le terminal mobile 100 peut être configuré de telle sorte qu’un boîtier forme l’espace intérieur. Dans cet exemple, un terminal mobile 100 possédant un uni-corps est formé pour que de la résine synthétique ou un métal s’étende d’une surface latérale à une surface arrière.
Si Ton souhaite, le terminal mobile 100 peut inclure une unité d’étanchéité à l’eau pour empêcher l’introduction d’eau dans le corps de terminal. Par exemple, l’unité d’étanchéité à l’eau peut inclure un organe d’étanchéité à l’eau qui est situé entre la fenêtre 151a et le boîtier avant 101, entre le boîtier avant 101 et le boîtier arrière 102, ou entre le boîtier arrière 102 et le couvercle arrière 103, pour fermer hermétiquement un espace intérieur lorsque ces boîtiers sont accouplés.
Le terminal mobile 100 peut inclure une unité d’affichage 151, des premier et second modules de sortie audio 152a et 152b, un capteur de proximité 141, un capteur d’éclairage 142, un module de sortie optique 154, des premier et second appareils de capture de vues 121a et 121b, des première et seconde unités de manipulation 123a et 123b, un microphone 122, une unité d’interface 160, et analogues.
Ci-après, comme cela est illustré sur les figures IB et IC, une description va être fournie du terminal mobile 100 dans lequel la surface avant du corps de terminal est représentée possédant l’unité d’affichage 151, le premier module de sortie audio 152a, le capteur de proximité 141, le capteur d’éclairage 142, le module de sortie optique 154, le premier appareil de capture de vues 121a, et la première unité de manipulation 123a, la surface latérale du corps de terminal est représentée possédant la seconde unité de manipulation 123b, le microphone 122, et l’unité d’interface 160, et la surface arrière du corps de terminal est représentée possédant le second module de sortie audio 152b et le second appareil de capture de vues 121b.
Cependant, ces composants ne sont pas limités à l’agencement. Certains composants peuvent être omis ou réagencés ou situés sur des surfaces différentes. Par exemple, la première unité de manipulation 123 a peut être située sur une autre surface du corps de terminal, et le second module de sortie audio 152b peut être situé sur la surface latérale du corps de terminal autre que la surface arrière du corps de terminal. L’unité d’affichage 151 produit en sortie des informations traitées dans le terminal mobile 100. Par exemple, l’unité d’affichage 151 peut afficher des informations d’écran d’exécution d’un programme d’application exécuté dans le terminal mobile 100 ou des informations d’interface utilisateur (UI) et d’interface utilisateur graphique (GUI) en réponse à l’exécution informations d’écran. L’unité d’affichage 151 peut être mise en œuvre en utilisant un ou plusieurs dispositifs d’affichage appropriés. Des exemples de tels dispositifs d’affichage appropriés incluent un écran d’affichage à cristaux liquide (LCD), un écran d’affichage à cristaux liquide à transistor à couche mince (TFT-LCD), une diode électroluminescente organique (OLED), un écran d’affichage flexible, un écran d’affichage tridimensionnel (3D), un écran d’affichage à encre électronique, et des associations de ceux-ci.
Par exemple, une pluralité des unités d’affichage 151 peuvent être agencées sur un côté, espacées les unes des autres, ou ces dispositifs peuvent être intégrés, ou ces dispositifs peuvent être agencés sur différentes surfaces. L’unité d’affichage 151 peut également inclure un capteur tactile qui détecte une entrée tactile reçue sur l’unité d’affichage. Lorsqu’un toucher est entré sur l’unité d’affichage 151, le capteur tactile peut être configuré pour détecter ce toucher et le contrôleur 180, par exemple, peut générer une commande de contrôle ou autre signal correspondant au toucher. Le contenu qui est entré de manière tactile peut être une valeur textuelle ou numérique, ou un article de menu qui peut être indiqué ou désigné dans divers modes.
Le capteur tactile peut être configuré sous forme de film possédant une configuration tactile, disposé entre la fenêtre 151a et un écran d’affichage sur une surface arrière de la fenêtre 151a, ou un fil métallique qui est disposé en configuration directement sur la surface arrière de la fenêtre 151a. En variante, le capteur tactile peut -être formé de façon monobloc avec l’écran d’affichage. Par exemple, le capteur tactile peut être disposé sur un substrat de l’écran d’affichage ou à l’intérieur de l’écran d’affichage. L’unité d’affichage 151 peut également former un écran tactile conjointement avec le capteur tactile. Ici, l’écran tactile peut servir d’unité d’entrée utilisateur 123 (voir figure IA). Donc, l’écran tactile peut remplacer au moins certaines des fonctions de la première unité de manipulation 123a.
Le premier module de sortie audio 152a peut être mis en œuvre sous forme de récepteur pour transférer des sons d’appel à l’oreille d’un utilisateur et le second module de sortie audio 152b peut être mis en œuvre sous forme de haut-parleur pour produire en sortie des sons d’alarme, une reproduction audio multimédia, et analogues.
La fenêtre 151a de l’unité d’affichage 151 inclura typiquement une ouverture pour permettre à l’audio généré par le premier module de sortie audio 152a de passer. Une variante est de permettre à un audio d’être libéré le long d’un espace d’assemblage entre les corps structuraux (par exemple, un espace entre la fenêtre 151a et le boîtier avant 101). Dans ce cas, un trou indépendamment formé pour produire en sortie des sons audio peut ne pas être vu ou est autrement camouflé en termes d’apparence, simplifiant ainsi davantage l’apparence et la fabrication du terminal mobile 100.
Le module de sortie optique 154 peut être configuré pour produire en sortie de la lumière pour indiquer une génération d’événement. Des exemples de tels événements incluent une réception de message, une réception de signal d’appel, un appel en absence, une alarme, une alarme de calendrier, une réception de courrier électronique, une réception d’informations par l’intermédiaire d’une application, et analogues. Lorsqu’un utilisateur a vérifié un événement généré, le contrôleur 180 peut contrôler le module de sortie optique 154 pour arrêter la sortie lumineuse.
Le premier appareil de capture de vues 121a peut traiter des vues d’image telles que des images inanimées ou animées obtenues par le capteur d’image dans un mode de capture ou un mode d’appel vidéo. Les vues d’image traitées peuvent alors être affichées sur l’unité d’affichage 151 ou stockées dans la mémoire 170.
Les première et seconde unités de manipulation 123a et 123b sont des exemples de l’unité d’entrée utilisateur 123, qui peut être manipulée par un utilisateur pour fournir une entrée au terminal mobile 100. Les première et seconde unités de manipulation 123a et 123b peuvent également être communément appelées portion de manipulation, et peuvent utiliser une quelconque méthode tactile qui permet à l’utilisateur de réaliser une manipulation telle qu’un toucher, un pousser, un défilement, ou analogues. Les première et seconde unités de manipulation 123a et 123b peuvent également utiliser une quelconque méthode non tactile qui permet à l’utilisateur de réaliser une manipulation telle qu’un toucher en proximité, un toucher à flottement, ou analogues.
La figure IB illustre la première unité de manipulation 123a sous forme de touche tactile, mais d’éventuelles variantes incluent une touche poussoir (ou mécanique), une touche tactile, et des associations de celles-ci. L’entrée reçue sur les première et seconde unités de manipulation 123a et 123b peut être utilisée de diverses manières. Par exemple, la première unité de manipulation 123a peut être utilisée par l’utilisateur pour fournir une entrée à un menu, une touche d’accueil, une annulation, une recherche, ou analogues, et la seconde unité de manipulation 123b peut être utilisée par l’utilisateur pour fournir une entrée pour contrôler un niveau de volume produit en sortie à partir des premier ou second modules de sortie audio 152a ou 152b, pour passer à un mode de reconnaissance tactile de l’unité d’affichage 151, ou analogues. À titre d’autre exemple de l’unité d’entrée utilisateur 123, une unité d’entrée arrière peut être située sur la surface arrière du corps de terminal. Une unité d’entrée arrière peut être manipulée par un utilisateur pour fournir une entrée dans le terminal mobile 100. L’entrée peut être utilisée d’une variété de différentes manières. Par exemple, une unité d’entrée arrière peut être utilisée par l’utilisateur pour fournir une entrée pour l’allumage/1’ extinction d’énergie électrique, le commencement, la fin, le défilement, la commande du niveau de volume produit en sortie à partir des premier ou second modules de sortie audio 152a ou 152b, le passage à un mode de reconnaissance tactile de l’unité d’affichage 151, et analogues. Une unité d’entrée arrière peut être configurée pour permettre une entrée tactile, une entrée de pousser, ou des associations de celles-ci. L’unité d’entrée arrière peut être située pour chevaucher l’unité d’affichage 151 du côté avant dans une direction d’épaisseur du corps de terminal. À titre d’exemple, l’unité d’entrée arrière peut être située sur une portion d’extrémité supérieure du côté arrière du corps de terminal de telle sorte qu’un utilisateur puisse facilement la manipuler en utilisant un index lorsque l’utilisateur saisit le corps de terminal avec une main. En variante, l’unité d’entrée arrière peut être positionnée à un emplacement le plus quelconque du côté arrière du corps de terminal.
Lorsque l’unité d’entrée arrière est prévue sur la surface arrière du corps de terminal, un nouveau type d’interface utilisateur utilisant celle-ci peut être mis en œuvre. Des modes de réalisation qui incluent l’unité d’entrée arrière peuvent mettre en œuvre une certaine partie ou la totalité de la fonctionnalité de la première unité de manipulation 123a dans l’unité d’entrée arrière. En tant que telle, dans des situations où la première unité de manipulation 123a est omise du côté avant, l’unité d’affichage 151 peut posséder un écran plus grand. A titre de variante supplémentaire, le terminal mobile 100 peut inclure un capteur de balayage digital qui balaye l’empreinte digitale d’un utilisateur. Le contrôleur 180 peut alors utiliser des informations d’empreinte digitale détectées par le capteur de balayage digital en tant que partie d’une procédure d’authentification. Le capteur de balayage digital peut également être installé dans l’unité d’affichage 151 ou mis en œuvre dans l’unité d’entrée utilisateur 123.
Le microphone 122 est représenté situé à une extrémité du terminal mobile 100, mais d’autres emplacements sont possibles. Si l’on souhaite, de multiples microphones peuvent être mis en œuvre, avec un tel agencement permettant la réception de sons stéréo. L’unité d’interface 160 peut servir de trajet permettant au terminal mobile 100 de réaliser une interface avec des dispositifs externes. Par exemple, l’unité d’interface 160 peut inclure l’un ou plusieurs parmi une borne de connexion pour se connecter à un autre dispositif (par exemple, une oreillette, un haut-parleur externe, ou analogues), un port pour communication en champ proche (par exemple, un port IrDA, un port Bluetooth, un port LAN sans fil, et analogues), ou une borne d’alimentation en énergie électrique pour fournir de l’énergie électrique au terminal mobile 100. L’unité d’interface 160 peut être mise en œuvre sous forme de support femelle pour loger une carte externe, telle qu’un module d’identification d’abonné (SIM), ou un module d’identification d’utilisateur (UIM), ou une carte de mémoire pour le stockage d’informations.
Comme cela est représenté sur la figure IC, le second appareil de capture de vues 121b est représenté situé sur le côté arrière du corps de terminal et inclut une direction de capture d’image qui est sensiblement opposée à la direction de capture d’image de la première unité d’appareil de capture de vues 121a. Le second appareil de capture de vues 121b peut inclure une pluralité de lentilles agencées le long d’au moins une ligne. La pluralité de lentilles peuvent également être agencées en une configuration de matrice. Les appareils de capture de vues peuvent être appelés « appareil de capture de vues en réseau ». Lorsque le second appareil de capture de vues 121b est mis en œuvre sous forme d’appareil de capture de vues en réseau, des images peuvent être capturées de diverses manières en utilisant la pluralité de lentilles et des images de meilleure qualité sont obtenues.
Un flash 124 est représenté adjacent au second appareil de capture de vues 121b. Lorsqu’une image d’un sujet est capturée avec l’appareil de capture de vues 121b, le flash 124 peut éclairer le sujet. Le second module de sortie audio 152b peut être situé sur le corps de terminal. Le second module de sortie audio 152b peut mettre en œuvre des fonctions sonores stéréophoniques conjointement avec le premier module de sortie audio 152a, et peut être également utilisé pour mettre en œuvre un mode téléphone à haut-parleur communication d’appel.
Au moins une antenne pour la communication sans fil peut être située sur le corps de terminal. L’antenne peut être installée dans le corps de terminal ou formée par le boîtier. Par exemple, une antenne qui configure une partie du module de réception de diffusion 111 (voir figure IA) peut être rétractable dans le corps de terminal. En variante, une antenne peut être formée en utilisant un film fixé à une surface intérieure du couvercle arrière 103, ou un boîtier qui inclut un matériau conducteur.
Une unité d’alimentation en énergie électrique 190 pour fournir de l’énergie électrique au terminal mobile 100 peut inclure une batterie 191, qui est montée dans le corps de terminal ou accouplée de façon séparable à un extérieur du corps de terminal. La batterie 191 peut recevoir de l’énergie électrique par l’intermédiaire d’un câble de source d’énergie électrique connecté à l’unité d’interface 160. Aussi, la batterie 191 peut être rechargée sans fil en utilisant un chargeur sans fil. La charge sans fil peut être mise en œuvre par induction magnétique ou résonance électromagnétique.
Le couvercle arrière 103 est représenté accouplé au boîtier arrière 102 pour protéger la batterie 191, pour empêcher la séparation de la batterie 191, et pour protéger la batterie 191 d’un impact externe ou de matière étrangère. Lorsque la batterie 191 est séparable du corps de terminal, le boîtier arrière 103 peut être accouplé de façon séparable au boîtier arrière 102.
Un accessoire pour protéger une apparence ou assister ou améliorer les fonctions du terminal mobile 100 peut également être prévu sur le terminal mobile 100. À titre d’exemple d’un accessoire, un couvercle ou une pochette pour couvrir ou loger au moins une surface du terminal mobile 100 peut être prévu. Le couvercle ou la pochette peut coopérer avec l’unité d’affichage 151 pour améliorer la fonction du terminal mobile 100. Un autre exemple de l’accessoire est un stylo tactile pour assister ou améliorer une entrée tactile sur un écran tactile.
Maintenant, la figure 2A est un organigramme illustrant une méthode pour contrôler un terminal mobile conformément à un mode de réalisation de la présente invention, et les figures 2B à 2C sont des vues conceptuelles illustrant la méthode de contrôle de la figure 2A. Comme cela est illustré sur les figures 2A et 2B, le contrôleur 180 peut produire en sortie des images continues capturées par l’appareil de capture de vues 121 sur l’unité d’affichage 151 (S210). En particulier, le contrôleur 180 peut exécuter une fonction de capture vidéo lorsqu’une commande de contrôle pour capture vidéo est appliquée, et produire en sortie de façon continue des images obtenues par l’appareil de capture de vues 121 sur l’unité d’affichage 151. Comme les images continues produites en sortie sur l’unité d’affichage 151 constituent un fichier vidéo, un utilisateur peut vérifier ou voir ces images constituant le fichier vidéo sur l’unité d’affichage 151 en temps réel.
De plus, les images continues peuvent correspondre à des informations visuelles, à savoir, des images de prévisualisation, qui sont obtenues par l’appareil de capture de vues 121 avant qu’une commande de contrôle pour capture d’image et capture vidéo soit appliquée, après que l’appareil de capture de vues 121 est activé. Le contrôleur 180 peut également contrôler la mémoire 170 pour stocker temporairement des images 310 obtenues après que la commande de contrôle est appliquée, et générer (ou former) un fichier vidéo en utilisant les images 310. De façon plus détaillée, le contrôleur 180 peut générer un fichier vidéo en utilisant une pluralité d’images, qui sont capturées jusqu’à un instant de la réception d’une commande d’arrêt appliquée pour arrêter la capture vidéo.
Lorsque la fonction de capture vidéo est exécutée, l’unité d’affichage 151 affiche une icône de contrôle 301 pour contrôler la fonction de capture vidéo sur les images 310 obtenues par l’appareil de capture de vues. Comme cela est représenté, l’icône de contrôle 301 peut inclure une première icône 301a pour arrêter la capture vidéo et générer un fichier vidéo, une deuxième icône 301b pour pauser la capture vidéo, et une troisième icône 301c pour stocker des images produites en sortie sur l’unité d’affichage 151.
Le contrôleur 180 peut également afficher un temps de capture 30ld indiquant un temps exécuté de la fonction de capture vidéo sur une zone de l’unité d’affichage 151. Le temps de capture 301d peut ne pas changer lorsqu’un toucher est appliqué sur la deuxième icône 301b. Dans ce cas, l’unité d’affichage 151 peut produire en sortie de façon continue une image de prévisualisation obtenue par l’appareil de capture de vues 121.
En outre, le contrôleur 180 peut stocker une première image produite en sortie sur l’unité d’affichage 151 à un instant auquel un toucher est appliqué sur l’unité d’affichage 151 (S220). La première image correspond à une image obtenue par l’appareil de capture de vues 121 et produite en sortie sur l’unité d’affichage 151 à l’instant de toucher appliqué. La première image correspond également à une image incluse dans le fichier vidéo.
Ici, le toucher appliqué sur l’unité d’affichage 151 peut être appliqué sur une image produite en sortie sur l’unité d’affichage 151 ou la troisième icône 301c. Le contrôleur 180 peut également stocker la première image dans la mémoire 170, en réponse au toucher. Dans un autre exemple, le contrôleur 180 peut stocker des images obtenues par l’appareil de capture de vues 121 selon un laps de temps, indépendamment du toucher appliqué.
De plus, le contrôleur 180 peut afficher une image vignette 411 correspondant à la première image sur une zone de l’unité d’affichage 151, en réponse au toucher (S230). L’unité d’affichage 151 peut également continuer d’afficher une image obtenue par l’appareil de capture de vues en temps réel, conjointement avec l’image vignette 411. De façon plus détaillée, le contrôleur 180 peut stocker une image supplémentaire dans la mémoire 170, en réponse à un toucher appliqué sur l’unité d’affichage 151. Dans ce cas, le contrôleur 180 peut afficher une deuxième image vignette 412 correspondant à l’image supplémentaire, de façon adjacente à la première image vignette 411. À savoir, l’utilisateur peut stocker des images, obtenues par l’appareil de capture de vues durant la capture de vidéo, dans la mémoire 170, en réponse au toucher, indépendamment d’un fichier vidéo stocké.
En outre, le contrôleur 180 peut stocker une deuxième image dans la mémoire 170, qui est produite en sortie à un instant auquel un toucher est appliqué sur l’image vignette, en association avec la première image. Par exemple, les première et deuxième images peuvent être incluses dans le même dossier, afin d’être discriminé d’un dossier dans lequel le fichier vidéo est stocké.
De plus, l’unité d’affichage 151 peut afficher une troisième image vignette 413 correspondant à la deuxième image et afficher un nombre (2) d’images stockées associées sur la troisième image vignette 413. De façon similaire, lorsqu’un toucher est appliqué en plus sur la troisième image vignette 413, trois images peuvent être stockées dans une catégorie de manière associée.
En outre, la figure 2B illustre qu’une image vignette de l’image stockée le plus récemment est affichée sur l’unité d’affichage 151, en réponse à un toucher appliqué sur l’image vignette, mais la présente invention n’est pas limitée à ceci. Par exemple, lorsqu’il y a une image stockée en association avec une image d’une image vignette, une image en forme superposée (en couches) avec l’image vignette peut être affichée ou une image vignette de l’image stockée en tout premier peut être affichée de façon continue.
Dans ce mode de réalisation, l’utilisateur peut indépendamment stocker une image en appliquant un toucher tout en capturant une vidéo, et stocker une pluralité d’images de manière associée en appliquant des touchers sur des images vignettes des images stockées. Par conséquent, l’utilisateur peut stocker la pluralité d’images obtenues durant la capture vidéo en groupant la pluralité d’images. Comme la pluralité d’images peuvent être stockées de façon discriminative dans différentes catégories durant la capture de vidéo, l’utilisateur ne doit pas réaliser de procédé de groupage de la pluralité d’images.
Maintenant, la figure 2C est une vue conceptuelle illustrant une méthode de contrôle lorsque la capture vidéo est terminée. Lorsqu’un toucher est appliqué sur la première icône 301a, le contrôleur 180 peut terminer (arrêter) la fonction de capture vidéo. A savoir, le contrôleur 180 peut contrôler l’appareil de capture de vues 121 pour l’éteindre, ou contrôler l’unité d’affichage 151 pour juste produire en sortie de façon continue des images obtenues par l’appareil de capture de vues 121 mais non enregistrer les images.
En outre, lorsque le toucher est appliqué sur la première icône 301a, le contrôleur 180 peut générer un fichier vidéo en utilisant la pluralité d’images obtenues. En particulier, l’unité d’affichage 151 peut produire en sortie un écran de prévisualisation 300 correspondant à une image du fichier vidéo. L’écran de prévisualisation 300 peut également inclure une image graphique pour recevoir un toucher pour lire (reproduire) le fichier vidéo, une barre de progression 302 pour indiquer une durée de reproduction du fichier vidéo, des points de stockage 303 indiquant chacun un temps stocké des images conjointement avec la barre de progression 302 alors que la fonction de capture est exécutée, et des images vignettes 401 correspondant aux images stockées.
De plus, un nombre des points de stockage 303 peut être sensiblement le même qu’un nombre des images stockées. Ainsi, les points de stockage 303 permettent à l’utilisateur de reconnaître des instants stockés d’images au sein de la durée de reproduction du fichier vidéo, et un nombre d’images stockées conjointement avec le fichier vidéo.
En outre, les images vignettes 401 peuvent être agencées selon un laps de temps stocké. Sur le dessin, la pluralité d’images vignettes 401 sont agencées en série pour être adjacentes les unes aux autres, le long du lapse de leur temps stocké. Cependant, la méthode de sortie des images vignettes n’est pas limitée à ceci. Les images vignettes 401 peuvent également être produites en sortie de manière se chevauchant ou de manière espacée selon le temps stocké.
De plus, lorsque le fichier vidéo est généré, l’unité d’affichage 151 peut produire en sortie une image de contrôle 510 pour contrôler le fichier vidéo et les images. Par exemple, l’image de contrôle 510 peut inclure une première icône de contrôle 511 pour partager une image stockée, une deuxième icône de contrôle 512 pour partager des informations concernant une vue sélectionnée de la vidéo, et une troisième icône de contrôle 513 pour partager une vidéo d’une vue sélectionnée. L’utilisateur peut ainsi sélectivement partager au moins une partie du fichier vidéo stocké et des images stockées. Ici, le partage peut être réalisé en transmettant des informations à un serveur spécifique ou un dispositif externe spécifique en utilisant l’unité de communication sans fil 110.
De plus, l’image de contrôle 510 peut inclure une quatrième icône de contrôle 514 pour ajuster une durée de sortie ou période de sortie (secondes) de la vue sélectionnée. Ici, la durée de sortie peut correspondre à une vue de reproduction (vue de lecture) d’un fichier vidéo, qui est sélectionné en fonction d’une image stockée. Par exemple, lorsqu’une image est sélectionnée et une durée de sortie est réglée à 5 secondes, une vue de reproduction vidéo pendant 5 secondes avant et après l’image sélectionnée peut être utilisée.
De plus, la quatrième icône de contrôle 514 peut être configurée pour permettre un ajustement de temps (ou ajustement de durée) en réponse à un toucher-tirer appliqué sur celle-ci dans une direction, mais la présente invention n’est pas limitée à ceci. Conformément à ce mode de réalisation, lorsqu’un fichier vidéo est généré, un utilisateur peut partager le fichier vidéo et des images ou sélectionner une partie du fichier vidéo et des images.
Maintenant, les figures 3A et 3B sont des vues conceptuelles illustrant une méthode de contrôle du stockage d’images durant la capture de vidéo conformément à un mode de réalisation décrit dans les présentes. Comme cela est illustré sur la figure 3A, l’unité d’affichage 151 peut afficher l’image 310 obtenue par l’appareil de capture de vues 121, l’icône de contrôle 301 et le temps de capture 301d alors qu’une fonction de capture vidéo est réalisée. Lorsqu’un toucher est appliqué sur l’image 310 ou la troisième icône 301c, le contrôleur 180 peut stocker une image formant (constituant) un fichier vidéo et afficher une première image vignette 411 correspondant à l’une image dans l’unité d’affichage 151.
De plus, lorsqu’un toucher est appliqué sur la troisième icône 301c, le contrôleur 180 peut stocker une image qui est produite en sortie sur l’unité d’affichage 151 à l’instant de toucher appliqué et produire en sortie une deuxième image vignette 412. En réponse à une entrée tactile spécifique simultanément appliquée sur les première et deuxième images vignettes 411 et 412, le contrôleur 180 peut stocker une image, produite en sortie à l’instant de toucher appliqué, dans la mémoire 170. En outre, l’entrée tactile spécifique peut correspondre à une entrée tactile multiple simultanément appliquée sur différentes zones sur l’unité d’affichage 151.
Ainsi, deux images qui sont sensiblement identiques l’une à l’autre peuvent être stockées en association ou groupées avec chacune des première et deuxième images vignettes 411 et 412. Lorsque les images sont stockées, l’unité d’affichage 151 peut convertir les première et deuxième images vignettes 411 et 412 en une quatrième image vignette 414 correspondant aux images stockées, et afficher le nombre (2) des images associées sur la quatrième image vignette 414.
Conformément à ce mode de réalisation, l’utilisateur peut stocker une image en étant associée à une pluralité d’images préstockées, en appliquant une entrée tactile sur une pluralité d’images vignettes. Ainsi, l’utilisateur n’a pas besoin de copier une image après avoir capturé une vidéo afin de stocker la même image dans une pluralité de catégories, et analogues. Comme cela est illustré sur la figure 3B, le contrôleur 180 peut stocker des images à des intervalles de temps préréglés dans la mémoire 170, en réponse à une entrée tactile spécifique appliquée sur l’image vignette.
De plus, l’unité d’affichage 151 peut produire en sortie une cinquième image vignette 415 correspondant à une première image stockée, en réponse à un toucher appliqué alors que la fonction de capture vidéo est réalisée. Alors, en réponse à une entrée tactile appliquée sur la cinquième image vignette 415, le contrôleur 180 peut stocker une image produite en sortie sur l’unité d’affichage 151 à l’instant de toucher appliqué et afficher une image vignette correspondant à l’image stockée.
De plus, comme cela est illustré sur la figure 3B, le contrôleur 180 peut détecter une durée de toucher appliqué sur la cinquième image vignette 415. Ici, le toucher peut correspondre à une longue entrée tactile qui est maintenue pendant une période prédéterminée. A savoir, le contrôleur 180 peut détecter une période spécifique « t » pendant laquelle une entrée tactile initialement appliquée sur la cinquième image vignette 415 est maintenue. Lorsque le toucher est relâché, le contrôleur 180 peut stocker une première image 311 produite en sortie sur l’unité d’affichage 151 à l’instant auquel l’entrée tactile initiale est appliquée, et une image produite en sortie sur l’unité d’affichage 151 à un instant auquel l’entrée tactile est relâchée. L’unité d’affichage 151 peut produire en sortie une sixième image vignette 416 correspondant à une deuxième image 312 qui est l’image la plus récemment stockée.
En outre, le contrôleur 180 peut stocker une troisième image 313 dans la mémoire 170 et afficher une septième image vignette 417 correspondant à la troisième image 313 après un laps de la période spécifique « t » à partir de l’instant de toucher relâché. Conformément à ce mode de réalisation, un temps d’un toucher appliqué sur une image vignette peut être stocké, et des images affichées sur l’unité d’affichage 151 à un intervalle correspondant au temps peuvent être régulièrement stockées. De plus, les images régulièrement stockées peuvent être stockées en association avec une image correspondant à une image vignette initiale sur laquelle le toucher a été appliqué pendant la période spécifique.
De plus, alors que les images sont stockées à l’intervalle de temps, une image supplémentaire peut être stockée, en réponse à un toucher appliqué sur une zone de l’unité d’affichage 151. Conformément à ce mode de réalisation, des images peuvent être stockées à des intervalles de temps spécifiques sans commande de contrôle supplémentaire de l’utilisateur durant la capture de vidéo.
Maintenant, les figures 4A à 4D sont des vues conceptuelles illustrant une méthode de contrôle de stockage d’images de manière groupée lorsque des sujets distinguables sont détectés. Comme cela est illustré sur la figure 4A, lorsque des sujets, d’un premier à un troisième, A, B et C sont détectés par l’appareil de capture de vues 121, l’unité d’affichage 151 peut afficher des images guides 321 indiquant les sujets, du premier au troisième, A, B et C, respectivement, sur une image 320 obtenue par l’appareil de capture de vues 121. Le contrôleur 180 peut également discriminer (reconnaître) les sujets, du premier au troisième, A, B et C en tant que différents objets, en fonction de visages ou analogues des sujets, du premier au troisième, A, B et C.
En outre, le contrôleur 180 peut stocker une image et afficher une première image vignette 411 sur l’unité d’affichage 151, en réponse à un toucher appliqué sur celle-ci, alors que la fonction de capture vidéo est réalisée. Lorsqu’un toucher est appliqué sur l’image guide 321 correspondant au premier sujet A, le contrôleur 180 peut stocker une image affichée sur l’unité d’affichage 151 à l’instant de toucher appliqué. Aussi, l’image peut être stockée en association avec la première image vignette 411. En outre, l’image correspondant à la première image vignette 411 peut être une image incluant le premier sujet A, ou une image stockée en réponse à un toucher appliqué sur l’image guide 321 correspondant au premier sujet A.
Lorsque l’image 320 est stockée, le contrôleur 180 peut afficher une huitième image vignette 418 correspondant à l’image stockée 320 sur l’unité d’affichage 151. Lorsqu’un toucher est appliqué sur la huitième image vignette 418, le contrôleur 180 peut afficher l’image 320 correspondant à la huitième image vignette 418 sur l’unité d’affichage 151. L’image stockée 320 peut correspondre à une image qui est capturée par mise au point sur le premier sujet A.
Lorsqu’un toucher est appliqué sur une image guide, le contrôleur 180 peut capturer une image en mettant au point l’appareil de capture de vues 121 sur la zone de toucher appliqué et stocker l’image capturée en étant associée à d’autres images préstockées en fonction d’un sujet correspondant à l’image guide. Conformément à ce mode de réalisation, l’utilisateur peut stocker une pluralité d’images, chacune avec un sujet souhaité en mise au point, pour être discriminative par rapport à d’autres images.
Cependant, même si l’image guide n’est pas affichée, lorsqu’un toucher est appliqué sur une personne discriminée incluse dans l’image capturée, le contrôleur 180 peut contrôler l’image capturée sensiblement de la même manière de contrôle que l’utilisation de l’image guide. A savoir, des images peuvent être stockées de manière associée, en réponse à des touchers appliqués sur sensiblement le même objet.
En faisant référence à la figure 4B, l’unité d’affichage 151 peut produire en sortie l’image guide 321 incluant des images guides, d’une première à une troisième, 321a, 321b et 321c correspondant aux sujets, du premier au troisième, A, B et C, respectivement. L’unité d’affichage 151 peut produire en sortie une image 320 détectée par l’appareil de capture de vues, et des premières images vignettes 418a correspondant à des images préstockées.
Lorsqu’un toucher est appliqué sur la troisième icône 301c après qu’un toucher est appliqué sur la première image guide 321a, le contrôleur 180 peut stocker des images, affichées sur l’unité d’affichage 151 à des intervalles de temps préréglés, dans la mémoire 170, en étant associées à un sujet correspondant à la première image guide 321a. Lorsqu’un toucher est appliqué sur la première image guide 321a, la première image guide 321a peut être transformée pour indiquer que le premier sujet A correspondant à la première image guide 321a a été sélectionné. Ici, un toucher pour sélectionner une image guide peut être distingué d’un autre toucher appliqué sur l’image guide pour stocker une image. Par exemple, l’entrée tactile appliquée pour sélectionner l’image guide dans ce mode de réalisation peut correspondre à une longue entrée tactile.
De plus, lorsqu’une image vignette est générée en réponse à un toucher appliqué sur la première image guide 321a, le contrôleur 180 peut grouper l’image affichée sur l’unité d’affichage 151 à l’instant de toucher appliqué dans la même catégorie que l’image de l’image vignette pour le stockage. Le contrôleur 180 peut également stocker l’image dans la même catégorie que les images préstockées, en employant sensiblement la même méthode de contrôle de l’application d’un toucher sur la première image guide 321a à l’intervalle de temps préréglé « t ». Une troisième image vignette supplémentaire 418c peut également être formée sur la deuxième image vignette 418b.
De façon plus détaillée, le contrôleur 180 peut désélectionner une image guide sélectionnée, en réponse à un toucher appliqué sur l’image guide sélectionnée. Lorsque l’image guide est désélectionné, des images ne sont pas stockées à un intervalle de temps spécifique. De plus, des images stockées à l’intervalle de temps spécifique dans l’état sélectionné de la première image guide 321a peuvent être capturées lorsque l’appareil de capture de vues est mis au point sur le premier sujet A correspondant à la première image guide 321a.
De façon plus détaillée, le contrôleur 180 peut sélectionner une pluralité d’images guides, et grouper et stocker des images, dans lesquelles des sujets correspondant à différentes images guides sont mis au point, dans différentes catégories à des intervalles de temps spécifiques. Aussi, le contrôleur 180 peut ne pas stocker l’image lorsque le sujet n’est pas détecté par l’appareil de capture de vues. De plus, le contrôleur 180 peut stocker l’image à nouveau à l’intervalle de temps spécifique lorsque le sujet est détecté à nouveau par l’appareil de capture de vues 121. En outre, le contrôleur 180 peut automatiquement terminer la fonction du stockage d’images lorsque le sujet sélectionné par l’appareil de capture de vues disparaît. Ainsi, conformément à ce mode de réalisation, l’utilisateur peut capturer des images incluant un sujet souhaité à un intervalle de temps spécifique.
En faisant référence à la figure 4C, l’unité d’affichage 151 peut afficher les images guides 321a, 321b et 321c sur les sujets, du premier au troisième, A, B et C, respectivement, alors que l’appareil de capture de vues 121 est activé. Dg. plus, l’unité d’affichage 151 peut afficher une image 320 obtenue par l’appareil de capture de vues 121, et une image vignette 418a d’une image capturée en réponse à une entrée tactile. Le contrôleur 180 peut également stocker l’image et en outre afficher une image vignette correspondant à l’image stockée sur l’unité d’affichage 151, en réponse à un toucher appliqué sur la troisième icône 301c.
En outre, le contrôleur 180 peut transformer une forme de la troisième icône 301c, en réponse à une entrée tactile spécifique appliquée sur la troisième icône 301c. Lorsqu’un toucher est appliqué sur la première image guide 321a après que la troisième icône 301c est transformée, le contrôleur 180 peut stocker une image obtenue par l’appareil de capture de vues 121 à l’instant de toucher appliqué en étant associée à l’image avec une image spécifique préstockée. De plus, l’image peut être capturée lorsque la zone de toucher appliqué est en mise au point.
Le contrôleur 180 peut également afficher une deuxième image vignette 418b sur l’unité d’affichage 151 correspondant à l’image stockée. De plus, lorsqu’un toucher est appliqué sur la troisième icône 301c dans l’état transformé de la troisième icône 301c, le contrôleur 180 peut stocker une image produite en sortie sur l’unité d’affichage 151 à l’instant de toucher appliqué.
Aussi, l’image peut être stockée en association avec une autre image connexe à un sujet inclus dans l’image. Par exemple, lorsque les images vignettes correspondent aux sujets, du premier au troisième, A, B et C, respectivement, les images connexes au sujet peuvent être stockées en étant associées aux images correspondant aux images vignettes respectives. En outre, dans un état non transformé de la troisième icône 301c, lorsqu’un toucher est appliqué sur l’image guide, une mise au point peut être changée alors que la capture vidéo est réalisée.
Par conséquent, une troisième image vignette 418c d’une image stockée en réponse à un toucher appliqué sur la troisième icône 301c peut être affichée sur l’unité d’affichage 151. De façon plus détaillée, chacune parmi une pluralité d’images capturées en réponse aux touchers peut être capturée et stockée avec différentes zones en mise au point.
En outre, lorsqu’une entrée tactile spécifique (par exemple, une longue entrée tactile) est appliquée sur la troisième icône 301c, le contrôleur 180 peut restaurer la forme de la troisième icône 301c, et stocker une image produite en sortie sur l’unité d’affichage 151 conjointement avec des images connexes au sujet de toucher appliqué en appliquant un toucher sur l’image guide, ou stocker la même image en groupant dans différentes catégories. Conformément à ce mode de réalisation, l’utilisateur peut stocker une image en appliquant un toucher sur une zone incluant une personne souhaitée, et stocker l’image dans différentes catégories de manière associée.
Maintenant, la figure 4D est une vue conceptuelle illustrant une méthode de contrôle du stockage d’une image en fonction d’un mouvement d’un corps principal de terminal. Le terminal mobile selon ce mode de réalisation inclut une unité de détection pour détecter un mouvement du corps principal de terminal. Par exemple, l’unité de détection peut être mise en œuvre sous forme d’au moins l’un parmi un capteur d’accélération, un capteur magnétique, un capteur de gravité et un capteur gyroscopique.
Le contrôleur 180 peut stocker une première image 311 affichée sur l’unité d’affichage 151 à un instant de toucher appliqué lorsque le toucher est appliqué sur la troisième icône 301c à une première posture. L’unité d’affichage 151 peut afficher une image vignette 411 correspondant à la première image stockée 311. Lorsqu’un toucher est appliqué sur la troisième icône 301c à une seconde posture différente de la première posture, le contrôleur 180 peut stocker une deuxième image 312 affichée sur l’unité d’affichage 151 à l’instant de toucher appliqué dans la mémoire 170, et afficher une deuxième image vignette 412 correspondant à la deuxième image 312.
Lorsqu’un toucher est appliqué sur la troisième icône 301c après avoir détecté que le corps de terminal est maintenu à la première posture à nouveau, le contrôleur 180 peut stocker une troisième image 313 affichée sur l’unité d’affichage 151 à l’instant de toucher appliqué en étant associée à la première image 311. Aussi, le contrôleur 180 peut afficher une image vignette 413 correspondant à la troisième image 313, au lieu de la première image vignette 411.
Lorsque la première posture du corps de terminal est maintenue pendant un temps préréglé, le contrôleur 180 peut stocker la troisième image 313 dans la mémoire 170 même si un toucher n’est pas appliqué sur la troisième icône 301c. Conformément à ce mode de réalisation, des images stockées à une posture spécifique peuvent être classifiées dans la même catégorie, qui permet à l’utilisateur de catégoriser et de stocker des images capturées en fonction d’une position où le terminal capture un sujet et d’un mouvement du terminal.
Maintenant, la figure 5A est un organigramme illustrant une méthode de contrôle du contrôle d’une fonction associée à une image stockée associée, et les figures 5B à 5E sont des vues conceptuelles illustrant une méthode de contrôle de la révision d’un fichier vidéo stocké et d’images conformément à différent modes de réalisation décrits dans les présentes.
Comme cela est illustré sur la figure 5A, lorsqu’une capture vidéo est terminée, l’unité d’affichage 151 peut afficher un écran de prévisualisation de la vidéo et une pluralité d’images vignettes (250). Ici, la pluralité d’images vignettes correspondent à une pluralité d’images stockées, respectivement, et sont agencées dans l’ordre d’être stockées selon un laps de temps pendant lequel la vidéo a été capturée. En particulier, une image vignette peut correspondre à une image stockée, et l’unité d’affichage 151 n’affiche pas d’informations visuelles connexes à des images associées.
De plus, l’écran de prévisualisation correspond à une image incluse dans le fichier vidéo, et peut inclure une barre de progression indiquant une durée de reproduction du fichier vidéo, des informations de reproduction concernant le fichier vidéo et analogues. En outre, la pluralité d’images vignettes peuvent être affichées de façon adjacente à une zone de la barre de progression correspondant à des instants stockés de celles-ci, mais la présente invention n’est pas limitée à ceci.
Des images stockées associées peuvent alors être sélectionnées en réponse à un toucher appliqué sur l’une parmi la pluralité d’images vignettes (S260). Lorsque les images stockées associées sont sélectionnées, l’image vignette correspondant à l’image sélectionnée peut être affichée sur l’unité d’affichage 151 de manière mise en valeur.
En outre, le contrôleur 180 peut afficher des images de reproduction partielles correspondant aux images sélectionnées sur la barre de progression (S270). Dans un exemple, une image de reproduction partielle correspond à une vue vidéo qui inclut une image sélectionnée et est affichée pendant une période préréglée. Ainsi, l’utilisateur peut sélectionner une partie du fichier vidéo, qui inclut des images stockées et est reproduit pendant une période spécifique, et contrôler la partie sélectionnée du fichier vidéo.
De plus, le contrôleur 180 peut contrôler une fonction en utilisant une image correspondant à une image vignette sélectionnée, en réponse à un toucher appliqué sur une image de contrôle incluse dans l’écran de prévisualisation. En particulier, la fonction peut correspondre à une fonction qui utilise au moins l’une parmi une image sélectionnée, une vidéo partielle incluant l’image sélectionnée, et une vidéo complète, qui sera décrite en détail ci-après en référence aux dessins joints.
Comme cela est illustré sur la figure 5B, le contrôleur 180 peut générer un fichier vidéo en utilisant les images capturées, en réponse à un toucher appliqué sur la première icône 301a. Bien qu’une image de prévisualisation obtenue par un appareil de capture de vues activé soit affichée, la première icône 301a peut être changée en une cinquième icône 301e. Lorsqu’un toucher est appliqué sur la cinquième icône 301e, des images capturées par l’appareil de capture de vues 121 sont stockées et ainsi une fonction de capture vidéo peut être exécutée.
En outre, une image graphique 420 indiquant le fichier vidéo et les images stockés peut être produite en sortie sur l’image de prévisualisation. En particulier, l’image graphique 420 peut inclure une image vignette correspondant à une image du fichier vidéo, et un nombre 421 d’images stockées durant l’exécution de la fonction de capture vidéo.
Le contrôleur 180 peut également afficher des informations d’écran sur l’unité d’affichage 151 pour vérifier le fichier vidéo et les images stockées, en réponse à un toucher appliqué sur l’image graphique 420. De façon plus détaillée, les informations d’écran peuvent inclure un écran de prévisualisation 300, une barre de progression 302 indiquant une durée de reproduction du fichier vidéo, un point de stockage 303 indiquant un instant stocké d’au moins une image, et des images vignettes 401 correspondant à la pluralité d’images stockées.
De plus, lorsque le fichier vidéo est généré, l’unité d’affichage 151 peut afficher une image de contrôle 510 pour contrôler le fichier vidéo. Comme cela est représenté, l’image de contrôle 510 peut inclure une première icône de contrôle 511 pour partager une image stockée, une deuxième icône de contrôle 512 pour partager des informations concernant une vue sélectionnée de la vidéo, et une troisième icône de contrôle 513 pour partager une vidéo d’une vue sélectionnée. Ainsi, l’utilisateur peut sélectivement partager au moins une partie du fichier vidéo et des images stockés. Ici, le partage peut être réalisé en transmettant des informations à un serveur spécifique ou un dispositif externe spécifique en utilisant l’unité de communication sans fil 110. L’image de contrôle 510 peut également inclure une quatrième icône de contrôle 514 pour ajuster une durée de sortie (secondes) de la vue sélectionnée.
En faisant référence à la figure 5C, lorsqu’un toucher est appliqué sur une première image vignette 401a parmi la pluralité d’images vignettes 401, le contrôleur 180 peut régler une durée de reproduction, en fonction d’un point de stockage 303 et d’une durée de sortie préréglée de la première image vignette 401a. La durée de reproduction peut inclure des instants auxquels les images correspondant aux images vignettes 401 sont affichées. Par exemple, la durée de reproduction peut être réglée à une durée d’un temps spécifique avant l’instant d’image produite en sortie à un temps spécifique après l’instant d’image produite en sortie.
De façon plus détaillée, lorsque la durée de sortie est réglée à 5 secondes, la durée de reproduction peut être réglée à une durée de 2 secondes, avant que l’image soit produite en sortie, à 3 secondes, après que l’image est produite en sortie. En outre, l’unité d’affichage 151 peut afficher une image de reproduction partielle 304 indiquant la durée de reproduction sur la barre de progression 302. Le contrôleur 180 peut également déplacer un indicateur, qui indique un instant de reproduction sur la barre de progression 302, jusqu’à une zone initiale de l’image de reproduction partielle 304, et afficher une image sur l’unité d’affichage 151 correspondant à une zone de reproduction où l’indicateur est situé sur la barre de progression 302.
Cependant, la référence de réglage de la durée de reproduction n’est pas limitée à ceci. Par exemple, la durée de reproduction peut être réglée à 5 secondes après que l’image stockée est affichée, ou 5 secondes avant que l’image stockée soit affichée. L’utilisateur peut également régler une durée de reproduction en fonction d’une image stockée, afin de partiellement afficher un fichier vidéo ou de partager une vue du fichier vidéo correspondant à la durée de reproduction réglée.
En faisant référence aux figures 5C et 5D, lorsqu’un premier toucher est appliqué sur l’image vignette 401a, le contrôleur 180 peut afficher une image de reproduction partielle correspondant à l’image vignette 401a sur l’unité d’affichage 151. En outre, lorsqu’un second toucher est appliqué sur l’image vignette 401a, le contrôleur 180 peut complètement afficher une image 401a’ sur l’unité d’affichage 151, et qui correspond à l’image vignette 401a et est stockée dans la mémoire 170.
Par exemple, le second toucher peut correspondre à une longue entrée tactile ou une double entrée tactile appliquée sur l’image vignette 401a pendant une période spécifique. Le contrôleur 180 peut alors afficher des informations d’écran incluant l’écran de prévisualisation 300 et l’image de contrôle 510 sur l’unité d’affichage 151 lorsqu’un toucher est appliqué sur l’image stockée 401a’. Conformément à ce mode de réalisation, l’utilisateur peut vérifier une durée de reproduction correspondant à une image stockée ou vérifier rapidement l’image stockée, en appliquant un différent type de toucher sur une image vignette.
En faisant référence à la figure 5E, lorsque l’utilisateur sélectionne la première image vignette 401a parmi la pluralité d’images vignettes 401, le contrôleur 180 peut transformer la première image vignette sélectionnée 401a, et également transformer une deuxième image vignette 401b d’une image stockée en association avec l’image de la première image vignette 401a. Par exemple, lorsque des images correspondant aux première et deuxième images vignettes 401a et 401b sont stockées de manière associée, le contrôleur 180 peut transformer des images vignettes 401a et 401b en réponse à un toucher appliqué sur la première image vignette 401a. A savoir, des images stockées dans la même catégorie peuvent être sélectionnées.
De plus, les autres images vignettes 402 qui sont stockées dans des catégories différentes de l’image de la première image vignette 401a peuvent être transformées. Par exemple, le contrôleur 180 peut mette en valeur les première et deuxième images vignettes 401a et 401b ou afficher dans un état inactivé d’autres images vignettes à l’exception des première et deuxième images vignettes 401a et 401b.
En outre, le contrôleur 180 peut afficher les images de reproduction partielles 304 correspondant aux première et deuxième images vignettes 401a et 401b sur la barre de progression 302, en réponse à un toucher appliqué sur la première image vignette 401a. Lorsqu’un toucher est appliqué sur l’image de contrôle 510 après qu’une partie des images vignettes est sélectionnée, une image stockée et des informations concernant une vue sélectionnée d’une vidéo ou une vidéo d’une vue sélectionnée peuvent être partagées.
Maintenant, les figures 6A et 6B sont des vues conceptuelles illustrant une méthode de contrôle de la sélection individuelle d’images stockées de façon discriminative. Comme cela est illustré sur la figure 6A, le contrôleur 180 peut sélectionner les première et deuxième images vignettes 401a et 401b, en réponse à un toucher appliqué sur la première image vignette 401a parmi la pluralité d’images vignettes 401. Le contrôleur 180 peut alors afficher les images de reproduction partielles 304 correspondant aux première et deuxième images vignettes 401a et 401b sur la barre de progression 302. L’unité d’affichage 151 peut également afficher les première et deuxième images vignettes 401a et 401b et les autres images vignettes 402 de différentes manières.
De plus, le contrôleur 180 peut sélectionner une troisième image vignette 402a, en réponse à un toucher appliqué sur la troisième image vignette 402a des autres images vignettes 402. Aussi, le contrôleur 180 peut transformer la troisième image vignette 402a, et en outre afficher une image de reproduction partielle 304 d’une image correspondant à la troisième image vignette 402a.
En outre, le contrôleur 180 peut sélectionner une autre image vignette, qui appartient à la même catégorie que la première image vignette 401a, en réponse à un toucher appliqué sur la première image vignette 401a, et en outre sélectionner une troisième image vignette 401c qui appartient à une catégorie différente. Dans ce cas, des images qui sont groupées dans différentes catégories, des informations de vue et une vue vidéo peuvent être partagées.
En faisant référence à la figure 6B, le contrôleur 180 peut afficher une cinquième icône de contrôle 415 pour individuellement sélectionner des images vignettes sur l’unité d’affichage 151. Le contrôleur 180 peut alors sélectionner certaines parmi la pluralité d’images vignettes 401 lorsqu’un toucher est appliqué sur la cinquième icône de contrôle 415. La cinquième icône de contrôle 415 peut également être transformée en réponse à un toucher appliqué sur celle-ci.
Lorsqu’un autre toucher est appliqué sur certaines parmi la pluralité d’images vignettes après que le toucher est appliqué sur la cinquième icône de contrôle 415, certaines parmi la pluralité d’images vignettes peuvent être sélectionnées. Dans ce cas, bien qu’une image vignette soit sélectionnée, une autre image vignette appartenant à la même catégorie peut ne pas être sélectionnée. À savoir, après que le toucher est appliqué sur la cinquième icône de contrôle 415, chaque image vignette peut être individuellement sélectionnée en appliquant un toucher sur celle-ci. En outre, le contrôleur 180 peut afficher l’image de reproduction partielle 304 correspondant à l’image vignette sélectionnée. De façon plus détaillée, lorsqu’un toucher est appliqué à nouveau sur la cinquième icône de contrôle 415, le contrôleur 180 peut afficher des images vignettes stockées dans la même catégorie pour être sélectionnées immédiatement.
Maintenant, les figures 7A à 7C sont des vues conceptuelles illustrant une méthode de contrôle de la révision d’une classification (catégorisation) d’images conformément à différents modes de réalisation. Comme cela est illustré sur les figures 5A et 7A à 7C, des positions d’images vignettes et d’une image de contrôle peuvent différer selon une pluralité d’images stockées. Cependant, les images vignettes et l’image de contrôle affichées sur l’unité d’affichage peuvent posséder sensiblement la même fonction. En outre, la méthode de contrôle illustrée sur les figures 7A à 7C peut également être appliquée de façon sensiblement identique aux informations d’écran incluant les images vignettes et l’image de contrôle illustrées sur la figure 5A.
En faisant référence à la figure 7A, le contrôleur 180 peut terminer la fonction de capture vidéo lorsqu’un toucher est appliqué sur la première icône 301a, et la première icône 301a peut être convertie en la cinquième icône 301e. En outre, l’image graphique indiquant le fichier vidéo et les images stockés peut être affichée sur une image de prévisualisation obtenue par l’appareil de capture de vues. L’image graphique peut inclure une image vignette correspondant à une image du fichier vidéo, et un nombre 421 d’images stockées durant exécution de la fonction de capture vidéo.
De plus, le contrôleur 180 peut afficher des informations d’écran sur l’unité d’affichage pour vérifier le fichier vidéo et les images stockées, en réponse à un toucher appliqué sur l’image graphique 420. Comme cela est décrit auparavant, les informations d’écran peuvent inclure une barre de progression 302 indiquant une durée de reproduction du fichier vidéo, un point de stockage 303 indiquant un instant stocké d’au moins une image, et des images vignettes 401 correspondant à la pluralité d’images stockées.
En outre, le contrôleur 180 peut afficher, sur une zone de l’unité d’affichage 151, une région de contrôle 430 qui inclut une pluralité d’images vignettes 401, et des première et deuxième icônes de contrôle 431 et 432. La pluralité d’images vignettes 440 peuvent être agencées dans une direction d’intersection avec la barre de progression 302. Cependant, la pluralité d’images vignettes 440 sont de préférence agencées dans l’ordre d’instants stockés alors que la fonction de capture vidéo est exécutée.
De plus, une durée de sortie (secondes) d’une vue sélectionnée peut être ajustée en réponse à un toucher appliqué sur la première icône de contrôle 431. Par exemple, la première icône de contrôle 431 peut inclure un nombre pour recevoir une entrée tactile à glissement et indique une durée de sortie changée. La deuxième icône de contrôle 432 peut également recevoir un toucher pour stocker des images révisées lorsque la pluralité d’images vignettes sont révisées. Une méthode de contrôle de la révision d’une catégorisation de la pluralité d’images vignettes va être décrite en détail plus bas en référence aux figures 8A à 8D.
Comme cela est illustré sur les figures 7B et 7C, le contrôleur 180 peut complètement afficher une image correspondant à une image vignette 440’ parmi la pluralité d’images vignettes 440, en réponse à un premier toucher appliqué sur l’une image vignette 440’. Par exemple, le premier toucher peut être une longue entrée tactile. Aussi, lorsque le premier toucher est appliqué à nouveau alors que l’image est affichée sur l’unité d’affichage 151, des informations d’écran incluant l’écran de prévisualisation et les première et deuxième icônes de contrôle peuvent être affichées.
De plus, lorsqu’un second toucher est appliqué sur une première image vignette 441a parmi la pluralité d’images vignettes 440, le contrôleur 180 peut sélectionner la première image vignette 441a. Lorsque la première image vignette 441a est sélectionnée, une deuxième image vignette 441b appartenant à la même catégorie que la première image vignette 441a peut également être sélectionnée. L’unité d’affichage 151 peut alors produire en sortie les première et deuxième images vignettes 441a et 441b et les autres images vignettes 442 de différentes manières ou en des formes différentes pour être distinguables les unes des autres.
De plus, le contrôleur 180 peut afficher des images de reproduction partielles 304 sur l’unité d’affichage 151 correspondant aux première et deuxième images vignettes 441a et 441b’. De façon plus détaillée, lorsqu’un toucher est appliqué sur la deuxième icône de contrôle 432 après qu’au moins une image vignette est sélectionnée, le contrôleur 180 peut afficher des informations d’écran sur l’unité d’affichage 151 pour contrôler le partage de l’image et analogues.
Maintenant, les figures 8A à 8D sdnt des vues conceptuelles illustrant une méthode de contrôle de la modification de catégories d’images préstockées. Comme cela est illustré sur la figure 5A et les figures 8A à 8D, des positions d’images vignettes et d’une image de contrôle peuvent différer selon une pluralité d’images stockées. Cependant, les images vignettes et l’image de contrôle produites en sortie sur l’unité d’affichage 151 peuvent posséder sensiblement la même fonction. La méthode de contrôle illustrée sur les figures 7A à 7C peut également être appliquée de façon sensiblement identique aux informations d’écran incluant les images vignettes et l’image de contrôles illustrées sur la figure 5A.
Comme cela est illustré sur la figure 8A, lorsqu’un toucher est appliqué sur la première image vignette 441a parmi la pluralité d’images vignettes, le contrôleur 180 peut sélectionner la deuxième image vignette 441b classifiée dans la même catégorie que la première image vignette 441a. Des images correspondant aux première et deuxième images vignettes 441a et 441b peuvent appartenir à une première catégorie 441.
Lorsque la pluralité d’images vignettes 440 sont agencées dans une première direction, les première et deuxième images vignettes 441a et 441b sélectionnées en réponse au toucher peuvent se déplacer dans une seconde direction qui intersecte la première direction. Aussi, les autres images vignettes peuvent se déplacer dans une direction opposée à la seconde direction. Par conséquent, l’utilisateur peut facilement distinguer les images vignettes sélectionnées et les images vignettes non sélectionnées les une des autres.
Lorsqu’un toucher est appliqué sur l’une des autres images vignettes à l’exception des première et deuxième images vignettes 441a et 441b’, les première et deuxième images vignettes 441a et 441b peuvent être désélectionnées, et les autres images vignettes peuvent être sélectionnées. Des images correspondant aux autres images vignettes peuvent également être groupées dans la même catégorie de manière associée.
De plus, le contrôleur 180 peut afficher des images de reproduction partielles correspondant aux images vignettes sélectionnées sur l’unité d’affichage 151, en réponse à des touchers appliqués sur les images vignettes. Le contrôleur 180 peut également désélectionner l’image vignette sélectionnée lorsqu’une entrée tactile spécifique est appliquée sur l’image vignette sélectionnée. Par exemple, l’entrée tactile spécifique peut être une longue entrée tactile. Lorsque l’image vignette sélectionnée est désélectionnée, le contrôleur 180 peut arrêter d’afficher l’image de reproduction partielle 304 et commuter la deuxième icône de contrôle 432 dans un état inactif.
En faisant référence à la figure 8B, lorsque les première et deuxième images vignettes 441a et 441b sont sélectionnées, le contrôleur 180 peut afficher les première et deuxième images vignettes sélectionnées 441a et 441 b dans un état déplacé dans la seconde direction. Lorsqu’une entrée tactile à glissement est appliquée dans la seconde direction sur une troisième image vignette 442a correspondant à une image stockée dans une différente catégorie de la catégorie des première et deuxième images vignettes 441a et 441b’, l’image correspondant à la troisième image vignette 442a peut être stockée en étant associée aux première et deuxième images vignettes 441a et 441b’.
Dans ce cas, l’état associé de la troisième image vignette 442a à d’autres images peut être relâché. À savoir, la catégorie dans laquelle l’image correspondant à la troisième image vignette 442a est stockée peut être changée. Par conséquent, la troisième image vignette 442a peut se déplacer dans la première direction pour être affichée en parallèle à la première image vignette 441a. Aussi, une image de reproduction partielle correspondant à la troisième image vignette 442a peut être affichée.
De plus, lorsqu’un toucher est appliqué sur la deuxième image vignette 441b dans une direction opposée à la seconde direction, l’état associé entre l’image correspondant à la deuxième image vignette 441b et l’image correspondant à la première image vignette 441a peut être relâché. A savoir, la catégorie dans laquelle l’image de la deuxième image vignette 441a est stockée peut être changée. L’image de la deuxième image vignette 441b peut également être stockée en association avec les autresimages vignettes 442, mais la présente invention n’est pas limitée à ceci. A savoir, le contrôleur 180 peut changer une catégorie pour stocker une image, en réponse à un toucher appliqué sur l’image vignette dans la seconde direction ou la direction opposée à la seconde direction, et changer la position de sortie et la forme de l’image vignette sur l’unité d’affichage 151 pour notifier du changement de catégorie. Conformément à ce mode de réalisation, l’utilisateur peut reconnaître l’état associé parmi la pluralité d’images stockées, et changer plus facilement l’état (catégorie) associé stocké.
Ci-après, une méthode de contrôle de l’ajustement de la durée de reproduction va être décrite en référence à la figure 8C. En particulier, l’unité d’affichage 151 peut produire en sortie des images de reproduction partielles 304 correspondant aux première et deuxième images vignettes sélectionnées 441a et 441b’. Les images de reproduction partielles 304 correspondant aux première et deuxième images vignettes 441 et 441b’, respectivement, peuvent posséder sensiblement la même durée de reproduction. Pour notifier la durée de reproduction, l’image de reproduction partielle 304 peut être affichée pour posséder une première largeur W1 dans une direction d’extension de la barre de progression 302.
Lorsque la durée de reproduction se prolonge en réponse à un toucher appliqué sur la première icône de contrôle 431, le contrôleur 180 peut changer la largeur de l’image de reproduction partielle 304 en une seconde largeur W2 plus grande que la première largeur W1. Ici, les images de reproduction partielles 304 correspondant aux première et deuxième images vignettes 441a et 441b, respectivement, qui sont stockées dans l’état associé, peuvent également changer. Cependant, la présente invention n’est pas limitée à ceci. Conformément à ce mode de réalisation, l’utilisateur peut facilement changer une durée de reproduction d’une vue incluant des images et régler le même temps pour des images associées.
En faisant référence à la figure 8D, après avoir sélectionné les images vignettes et réglé la durée de reproduction, lorsqu’un toucher est appliqué sur la deuxième icône de contrôle 432, le contrôleur 180 peut afficher une fenêtre de partage 450 pour partager les images réglées et analogues. La fenêtre de partage 450 peut être affichée sous forme de fenêtre en incrustation, et inclure une pluralité d’icônes pour recevoir des touchers pour sélectionner des données à partager. Ceci permet à l’utilisateur de réviser des données à partager tout en vérifiant une pluralité d’images vignettes.
Maintenant, les figures 9A à 9C sont des vues conceptuelles illustrant une méthode de contrôle de la fourniture de fichier vidéo et d’images stockés. Comme cela est illustré sur la figure 9A, le contrôleur 180 peut afficher une image graphique 510, qui inclut un fichier vidéo 511 et des images stockés ensemble, sur un écran d’exécution 500 lorsqu’une application spécifique est exécutée. L’image graphique 510 peut également inclure des dates auxquelles le fichier vidéo et les images sont générés, et des images indiquant le fichier vidéo 511 et les images 512.
Le contrôleur 180 peut alors afficher des informations d’écran incluant le fichier vidéo 511 et les images 512, en réponse à un toucher appliqué sur l’image graphique 510. L’unité d’affichage 151 peut également afficher un écran de prévisualisation formé par une image incluse dans le fichier vidéo 511 sur une première région 520, et des images stockées conjointement avec le fichier vidéo 511 sur une seconde région 530.
De plus, la seconde région 530 peut produire en sortie une pluralité d’images stockées associées de manière discriminative. A savoir, la seconde région 530 peut être divisée en des régions de catégorie, d’une première à une troisième, 531, 532 et 533. Des images vignettes d’images associées peuvent être produites en sortie sur chaque région de catégorie. Aussi, les informations d’écran peuvent en outre inclure une fenêtre de contrôle 540 pour partager le fichier vidéo et les images.
Lorsqu’une image vignette 531a est sélectionnée sur la seconde région 530, le contrôleur 180 peut afficher une image 520’ correspondant à l’image vignette sélectionnée 531a sur l’écran de prévisualisation. Aussi, une image de reproduction partielle 304 correspondant à l’image vignette 531a peut être produite en sortie sur une barre de progression. Ceci permet à l’utilisateur de reconnaître l’instant auquel chaque image a été stockée, même lorsque des images associées sont produites en sortie.
De plus, le contrôleur 180 peut changer une catégorie en réponse à une entrée tactile continue appliquée sur l’image vignette 531a. A savoir, le contrôleur 180 peut déplacer l’image vignette 531a de la première région de catégorie 531 à la deuxième région de catégorie 532, en réponse à une entré tactile à glissement appliquée sur l’image vignette 531a. Par conséquent, l’utilisateur peut facilement changer l’état associé des images alors que les images sont produites en sortie pour chaque catégorie.
En faisant référence à la figure 9B, l’unité d’affichage 151 peut afficher une icône de sélection 534 sur chaque région de catégorie. Le contrôleur 180 peut alors sélectionner une pluralité d’images associées les unes aux autres, en réponse à un toucher appliqué sur l’icône de sélection 533. Par exemple, une pluralité d’images incluses dans la deuxième région de catégorie 532 peuvent être sélectionnées et des images de reproduction partielles 304 correspondant aux images sélectionnées peuvent être produites en sortie. De façon plus détaillée, le contrôleur 180 peut partager des images incluses dans l’une région de catégorie sélectionnée, et ceci permet à l’utilisateur de sélectionner facilement la pluralité d’image associées.
En faisant référence à la figure 9C, le contrôleur 180 peut sélectionner une pluralité d’images, indépendamment de catégories, en réponse à un toucher appliqué sur la fenêtre de contrôle 540. En particulier, la fenêtre de contrôle 540 peut inclure une icône pour sélectionner une pluralité d’images de manière individuelle. Après sélection de l’icône, des images peuvent être sélectionnées en réponse à des touchers appliqués sur les images vignettes. L’unité d’affichage 151 peut également séquentiellement produire en sortie des images de reproduction partielles 304 correspondant aux images, qui sont sélectionnées en réponse aux touchers sur la barre de progression 302. Conformément à ce mode de réalisation, l’utilisateur peut immédiatement changer et stocker une image de prévisualisation obtenue par l’appareil de capture de vues en temps réel.
La présente invention peut être mise en œuvre sous forme de codes lisibles par ordinateur dans un support à programme enregistré. Le support lisible par ordinateur peut inclure tous types de dispositifs d’enregistrement, chacun stockant des données lisibles par un système d’ordinateur. Des exemples de tels supports lisibles par ordinateur peuvent inclure un lecteur de disque dm (HDD), un disque à semi-conducteur (SSD), un lecteur de disque en silicium (SDD), une ROM, une RAM, un CD-ROM, une bande magnétique, une disquette, un élément de stockage de données optique et analogues. Aussi, le support lisible par ordinateur peut également être mis en œuvre sous forme de format d’onde porteuse (par exemple, transmission par l’intermédiaire d’Internet). L’ordinateur peut inclure le contrôleur 180 du terminal. Donc, il faut également entendre que les modes de réalisation décrits ci-dessus ne sont limités par aucun des détails de la description précédente, sauf indication contraire, mais plutôt doivent être interprétés généralement au sein de la portée de la présente invention telle qu’elle est définie par la protection recherchée, et donc tous les changements et toutes les modifications qui sont au sein des bornes et limites de la protection recherchée sont prévues pour être englobées.
Bien entendu, l’invention n’est pas limitée aux exemples de réalisation ci-dessus décrits et représentés, à partir desquels on pourra prévoir d’autres modes et d’autres formes de réalisation, sans pour autant sortir du cadre de l’invention.

Claims (15)

  1. REVENDICATIONS
    1. Terminal mobile, comprenant : un appareil de capture de vues (121) ; un écran tactile (151) configuré pour afficher des images (310) capturées par l’appareil de capture de vues (121) ; une mémoire (170) ; et un contrôleur (180) configuré pour : en réponse à un premier toucher appliqué sur l’écran tactile (151) à un premier instant, stocker une première image dans la mémoire (170), dans lequel la première image correspond à celle affichée sur l’écran tactile à l’instant du premier toucher, afficher une première image vignette (411) correspondant à la première image sur l’écran tactile, et en réponse à un deuxième toucher appliqué sur une zone spécifique de l’écran tactile (151) affichant les images et la première image vignette (411) à un second instant, stocker dans la mémoire (170) une seconde image affichée sur l’écran tactile (151) au second instant, et grouper la seconde image avec la première image dans la mémoire (170).
  2. 2. Terminal mobile selon la revendication 1, dans lequel le contrôleur est en outre configuré pour stocker les première et seconde images dans la mémoire (170) lorsque la zone spécifique de l’écran tactile est celle affichant la première image vignette (411).
  3. 3. Terminal mobile selon la revendication 2, dans lequel l’écran tactile (151) est en outre configuré pour changer la première image vignette (411) en une seconde image vignette (412), correspondant à la seconde image, en réponse au toucher appliqué sur la première image vignette (411), et dans lequel la seconde image vignette (412) inclut des informations visuelles indiquant un nombre d’images groupées.
  4. 4. Terminal mobile selon la revendication 2, dans lequel le contrôleur (180) est en outre configuré pour, en réponse à ufte entrée tactile multiple appliquée sur les première et seconde images vignettes affichées sur l’écran tactile (151), stocker la première image (411) avec une image affichée sur l’écran tactile (151) alors que le toucher multiple est appliqué et stocker la seconde image (412) avec l’image affichée sur l’écran tactile (151) alors que le toucher multiple est appliqué.
  5. 5. Terminal mobile selon l’une quelconque des revendications 1 à 4, en outre comprenant : un capteur configuré pour détecter une posture du terminal mobile, dans lequel, si le premier toucher est appliqué sur l’écran tactile (151) avec le terminal mobile dans une première posture et le deuxième toucher est appliqué sur l’écran tactile avec le terminal mobile dans une seconde posture, le contrôleur (180) est en outre configuré pour grouper la seconde image (411) avec la première image (412) en réponse à un troisième toucher appliqué sur l’écran tactile (151) lorsque le terminal mobile est remis dans la première posture à partir de la seconde posture.
  6. 6. Terminal mobile selon l’une quelconque des revendications 1 à 5, dans lequel le contrôleur (180) est en outre configuré pour : afficher une image guide (321a) indiquant un sujet détecté sur les images affichées sur l’écran tactile (151), et stocker des images capturées dans la mémoire (170) en groupant les images stockées, en réponse à un toucher appliqué sur l’image guide.
  7. 7. Terminal mobile selon la revendication 6, dans lequel le contrôleur (180) est en outre configuré pour capturer une image avec le sujet en mise au point, en réponse au toucher appliqué sur l’image guide.
  8. 8. Terminal mobile selon l’une quelconque des revendications 1 à 7, dans lequel le contrôleur (180) est en outre configuré pour : afficher une icône sur l’écran tactile (151) pour stocker une image durant la capture de vidéo, et stocker des images dans la mémoire (170) à un intervalle d’une période spécifique en réponse à un toucher appliqué sur l’icône pendant la période spécifique.
  9. 9. Terminal mobile selon la revendication 8, dans lequel le contrôleur (180) est en outre configuré pour : afficher une pluralité d’images vignettes sur l’écran tactile (151), et stocker des images correspondant aux images vignettes respectives en groupant les images capturées à l’intervalle de temps spécifique.
  10. 10. Terminal mobile selon l’une quelconque des revendications 1 à 9, dans lequel le contrôleur ( 180) est en outre configuré pour : générer un fichier vidéo en utilisant les images capturées lorsqu’une capture vidéo est terminée, afficher une barre de progression (302) du fichier vidéo sur l’écran tactile (151), et une pluralité d’images vignettes correspondant à la pluralité d’images capturées, et afficher des points de stockage indiquant des instants stockés de la pluralité d’images, respectivement, sur la barre de progression (302).
  11. 11. Terminal mobile selon la revendication 10, dans lequel le contrôleur (180) est en outre configuré pour afficher sur la barre de progression (302) une image de reproduction partielle (304) indiquant une durée de reproduction d’une vue de reproduction vidéo incluant la pluralité d’images en réponse à l’une image vignette sélectionnée.
  12. 12. Terminal mobile selon la revendication 10, dans lequel le contrôleur (180) est en outre configuré pour : agencer la pluralité d’images vignettes sur l’écran tactile (151), et afficher au moins une image vignette groupée en déplaçant l’au moins une image vignette groupée en réponse à un toucher appliqué sur l’une image vignette.
  13. 13. Terminal mobile selon la revendication 12, dans lequel le contrôleur (180) est en outre configuré pour afficher une fenêtre de partage (450) pour partager au moins une partie d’images groupées et le fichier vidéo avec un serveur spécifique ou un dispositif externe spécifique.
  14. 14. Terminal mobile selon l’une quelconque des revendications 1 à 13, dans lequel le contrôleur (180) est en outre configuré pour, en réponse à la capture vidéo terminée, afficher des images groupées dans une pluralité de régions de catégorie, les régions de catégorie (531, 532, 533) étant discriminées les unes des autres.
  15. 15. Méthode de contrôle d’un terminal mobile, la méthode comprenant : l’affichage d’images capturées par un appareil de capture de vues sur un écran tactile (151) du terminal mobile ; en réponse à un premier toucher appliqué sur l’écran tactile (151) à un premier instant, le stockage d’une première image (310) dans une mémoire (170), dans laquelle la première image correspond à celle affichée sur l’écran tactile (151) à l’instant du premier toucher ; l’affichage d’une première image vignette (411) correspondant à la première image sur l’écran tactile (151) ; et en réponse à un second toucher appliqué sur une zone spécifique de l’écran tactile (151) affichant les images et la première image vignette (411) à un second instant, le stockage, dans la mémoire (170), d’une seconde image affichée sur l’écran tactile au second instant, et le groupage de la seconde image avec la première image dans la mémoire (170).
FR1654247A 2015-11-10 2016-05-12 Terminal mobile et methode de controle associee Active FR3043478B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150157692A KR101832966B1 (ko) 2015-11-10 2015-11-10 이동 단말기 및 이의 제어방법
KR1020150157692 2015-11-10

Publications (2)

Publication Number Publication Date
FR3043478A1 true FR3043478A1 (fr) 2017-05-12
FR3043478B1 FR3043478B1 (fr) 2019-12-20

Family

ID=56116279

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1654247A Active FR3043478B1 (fr) 2015-11-10 2016-05-12 Terminal mobile et methode de controle associee

Country Status (5)

Country Link
US (1) US9860411B2 (fr)
EP (2) EP3168727B1 (fr)
KR (1) KR101832966B1 (fr)
CN (1) CN106686206B (fr)
FR (1) FR3043478B1 (fr)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017090233A1 (fr) * 2015-11-24 2017-06-01 パナソニックIpマネジメント株式会社 Dispositif d'imagerie
KR102412283B1 (ko) * 2016-02-17 2022-06-23 삼성전자 주식회사 전자 장치 및 전자 장치의 영상 공유 제어 방법
US20190174069A1 (en) * 2016-03-18 2019-06-06 Kenneth L. Poindexter, JR. System and Method for Autonomously Recording a Visual Media
FR3052008A1 (fr) * 2016-05-27 2017-12-01 Orange Navigation dans une pluralite de contenus video
JP6932963B2 (ja) * 2017-03-22 2021-09-08 コニカミノルタ株式会社 放射線画像表示装置、放射線画像撮影システム及びプログラム
CN107783709B (zh) 2017-10-20 2021-02-09 维沃移动通信有限公司 一种图像的查看方法及移动终端
CN108089788B (zh) * 2017-12-19 2019-12-06 维沃移动通信有限公司 一种缩略图显示控制方法及移动终端
KR102512298B1 (ko) 2018-02-23 2023-03-22 삼성전자주식회사 영상 데이터의 편집을 위한 인터페이스를 표시하는 전자 장치 및 그 동작 방법
JP7028698B2 (ja) * 2018-04-13 2022-03-02 シャープ株式会社 電子機器、制御装置、制御方法、および制御プログラム
KR102223554B1 (ko) * 2018-09-20 2021-03-05 주식회사 인에이블와우 단말기, 이의 제어 방법 및 상기 방법을 구현하기 위한 프로그램을 기록한 기록 매체
KR102142623B1 (ko) * 2018-10-24 2020-08-10 네이버 주식회사 컨텐츠 제공 서버, 컨텐츠 제공 단말 및 컨텐츠 제공 방법
CN109614019A (zh) * 2018-11-29 2019-04-12 阿里巴巴集团控股有限公司 一种图像的处理方法、装置及设备
CN109829070B (zh) * 2019-01-29 2021-01-08 维沃移动通信有限公司 一种图像查找方法及终端设备
US11200740B1 (en) * 2020-09-04 2021-12-14 Amazon Technolgoies, Inc. Systems for generating image-based user interfaces
CN112822394B (zh) * 2020-12-30 2024-03-26 维沃移动通信(杭州)有限公司 显示控制方法、装置、电子设备及可读存储介质
US20230229279A1 (en) * 2021-04-19 2023-07-20 Apple Inc. User interfaces for managing visual content in media

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101180817B1 (ko) 2004-10-13 2012-09-07 소니 주식회사 재생 장치, 촬상 장치, 화면 표시 방법 및 사용자인터페이스
JP5083090B2 (ja) * 2007-09-18 2012-11-28 ソニー株式会社 表示制御装置、撮像装置、表示制御方法およびプログラム
JP2009278310A (ja) 2008-05-14 2009-11-26 Panasonic Corp 機器制御装置
JP2010263615A (ja) * 2009-04-08 2010-11-18 Sony Corp 情報処理装置、情報処理方法、再生装置、再生方法
US8239783B2 (en) 2009-11-19 2012-08-07 Microsoft Corporation Integrated viewfinder and digital media
CN102118651B (zh) * 2010-01-06 2014-03-12 Lg电子株式会社 显示设备和在该显示设备上显示内容的方法
WO2013101211A1 (fr) 2011-12-30 2013-07-04 Intel Corporation Interfaces utilisateur pour dispositifs électroniques
ES2579079T3 (es) 2011-12-31 2016-08-04 Nokia Technologies Oy Provocación de la visualización de elementos
KR101960306B1 (ko) * 2012-07-13 2019-03-20 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
KR102064963B1 (ko) 2013-04-18 2020-01-10 삼성전자주식회사 통신 시스템에서 영상 통화 방법 및 장치
US9307112B2 (en) * 2013-05-31 2016-04-05 Apple Inc. Identifying dominant and non-dominant images in a burst mode capture
KR102080746B1 (ko) 2013-07-12 2020-02-24 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9804760B2 (en) * 2013-08-22 2017-10-31 Apple Inc. Scrollable in-line camera for capturing and sharing content
EP2851900B1 (fr) 2013-09-18 2017-08-23 Nxp B.V. Analyse en temps réel et résumé semi-automatique de contenu multimédia pour capturer un évènement éphémère.
KR20150094355A (ko) 2014-02-11 2015-08-19 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US20150312482A1 (en) 2014-04-28 2015-10-29 Youlapse Oy User input technique for adjusting successive image capturing
US9860451B2 (en) * 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
JP2018535568A (ja) * 2015-09-02 2018-11-29 サムロール エルエルシー 画像を位置合わせして、一連の位置合わせされた画像を提示するためのカメラシステム及び方法

Also Published As

Publication number Publication date
EP3168727B1 (fr) 2020-10-14
KR101832966B1 (ko) 2018-02-28
US20170134605A1 (en) 2017-05-11
US9860411B2 (en) 2018-01-02
CN106686206B (zh) 2020-06-09
KR20170054924A (ko) 2017-05-18
EP3758361A1 (fr) 2020-12-30
EP3168727A3 (fr) 2017-07-12
EP3168727A2 (fr) 2017-05-17
FR3043478B1 (fr) 2019-12-20
CN106686206A (zh) 2017-05-17

Similar Documents

Publication Publication Date Title
FR3021133B1 (fr) Terminal mobile et procede de commande dudit terminal mobile
FR3043478A1 (fr) Terminal mobile et methode de controle associee
FR3022368B1 (fr) Terminal de type montre et procede de commande associe
FR3021424B1 (fr) Terminal mobile et procede de commande dudit terminal mobile
FR3025328B1 (fr) Terminal mobile et procede de commande de celui-ci
FR3031601B1 (fr) Terminal mobile et procede de commande de celui-ci
US10372322B2 (en) Mobile terminal and method for controlling the same
FR3022367A1 (fr)
FR3021425A1 (fr)
US10564675B2 (en) Mobile terminal and control method therefor
FR3021766A1 (fr) Terminal mobile et methode de commande du terminal mobile
FR3026201A1 (fr)
FR3039674A1 (fr) Terminal mobile et methode de controle de celui-ci
FR3022649A1 (fr)
FR3039673A1 (fr) Terminal mobile et methode de controle associee
FR3046470B1 (fr) Terminal mobile
FR3019665A1 (fr)
FR3024786A1 (fr) Terminal mobile et son procede de commande
FR3028630A1 (fr) Terminal mobile et son procede de commande
FR3041785A1 (fr) Terminal mobile et methode de controle associee
FR3042084B1 (fr) Terminal mobile et methode de controle associee
FR3021767A1 (fr) Terminal mobile et son procede de commande
FR3021485A1 (fr) Dispositif mobile et methode de controle associee
FR3021136A1 (fr) Terminal mobile et procede de commande de celui-ci
FR3040221A1 (fr)

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170630

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8