WO2011098617A1 - Procédé d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile en mode veille - Google Patents

Procédé d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile en mode veille Download PDF

Info

Publication number
WO2011098617A1
WO2011098617A1 PCT/EP2011/052237 EP2011052237W WO2011098617A1 WO 2011098617 A1 WO2011098617 A1 WO 2011098617A1 EP 2011052237 W EP2011052237 W EP 2011052237W WO 2011098617 A1 WO2011098617 A1 WO 2011098617A1
Authority
WO
WIPO (PCT)
Prior art keywords
sequence
images
touch screen
action
image
Prior art date
Application number
PCT/EP2011/052237
Other languages
English (en)
Inventor
Sylvain Gommier
Lin Renyi
Ding Yanghuang
Original Assignee
Sagem Wireless
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sagem Wireless filed Critical Sagem Wireless
Publication of WO2011098617A1 publication Critical patent/WO2011098617A1/fr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations

Definitions

  • the present invention relates to a method and device for activating the display of a sequence of images on a touch screen of a mobile telephone device when this device operates in standby mode.
  • the mobile telephony devices are powered by a battery, itself charged by an energy source most often electric. These devices go into sleep mode when they are not used for a period of time, thus decreasing their energy consumption and thus increasing their autonomy.
  • Some of these devices include means for viewing a sequence of images on their screens when operating in sleep mode. It is indeed common for the user to choose a set of still images (background images) and that these images are successively displayed in a loop on the screen one after the other in an established or random order.
  • This type of animation is very limited because it provides no interactivity with the user when the latter decides to use the device (waking the device).
  • the standby mode is indeed currently considered as a mode that we want to get out of as quickly as possible when you want to use the device while the alarm clock of a device can be made much more attractive if the user can interact on the animation displayed when this device operates in standby mode.
  • the problem solved by the present invention is to make interactive a sequence of images being viewed when a mobile phone device operates in sleep mode.
  • the present invention relates to a method for activating the display of a sequence of images on a touch screen of a mobile telephone device when this device operates in standby mode.
  • the method is characterized in that it comprises a step of detecting an action of the user on the touch screen, a step of selecting at least one other sequence of images from a set of image sequences prerecorded according to the action detected on the touch screen, and a step of viewing the sequence of images thus selected to replace the sequence of images previously displayed.
  • the selection of said other sequence of images is a function of the area of the touch screen on which the action was performed.
  • This mode is advantageous because it makes it possible to increase the interaction effect of the user with the scenario by multiplying the possible combinations of the image sequences.
  • this mode provides a concept of spatial areas on the touch screen and an action on one of these areas of the touch screen triggers the viewing of a particular sequence of images while an action outside these space zones has no effect.
  • the selection of said other sequence of images is a function of the area of the image sequence being displayed on which the action was performed.
  • This variant is intended for a scenario formed from image sequences that all have an object in common that evolves during these different sequences.
  • this object can be a mascot, a three-dimensional logo seen from different angles ...
  • an action is performed on the touch screen by touching this touch screen or a touch slipped on this touch screen.
  • the present invention relates to a device for activating the display of a sequence of images on a touch screen of a mobile telephone device when this device operates in standby mode.
  • the device is characterized in that it comprises means for storing at least one sequence of images, means for detecting an action of the user on the touch screen, and means for selecting at least one sequence of images among a set of pre-recorded image sequences according to the action detected on the touch screen E.
  • the present invention relates to a computer program stored on an information carrier which is characterized in that it comprises instructions for implementing the above method, when it is loaded. and executed by a device above.
  • the present invention relates to a mobile telephone apparatus comprising means for implementing telephony functionalities and a touch screen on which an image sequence is displayed.
  • the apparatus is characterized in that it comprises a device above.
  • Fig. 1 represents an example of a set of image sequences that can be used by the image sequence display activation method
  • Fig. 2 represents an example of grouping of directional keys relating to actions of the user on the touch screen
  • Fig. 3 represents an example of defining zones on an object of a sequence of images
  • Fig. 4 is a block diagram of an embodiment of an architecture of a mobile telephone apparatus.
  • the method for activating the display of an image sequence Si on a touch screen E of a mobile telephone apparatus A when this apparatus A operates in standby mode comprises, according to the present invention, a step detecting a user's Aj action on the touch screen E, a step of selecting another image sequence Sk from a set of K prerecorded image sequences Sk according to the detected action Aj on the touch screen E, and a step of displaying the image sequence Sk thus selected in replacement of the image sequence Si so far visualized.
  • the number K of image sequences, the set and the content of each of these prerecorded Sk image sequences depend on the scenario that is to be implemented.
  • Fig. 1 gives an example of a set of four sequences of images S1 to S4 corresponding to a scenario of animation of a puppet P.
  • the sequence of images S1 corresponds to the movement from left to right of the puppet P then on all fours
  • the image sequence S2 corresponds to the puppet leaving a four-legged position and arriving standing and in profile
  • the image sequence S3 corresponds to the profile puppet, who turned his head to look at the camera and turns on himself to face and then finally presents his other profile, the head remaining to look at the camera
  • the sequence of images S4 which corresponds to the jumping puppet on the spot.
  • the SI sequence is looped as soon as the mobile phone switches to standby mode.
  • the method detects this action of the user, called action Al, selects one of the image sequences S2 to S4 , for example S2 and then visualize this sequence of images S2.
  • action Al the switchover of the display of the image sequence S1 to that of S2 occurs when the puppet P is on all fours (first image of the sequences S1 and S2) which creates a continuity effect between these two sequences images.
  • this sequence of images can be played backwards so that the puppet can get back on all fours, the sequence of images S2 is then played again to the place and so on.
  • sequences of images that are pre-recorded and organized according to a predefined order can produce interactivity between the user and these image sequences when the user performs an action on the touch screen of the mobile telephone apparatus.
  • the action that can produce the user is not limited only touching the screen (Al action) that is to say to perform a touch on this touch screen but, according to one embodiment, an action can be defined by a touchdown on this screen.
  • the multiplication of different actions on the screen allows the development of more complex scenarios and much more attractive.
  • the method detects this action, called action A2, selects one of the prerecorded image sequences, for example S4, and then visualize this sequence of images S4.
  • the puppet P then appears on the touch screen jumping on the spot.
  • the method detects this action of the use, called action A3, selects one of the prerecorded image sequences, for example SI, and then visualizes this sequence SI images.
  • action A3 selects one of the prerecorded image sequences, for example SI, and then visualizes this sequence SI images.
  • the puppet P then stops jumping, goes on all fours and moves from left to right on the screen.
  • the method detects this action of the use, called action A4, selects one of the image sequences, for example S3, and then visualizes this sequence of images S3.
  • action A4 selects one of the image sequences, for example S3, and then visualizes this sequence of images S3.
  • the puppet P then appears on the touch screen turning on itself.
  • the process stops when no action is performed by the user on the touch screen for a predetermined time. No prerecorded image sequence is then displayed on the touch screen.
  • the selection of a prerecorded image sequence Sk is a function of the zone ZOk of the touch screen on which the action has been detected.
  • These zones ZOk can be grouped as shown in FIG. 2, in a part of the touch screen, here in the lower left part of the screen, as a set of directional keys, called here "to the right” (ZOl), upwards “(Z02) , “Rotation” (Z03), “downward", (zone Z04).
  • a touch on the directional key "upwards” causes the selection of the image sequence S4, on the key “to the right” that of the image sequence S2 displayed in the direction inverse to that shown in FIG. 1 followed by the sequence SI, on the key “downwards” that of the image sequence S2 displayed in the opposite direction and on the key “turns in a circle” that of the sequence S3.
  • the action of the user can also induce the selection of several pre-recorded sequences displayed one after the other.
  • the selection of a prerecorded image sequence Sk is a function of the zone ZOnZm of the sequence of images, Sm, which is being displayed on the touch screen and on which an action has been done by the user. This action is then detected only if this action is performed on this zone ZOnZm and not elsewhere on the touch screen.
  • This variant requires the definition of zones ZOnZm in each of the images of each image sequence Zk.
  • Known processing means may be used for this purpose, such as automatic or semi-automatic graphical means for delimiting the outline of these zones on an object of an image of an image sequence and means for following this contour. in the other images in this sequence of images.
  • Different zones can be defined in each of the Zk image sequences without departing from the scope of the present invention.
  • Zone ZOlZk corresponds to body C of puppet P while zone Z02Zk corresponds to one of the members of puppet P.
  • the method When the user makes a touchdown in zone ZO lZk relating to a sequence of images Sk being viewed, and slides his finger to the right, the method then detects the action and selects one of the image sequences , for example, SI, and then display the image sequence S1.
  • the method When the user makes a touchdown in the zone ZO l Zk relative to a sequence of images Sk being viewed, and slides his finger to form a circle, the method then detects the action and selects one of the image sequences, for example S3, and then displays the image sequence S3.
  • the method When the user makes a touch in the zone ZOlZk relating to a sequence of images Sk being displayed, and slides his finger downwards, the method then detects the action and selects one of the image sequences, for example S2, and then in reverse view the sequence of images S2.
  • the method of activating the visualization of image sequences according to the present invention is a method that allows the realization of complex interactive scenarios that are attractive to the user when the mobile phone device operates in the standby mode.
  • the present invention relates to a device D for activating the display of a sequence of images on a touch screen of a mobile telephone device when this device operates in standby mode.
  • the device comprises means for storing at least one sequence of images, means for detecting an action of the user on the touch screen, and means for selecting at least one sequence of images from a set pre-recorded image sequences based on the action detected on the touch screen.
  • the number of actions detected by the method may be important and the selection may relate to more than one sequence of images when one of these actions is detected.
  • the selection of at least one sequence of images may be a function of the sequence of images that is being viewed and this to produce a continuity in the animation of an object as we have seen previously.
  • scenario implementation by the method involves some logic between the image sequences being viewed, the actions that are detected, and the image sequences that are selected.
  • This logic can be implemented by a set of dedicated electronic components involving, in particular, a memory, a processor and one of the logical functions of the type ET, OR etc. It may also be in the form of instructions of a computer program P stored in a memory and executed by a processor.
  • Fig. 4 is a block diagram of an embodiment of an architecture of a mobile telephone apparatus.
  • This apparatus A comprises a set of electronic components which form a HW (hardware) layer shown in the upper part of FIG. 4, and a stack SW (called software layer in English) protocol layers that allow the implementation of the features provided by the device A and software applications implemented on this device A (shown in the lower part of Figure 4).
  • HW hardware
  • SW software layer in English
  • the apparatus A comprises a DBP processor, memory modules M of the SDRAM type for example, at least one radiofrequency communication means such as for example an RF module that manages the GSM, GPRS type communications. and / or EDGE, a BLUE module that manages Bluetooth communications, a GPS module for satellite communications and / or a WLAN module for WIFI type communications and an IRF means that handles infrared-type communications. Each module is connected to an antenna. This list is not exhaustive and is given here only as an example.
  • the apparatus A also comprises an APMA module for managing analog data, power and audio signals transmitted between the apparatus A and peripherals connected by a wire with the apparatus A.
  • This APMA module ensures, for this purpose, functionalities which are here schematically grouped into five modules: the MIC module provided for signal exchanges with a microphone, an HP module provided for signal exchanges with a loudspeaker, a CA module provided for signal exchanges with a Hi-Fi headset, a USBC module designed for signal exchanges from a USB cable.
  • the MIC module provided for signal exchanges with a microphone
  • an HP module provided for signal exchanges with a loudspeaker
  • CA module provided for signal exchanges with a Hi-Fi headset
  • USBC module designed for signal exchanges from a USB cable.
  • the apparatus A also comprises a touch screen E and DA means for detecting a user action on this screen.
  • the means DA inform the processor DBP.
  • the apparatus A may also optionally comprise a camera C which communicates with the processor DBP. It also includes a BAT battery which is connected to the APMA module so that this module ensures its management (level, malfunction, ).
  • the SW stack implements an operating system that allows exchanges with the various modules and electronic components of the HW layer, and which communicates with other higher level MW protocol layers called middleware.
  • the functionalities of the apparatus A as well as the software applications are then implemented by an APP application layer based on the layers of intermediate levels.
  • the apparatus A also includes the device D.
  • the memory M can then be used to record the prerecorded Zk image sequences. These sequences images are either created by the camera C, or downloaded from one of the communication means of the apparatus A.
  • the touch screen E is then used as an image display screen Zk selected and the means DA as means for detecting an action Aj of the user on the touch screen E.
  • the instructions of the computer program P are stored in the memory M and executed by the processor DBP so as to implement the steps of the method described in relation to Figs 1 to 3.
  • the device D is thus integrated in this appliance architecture A.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

La présente invention concerne un procédé d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile lorsque cet appareil fonctionne en mode veille. Le procédé comporte une étape de détection d'une action de l'utilisateur sur l'écran tactile, une étape de sélection d'au moins une autre séquence d'images parmi un ensemble de séquences d'images préenregistrées en fonction de l'action détectée sur l'écran tactile, et une étape de visualisation de la séquence d'images ainsi sélectionnée en remplacement de la séquence d'images jusqu'alors visualisée. La présente invention concerne également un programme d'ordinateur et un appareil de téléphonie mobile.

Description

Procédé d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile en mode veille
La présente invention concerne un procédé et dispositif d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile lorsque cet appareil fonctionne en mode veille.
Les appareils de téléphonie mobile sont alimentés par une batterie, elle-même chargée par une source d'énergie le plus souvent électrique. Ces appareils passent en mode veille lorsqu'ils ne sont pas utilisés pendant une période de temps, diminuant ainsi leur consommation énergétique et augmentant donc leur autonomie.
Certains de ces appareils comportent des moyens pour visualiser une séquence d'images sur leurs écrans lorsqu'ils fonctionnent en mode de veille. Il est en effet courant que l'utilisateur choisisse un ensemble d'images fixes (images de fond d'écran) et que ces images soient successivement affichées en boucle à l'écran les unes après les autres selon un ordre établi ou aléatoire.
Ce type d'animations est très limité car il ne procure aucune interactivité avec l'utilisateur lorsque ce dernier décide d'utiliser l'appareil (réveil de l'appareil). Le mode veille est en effet considéré actuellement comme un mode dont on veut sortir le plus rapidement possible lorsque l'on souhaite utiliser l'appareil alors que le réveil d'un appareil peut être rendu bien plus attractif si l'utilisateur peut interagir sur l'animation visualisée lorsque cet appareil fonctionne en mode veille.
Le problème résolu par la présente invention est de rendre interactif une séquence d'images en cours de visualisation lorsqu'un appareil de téléphonie mobile fonctionne en mode veille.
A cet effet, la présente invention concerne un procédé d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile lorsque cet appareil fonctionne en mode veille. Le procédé est caractérisé en ce qu'il comporte une étape de détection d'une action de l'utilisateur sur l'écran tactile, une étape de sélection d'au moins une autre séquence d'images parmi un ensemble de séquences d'images préenregistrées en fonction de l'action détectée sur l'écran tactile, et une étape de visualisation de la séquence d'images ainsi sélectionnée en remplacement de la séquence d'images jusqu'alors visualisée.
Ainsi, en préenregistrant plusieurs séquences d'images de manière à réaliser un scénario principal, l'utilisateur, par ses actions successives sur l'écran tactile, interagit avec le scénario et visualise des séquences d'images relatives à des variantes de ce scénario principal ce qui a pour effet d'augmenter les possibilités de l'interface graphique de ces appareils et d'augmenter de ce fait l'attrait de l'utilisateur pour ce type d'appareils.
Selon un mode de réalisation, la sélection de ladite autre séquence d'images est fonction de la zone de l'écran tactile sur laquelle l'action a été réalisée. Ce mode est avantageux car il permet d'augmenter l'effet d'interactivité de l'utilisateur avec le scénario en multipliant les combinaisons possibles des séquences d'images. En d'autres termes, ce mode procure une notion de zones spatiales sur l'écran tactile et une action sur l'une de ces zones de l'écran tactile déclenche la visualisation d'une séquence d'images particulière tandis qu'une action en dehors de ces zones spatiales n'a aucun effet.
Selon une variante de ce mode de réalisation, la sélection de ladite autre séquence d'images est fonction de la zone de la séquence d'images en cours de visualisation sur laquelle l'action a été réalisée. Cette variante est prévue pour un scénario formé à partir de séquences d'images qui comportent toutes un objet en commun qui évolue au cours de ces différentes séquences. Par exemple, cet objet peut être une mascotte, un logo tridimensionnel vu sous différents angles... En définissant dans chaque image de chacune de ces séquences des zones spatiales sur l'objet en question, la possibilité est alors offerte à l'utilisateur d'animer l'objet de différentes manières selon la succession de ses actions sur ces différentes zones spatiales.
Selon un mode de réalisation, une action est réalisée sur l'écran tactile par touché de cet écran tactile ou par un touché glissé sur cet écran tactile.
Selon l'un de ses aspects matériels, la présente invention concerne un dispositif d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile lorsque cet appareil fonctionne en mode veille. Le dispositif est caractérisé en ce qu'il comporte des moyens pour mémoriser au moins une séquence d'images, des moyens de détection d'une action de l'utilisateur sur l'écran tactile, et des moyens de sélection d'au moins une séquence d'images parmi un ensemble de séquences d'images préenregistrées en fonction de l'action détectée sur l'écran tactile E.
Selon un autre de ses aspects, la présente invention concerne un programme d'ordinateur stocké sur un support d'informations qui est caractérisé en ce qu'il comporte des instructions permettant de mettre en œuvre le procédé ci-dessus, lorsqu'il est chargé et exécuté par un dispositif ci-dessus.
Selon un de ses aspects matériels, la présente invention concerne un appareil de téléphonie mobile comportant des moyens pour mettre en œuvre des fonctionnalités de téléphonie et un écran tactile sur lequel est visualisée une séquence d'images. L'appareil est caractérisé en ce qu'il comporte un dispositif ci-dessus.
Les caractéristiques de l'invention mentionnées ci-dessus, ainsi que d'autres, apparaîtront plus clairement à la lecture de la description suivante d'un exemple de réalisation, ladite description étant faite en relation avec les dessins joints, parmi lesquels:
La Fig. 1 représente un exemple d'un ensemble de séquences d'images qui peut être utilisé par le procédé d'activation de visualisation de séquences d'images,
La Fig. 2 représente un exemple de regroupement de touches directionnelles relatives à des actions de l'utilisateur sur l'écran tactile,
La Fig. 3 représente un exemple de définition de zones sur un objet d'une séquence d'images, et
La Fig. 4 représente un synoptique d'un mode de réalisation d'une architecture d'un appareil de téléphonie mobile. De manière générale, le procédé d'activation de la visualisation d'une séquence d'images Si sur un écran tactile E d'un appareil de téléphonie mobile A lorsque cet appareil A fonctionne en mode veille, comporte selon la présente invention, une étape de détection d'une action Aj de l'utilisateur sur l'écran tactile E, une étape de sélection d'une autre séquence d'images Sk parmi un ensemble de K séquences d'images Sk préenregistrées en fonction de l'action Aj détectée sur l'écran tactile E, et une étape de visualisation de la séquence d'images Sk ainsi sélectionnée en remplacement de la séquence d'images Si jusqu'alors visualisée.
Le nombre K de séquences d'images, l'ensemble et le contenu de chacune de ces séquences d'images Sk préenregistrées dépendent du scénario que l'on souhaite mettre en œuvre.
La Fig. 1 donne un exemple d'un ensemble de quatre séquences d'images SI à S4 correspondant à un scénario d'animation d'un pantin P. La séquence d'images SI correspond au déplacement de gauche à droite du pantin P alors à quatre pattes, la séquence d'images S2 correspond au pantin partant d'une position à quatre pattes et arrivant debout et de profil, la séquence d'images S3 correspond au pantin de profil, qui a tourné la tête pour regarder la caméra et qui tourne sur lui-même pour se trouver de face puis finalement présente son autre profil, la tête restant à regarder la caméra, et la séquence d'images S4 qui correspond au pantin qui saute sur place.
Prenons l'exemple où la séquence SI est visualisée en boucle dès que l'appareil de téléphonie mobile bascule dans le mode veille. Sur l'écran tactile de cet appareil apparaît alors le pantin qui se déplace de gauche à droite. Dès que l'utilisateur touche l'écran tactile par son doigt ou à l'aide d'un stylet et autre ustensile, le procédé détecte cette action de l'utilisateur, appelée action Al, sélectionne une des séquences d'images S2 à S4, par exemple S2 et visualise alors cette séquence d'images S2. Par exemple, le basculement de la visualisation de la séquence d'images SI vers celle de S2 se produit lorsque le pantin P est à quatre pattes (première image des séquences S 1 et S2) ce qui crée un effet de continuité entre ces deux séquences d'images. Une fois debout (fin de la séquence d'images S2), cette séquence d'images peut être jouée à l'envers pour que le pantin se remette à quatre pattes, la séquence d'images S2 est alors à nouveau jouée à l'endroit et ainsi de suite.
Au travers de cet exemple de scénario très simpliste, on comprend que des séquences d'images préenregistrées et organisées selon un ordre prédéfini peut produire de l'interactivité entre l'utilisateur et ces séquences d'images lorsque l'utilisateur réalise une action sur l'écran tactile de l'appareil de téléphonie mobile.
L'action que peut produire l'utilisateur ne se limite pas uniquement à toucher l'écran (action Al) c'est-à-dire à effectuer un appui sur cet écran tactile mais, selon un mode de réalisation, une action peut être définie par un touché glissé sur cet écran.
La multiplication d'actions différentes sur l'écran permet l'élaboration de scénario plus complexes et bien plus attractifs. Par exemple, en reprenant l'exemple de la Fig. 1, lorsque l'utilisateur réalise un touché glissé (appui sur l'écran tactile en glissant son doigt) vers le haut, le procédé détecte cette action, appelée action A2, sélectionne une des séquences d'images préenregistrées, par exemple S4, et visualise alors cette séquence d'images S4. Le pantin P apparaît alors sur l'écran tactile en train de sauter sur place.
Lorsque l'utilisateur réalise alors un touché glissé sur l'écran tactile vers la droite, le procédé détecte cette action de l'utilisation, appelée action A3, sélectionne une des séquences d'images préenregistrées, par exemple SI , et visualise alors cette séquence d'images SI . Le pantin P arrête alors de sauter, se remet à quatre pattes et se déplace de gauche à droite sur l'écran.
Lorsque l'utilisateur réalise un touché glissé pour former un cercle, le procédé détecte cette action de l'utilisation, appelée action A4, sélectionne une des séquences d'images, par exemple S3, et visualise alors cette séquence d'images S3. Le pantin P apparaît alors sur l'écran tactile en train de tourner sur lui-même.
Le procédé s'arrête lorsque aucune action n'est effectuée par l'utilisateur sur l'écran tactile pendant une durée prédéterminée. Aucune séquence d'images préenregistrée n'est alors visualisée sur l'écran tactile.
Selon une variante du procédé, la sélection d'une séquence d'images préenregistrées Sk est fonction de la zone ZOk de l'écran tactile sur laquelle l'action a été détectée. Ces zones ZOk peuvent être regroupées, tel que illustré sur la Fig. 2, dans une partie de l'écran tactile, ici en partie basse et gauche de l'écran, sous forme d'un ensemble de touches directionnelles, appelées ici « vers la droite » (ZOl), vers le haut » (Z02), « de rotation » (Z03), « vers le bas », (zone Z04). En reprenant l'exemple de la Fig. 1, des actions similaires aux actions Al , A2, A3 et A4 peuvent être associées à chacune de ces zones. Par exemple, un toucher sur la touche directionnelle « vers le haut » provoque la sélection de la séquence d'images S4, sur la touche « vers la droite » celle de la séquence d'images S2 visualisée dans le sens inverse de celui représenté à la Fig. 1 suivie de la séquence SI, sur la touche « vers le bas » celle de la séquence d'images S2 visualisée dans le sens inverse et sur la touche « tourne en rond » celle de la séquence S3.
On voit donc à travers de cet exemple que l'action de l'utilisateur peut également induire la sélection de plusieurs séquences préenregistrées visualisées les unes après les autres.
Selon une autre variante du procédé, la sélection d'une séquence d'images préenregistrées Sk est fonction de la zone ZOnZm de la séquence d'images, Sm, qui est en cours de visualisation sur l'écran tactile et sur laquelle une action a été réalisée par l'utilisateur. Cette action n'est alors détectée que si cette action est réalisée sur cette zone ZOnZm et non ailleurs sur l'écran tactile. Cette variante nécessite la définition de zones ZOnZm dans chacune des images de chaque séquence d'images Zk. Des moyens connus de traitement peuvent être utilisés à cet effet, tels que des moyens graphiques automatiques ou semi-automatiques pour délimiter le contour de ces zones sur un objet d'une image d'une séquences d'images et des moyens pour suivre ce contour dans les autres images de cette séquence d'images.
A titre d'illustration, la Fig. 3 représente un exemple de définition de deux zones ZO lZk (k=l , 2, 3 ou 4) et Z02Zk qui sont ici identiques dans chacune des séquences d'images préenregistrées ZI , Z2, Z3 et Z4. Des zones différentes peuvent être définies dans chacune des séquences d'images Zk sans pour autant sortir du cadre de la présente invention.
La zone ZOlZk correspond au corps C du pantin P tandis que la zone Z02Zk correspond à l'un des membres du pantin P.
On peut alors définir un scénario à partir d'actions portées sur ces différentes zones. Par exemple, lorsque l'utilisateur réalise un touché dans la zone Z02Zk (sur l'un des membres du pantin P) relatif à une séquence d'images Sk en train d'être visualisée, le procédé détecte l'action et sélectionne une des séquences d'images, par exemple S4, et visualise alors la séquence d'images S4.
Lorsque l'utilisateur réalise un touché dans la zone ZO lZk relatif à une séquence d'images Sk en train d'être visualisée, et glisse son doigt vers la droite, le procédé détecte alors l'action et sélectionne une des séquences d'images, par exemple SI, et visualise alors la séquence d'images SI .
Lorsque l'utilisateur réalise un touché dans la zone ZO l Zk relatif à une séquence d'images Sk en train d'être visualisée, et glisse son doigt pour former un cercle, le procédé détecte alors l'action et sélectionne une des séquences d'images, par exemple S3, et visualise alors la séquence d'images S3.
Lorsque l'utilisateur réalise un touché dans la zone ZOlZk relatif à une séquence d'images Sk en train d'être visualisée, et glisse son doigt vers le bas, le procédé détecte alors l'action et sélectionne une des séquences d'images, par exemple S2, et visualise alors en sens inverse la séquence d'images S2.
Ainsi, le procédé d'activation de la visualisation de séquences d'images selon la présente invention est un procédé qui permet la réalisation de scénario complexes interactifs qui sont attractifs pour l'utilisateur lorsque l'appareil de téléphonie mobile fonctionne dans le mode veille.
Selon l'un de ses aspects matériels, la présente invention concerne un dispositif D d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile lorsque cet appareil fonctionne en mode veille.
Le dispositif comporte des moyens pour mémoriser au moins une séquence d'images, des moyens de détection d'une action de l'utilisateur sur l'écran tactile, et des moyens de sélection d'au moins une séquence d'images parmi un ensemble de séquences d'images préenregistrées en fonction de l'action détectée sur l'écran tactile.
Selon le scénario mis en œuvre, le nombre d'actions détectées par le procédé peut être important et la sélection peut porter sur plus d'une séquence d'images lorsque l'une de ces actions est détectée. De plus, la sélection d'au moins une séquence d'images peut être fonction de la séquence d'images qui est en cours de visualisation et ce afin de produire une continuité dans l'animation d'un objet comme on l'a vu précédemment. Ainsi, la mise en œuvre de scénario par le procédé implique une certaine logique entre les séquences d'images en cours de visualisation, les actions qui sont détectées et les séquences d'images qui sont sélectionnées. Cette logique peut être soit implémentée par un ensemble de composants électroniques dédiés faisant intervenir, notamment, une mémoire, un processeur et une des fonctions logiques de type ET, OU etc. Elle peut également se présenter sous la forme d'instructions d'un programme d'ordinateur P mémorisées dans une mémoire et exécutées par un processeur.
La Fig. 4 représente un synoptique d'un mode de réalisation d'une architecture d'un appareil de téléphonie mobile. Cet appareil A comporte un ensemble de composants électroniques qui forment une couche HW (dite hardware en anglais) représentée en partie haute de la Fig. 4, et un empilement SW (dite couche software en anglais) de couches protocolaires qui permettent la mise en œuvre des fonctionnalités assurées par l'appareil A et des applications logicielles implémentées sur cet appareil A (représenté en partie basse de la Fig. 4).
Au niveau de la couche HW, l'appareil A comporte un processeur DBP, des modules de mémoire M de type SDRAM par exemple, au moins un moyen de communication radiofréquence tel que par exemple un module RF qui gère les communications de type GSM, GPRS et/ou EDGE, un module BLUE qui gère les communications Bluetooth, un module GPS pour les communications satellitaires et/ou un module WLAN pour des communications de type Wifî et un moyen IRF qui gère les communications de type infrarouge. Chaque module est relié à une antenne. Cette liste n'est pas limitative et n'est donnée ici qu'à titre d'exemple. L'appareil A comporte également un module APMA de gestion de données analogiques, de la puissance et des signaux audio transmis entre l'appareil A et des périphériques connectés par un fil avec l'appareil A. Ce module APMA assure, à cet effet, des fonctionnalités qui sont ici schématiquement regroupées en cinq modules: le module MIC prévu pour des échanges de signaux avec un microphone, un module HP prévu pour des échanges de signaux avec un haut-parleur, un module CA prévu pour des échanges de signaux avec un casque Hi-Fi, un module USBC prévu pour des échanges de signaux à partir d'un câble USB. Là encore, cette liste n'est pas limitative et n'est donnée ici qu'à titre d'exemple.
L'appareil A comporte également un écran tactile E et des moyens DA pour détecter une action d'un utilisateur sur cet écran. Ainsi, dès qu'une action est réalisée sur l'écran E, les moyens DA en informent le processeur DBP. L'appareil A peut également éventuellement comporter une caméra C qui communique avec le processeur DBP. Il comporte également une batterie BAT qui est reliée au module APMA afin que ce module assure sa gestion (niveau, défaut de fonctionnement,...).
L'empilement SW implémente un système d'opération qui permet les échanges avec les différents modules et composants électroniques de la couche HW, et qui communique avec d'autres couches protocolaires MW de plus haut niveau appelées intermédiaires (middleware). Les fonctionnalités de l'appareil A ainsi que des applications logicielles sont alors implémentées par une couche applicative APP basée sur les couches de niveaux intermédiaires.
L'appareil A comporte également le dispositif D. La mémoire M peut alors servir à enregistrer les séquences d'images Zk préenregistrées. Ces séquences d'images sont soit créées par la caméra C, soit téléchargées à partir de l'un des moyens de communication de l'appareil A. L'écran tactile E est alors utilisé en tant qu'écran de visualisation de séquences d'images Zk sélectionnées et les moyens DA en tant que moyens de détection d'une action Aj de l'utilisateur sur l'écran tactile E.
Les instructions du programme d'ordinateur P sont mémorisées dans la mémoire M et exécutées par le processeur DBP de manière à mettre en œuvre les étapes du procédé décrit en relation avec les Fig.s 1 à 3. Le dispositif D est ainsi intégré à cette architecture de l'appareil A.
D'autres architectures peuvent être utilisées pour la mise en œuvre du procédé décrit en relation avec les Figs. 1 à 3 sans toutefois sortie du cadre de la présente invention du moment que les éléments de l'appareil A, qu'ils soient issus de la couche HW ou d'une couche de l' empilement SW, sont prévus pour mémoriser les instructions du programme d'ordinateur P.

Claims

REVENDICATIONS
1) Procédé d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile lorsque cet appareil fonctionne en mode veille, ledit procédé comportant
- une étape de détection d'une action de l'utilisateur sur l'écran tactile,
- une étape de sélection d'au moins une autre séquence d'images parmi un ensemble de séquences d'images préenregistrées en fonction de l'action détectée sur l'écran tactile, et
- une étape de visualisation de la séquence d'images ainsi sélectionnée en remplacement de la séquence d'images jusqu'alors visualisée,
caractérisé en ce que la sélection de ladite autre séquence d'images est fonction d'une zone de la séquence d'images en cours de visualisation sur laquelle l'action a été réalisée.
2) Procédé selon la revendication 1, dans lequel la sélection de ladite autre séquence d'images est fonction de la zone de l'écran tactile sur laquelle l'action a été réalisée par l'utilisateur. 3) Procédé selon l'une des revendications précédentes, dans lequel une action est réalisée sur l'écran tactile par touché de cet écran tactile ou par un touché glissé sur cet écran tactile.
4) Dispositif d'activation de la visualisation d'une séquence d'images sur un écran tactile (E) d'un appareil de téléphonie mobile lorsque cet appareil fonctionne en mode veille, ledit dispositif comportant
des moyens pour mémoriser au moins une séquence d'images, des moyens de détection d'une action de l'utilisateur sur l'écran tactile, et des moyens de sélection d'au moins une autre séquence d'images parmi un ensemble de séquences d'images préenregistrées en fonction de l'action détectée sur l'écran tactile E,
caractérisé en ce que les moyens de sélection sont prévus pour que la sélection de ladite autre séquence d'images est fonction d'une zone de la séquence d'images en cours de visualisation sur laquelle l'action a été réalisée. 5) Programme d'ordinateur stocké sur un support d'informations, caractérisé en ce qu'il comporte des instructions permettant de mettre en œuvre le procédé selon l'une des revendications 1 à 3, lorsqu'il est chargé et exécuté par un dispositif conforme à la revendication 4.
6) Appareil de téléphonie mobile comportant des moyens pour mettre en œuvre des fonctionnalités de téléphonie et un écran tactile sur lequel est visualisée une séquence d'images, caractérisé en ce qu'il comporte un dispositif conforme à la revendication 4.
PCT/EP2011/052237 2010-02-15 2011-02-15 Procédé d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile en mode veille WO2011098617A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1051012A FR2956546A1 (fr) 2010-02-15 2010-02-15 Procede d'activation de la visualisation d'une sequence d'images sur un ecran tactile d'un appareil de telephonie mobile en mode veille
FR10/51012 2010-02-15

Publications (1)

Publication Number Publication Date
WO2011098617A1 true WO2011098617A1 (fr) 2011-08-18

Family

ID=42455379

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/052237 WO2011098617A1 (fr) 2010-02-15 2011-02-15 Procédé d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile en mode veille

Country Status (2)

Country Link
FR (1) FR2956546A1 (fr)
WO (1) WO2011098617A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104885049A (zh) * 2014-03-12 2015-09-02 华为终端有限公司 一种锁屏方法及移动终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1521176A1 (fr) * 2003-09-30 2005-04-06 Sony Ericsson Mobile Communications AB Dispositif et méthode pour rendre des données
US20090094555A1 (en) * 2007-10-05 2009-04-09 Nokia Corporation Adaptive user interface elements on display devices
US20090259968A1 (en) * 2008-04-15 2009-10-15 Htc Corporation Method for switching wallpaper in screen lock state, mobile electronic device thereof, and storage medium thereof
US20090322761A1 (en) * 2008-06-26 2009-12-31 Anthony Phills Applications for mobile computing devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1521176A1 (fr) * 2003-09-30 2005-04-06 Sony Ericsson Mobile Communications AB Dispositif et méthode pour rendre des données
US20090094555A1 (en) * 2007-10-05 2009-04-09 Nokia Corporation Adaptive user interface elements on display devices
US20090259968A1 (en) * 2008-04-15 2009-10-15 Htc Corporation Method for switching wallpaper in screen lock state, mobile electronic device thereof, and storage medium thereof
US20090322761A1 (en) * 2008-06-26 2009-12-31 Anthony Phills Applications for mobile computing devices

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104885049A (zh) * 2014-03-12 2015-09-02 华为终端有限公司 一种锁屏方法及移动终端
CN104885049B (zh) * 2014-03-12 2018-07-06 华为终端(东莞)有限公司 一种锁屏方法及移动终端

Also Published As

Publication number Publication date
FR2956546A1 (fr) 2011-08-19

Similar Documents

Publication Publication Date Title
KR101398134B1 (ko) 휴대 단말기의 동영상 재생장치 및 방법
FR3043478A1 (fr) Terminal mobile et methode de controle associee
US20140184471A1 (en) Device with displays
WO2006085026A2 (fr) Systeme radio multimedia reveil informatique
FR3039674A1 (fr) Terminal mobile et methode de controle de celui-ci
FR3019665A1 (fr)
EP2336867A1 (fr) Procédé et dispositif de contrôle de l'affichage sur un dispositif d'affichage d'une pluralité d'éléments d'une liste
CA2709696A1 (fr) Circuit electronique d'analyse a alternance de mesure capacitive/ resistive pour capteur tactile multicontacts a matrice passive
CN111346376A (zh) 基于多媒体资源的互动方法、装置、电子设备及存储介质
WO2011098617A1 (fr) Procédé d'activation de la visualisation d'une séquence d'images sur un écran tactile d'un appareil de téléphonie mobile en mode veille
CN106779634A (zh) 支付处理方法及装置
KR20230141917A (ko) 아바타 생성 사용자 인터페이스
US10990263B1 (en) Interface for trimming videos
EP3387520A1 (fr) Navigation directe dans un extrait vidéo
EP2958004B1 (fr) Procédé de selection d'un élément dans une liste
WO2011098618A1 (fr) Procédé et un système de transfert d'une image entre deux appareils de téléphonie mobile
BE1019349A5 (fr) Procede et dispositif pour stocker et/ou reproduire du son et des images.
JP2014150435A (ja) 再生装置および再生プログラム
US11910270B2 (en) Method of and device for performing a touchless handshake between two or more mobile device users
EP1523843B1 (fr) Dispositif de communication mobile
FR2872598A1 (fr) Telecommande souris
FR2868902A1 (fr) Procede et appareil de prise de vue pour simuler l'effet optique d'une epreuve a reseau lenticulaire
BE1022652A1 (fr) Procédé d'affichage et de gestion de symboles d'interaction de type communication et dispositif de visualisation à surface tactile associé
FR2956545A1 (fr) Procede et dispositif de gestion d'icones affiches sur une page d'un ecran tactile d'un appareil de telephonie mobile
WO2014108634A2 (fr) Dispositif portable de lecture interactif et procédé d'affichage d'un document numérique sur ce dispositif

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11703231

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11703231

Country of ref document: EP

Kind code of ref document: A1