WO2007110432A1 - Procédé de calcul des paramètres d'animation des objets d'une scène multimédia. - Google Patents

Procédé de calcul des paramètres d'animation des objets d'une scène multimédia. Download PDF

Info

Publication number
WO2007110432A1
WO2007110432A1 PCT/EP2007/052941 EP2007052941W WO2007110432A1 WO 2007110432 A1 WO2007110432 A1 WO 2007110432A1 EP 2007052941 W EP2007052941 W EP 2007052941W WO 2007110432 A1 WO2007110432 A1 WO 2007110432A1
Authority
WO
WIPO (PCT)
Prior art keywords
animation
scene
variable
terminal
parameter
Prior art date
Application number
PCT/EP2007/052941
Other languages
English (en)
Inventor
Erwann Gouesbet
Emmanuel Rohee
Original Assignee
Streamezzo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Streamezzo filed Critical Streamezzo
Priority to CN200780011240XA priority Critical patent/CN101484921B/zh
Priority to US12/294,732 priority patent/US8373705B2/en
Priority to EP07727414A priority patent/EP2002401A1/fr
Publication of WO2007110432A1 publication Critical patent/WO2007110432A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation

Definitions

  • the field of the invention is that of creating and rendering animations within multimedia scenes, for example of the RichMedia type, on any type of terminal.
  • the invention relates to the dynamic and automatic modification of the multimedia scene animation parameters, allowing them to adapt to external parameters.
  • a multimedia scene within the meaning of this document, consists of objects each presenting various characteristics (sizes, colors, animation, content, %), according to the known techniques, which have been the subject of particular standards as for example SVG or VRML ("Virtual Reality
  • Modeling Language and for at least some of them, different possibilities of animation and / or modification of their behavior.
  • the invention applies in particular, but not exclusively, to all formats of RichMedia type able to define animation objects and / or animations intended to evolve over time, for example, BIFS formats.
  • Application Scene represents, light representation of application scenes.
  • Such scenes can be programmed by a developer, so as to allow interactivity with the user of a terminal on which it is played.
  • the rendering of multimedia scenes is exclusively deterministic in that that it depends solely on the time elapsed and possible interactions of the user with them, usually through the interface of the terminal, for example a mobile terminal, on which they are restored.
  • the invention particularly aims to overcome these various disadvantages.
  • an object of the invention is to provide a technique for adapting the reproduction of a multimedia scene on a terminal, in particular but not exclusively on a mobile terminal, to non-deterministic components, which the author of the scene can take into account when creating the latter.
  • Another object of the invention is to provide such a technique that allows different time bases to be assigned to different animated objects and / or to different animations of a multimedia scene without requiring the implementation of an environment with multiple TimeContainers, much heavier to handle than a single TimeContainer.
  • a further object of the invention is therefore to propose a technique for dynamic and automatic modification of the animation parameters of multimedia scenes, thus making the authors of such scenes benefit from new behavioral functionalities to the latter.
  • Yet another object of the invention is to provide such a technique, which is not expensive, while remaining simple implementation for authors and / or creators of multimedia scenes.
  • At least one of said animations is associated with a non-temporal animation variable, representative of a state of at least one object of said scene, of at least one element of said terminal and / or of a state of an associated communication network, said variable providing a time base function for said animation.
  • the creation method according to the invention allows to take into account different parameters of the current clock of the scene to animate this scene later, at the time of its return. Its parameters may be, for example, a state of another object of the scene, or a state of the rendering terminal of the scene or the associated communication network. This variable will be considered then, during the restitution of the scene, as a time base allowing to enslave the unfolding of the animation.
  • such a method comprises the following steps: defining at least one parameter to animate said object, which can be modified over time; associating said parameter to be animated with said non-temporal animation variable; parameterizing at least one modification of said parameter to be animated, so that the restitution of said object is modified according to an evolution of said animation variable.
  • the process of creating the scene associates an object with an object to animate, which itself will be associated with the non-temporal animation variable described above.
  • said non-temporal animation variable is representative of one of the variables belonging to the group comprising:
  • said parameterizing step comprises a step of calculating said fraction, corresponding to a ratio between at least a first parameter T comparable to a predefined time, representative of an elapsed time, and a second parameter D comparable to a duration predefined, representative of a total duration of the animation, said parameters being provided by said non-temporal animation variable.
  • said calculation step comprises a step of determining the source for obtaining said parameters, according to an attribute of said animation.
  • said element of said terminal is of the type belonging to the group comprising:
  • the invention also relates to an animation signal of at least one multimedia object of a multimedia scene, intended to be rendered on at least one radiocommunication terminal.
  • such a signal carries at least one parameter to animate said object, capable of being modified over time, which is associated with a non-temporal animation variable, representative of a state of at least one object said scene, at least one element of said terminal and / or a state of an associated communication network, said variable providing a time base function for the animation of said object.
  • Another aspect of the invention relates to a method of rendering a multimedia scene comprising at least one animation of an object, on a radiocommunication terminal.
  • Such a method comprises the following steps: implementing at least one object of said scene, comprising at least one parameter to animate said object, capable of being modified over time, which is associated with a non-animation variable time, representative of a state of at least one object of said scene, of at least one element of said terminal and / or a state of an associated communication network; determining a value of said animation variable; modifying said parameter to be animated, as a function of the value of said animation variable, so that the restitution of said object is modified as a function of an evolution of said animation variable.
  • the invention also relates to a computer program product downloadable from a communication network and / or recorded on a computer readable medium and / or executable by a processor comprising program code instructions for the implementation of the restitution process.
  • a multimedia scene comprising at least one animated object as described above.
  • the invention relates to a mobile radiocommunication terminal comprising at least means for restoring at least one multimedia scene comprising at least one animation of an object, characterized in that it comprises the following means: implementation of at least one object of said scene, comprising at least one parameter to animate said object, capable of being modified over time, which is associated with a non-temporal animation variable, representative of a state of at least one object of said scene, at least one element of said terminal and / or a state of an associated communication network; means for determining a value of said animation variable; means for modifying said parameter to be animated, as a function of the value of said animation variable, so that the restitution of said object is modified as a function of an evolution of said animation variable.
  • said chronology advantageously defines on the one hand a series of at least one instant of modification of at least one of said animation parameters, and secondly a type of definition of instants, among which minus: a first type of definition according to a time base, called temporal definition, associating at each moment of modification a time value defined by a clock;
  • a second type of definition according to a state base called a deterministic definition, associating at each instant at least one non-temporal information representative of at least one parameter of at least one object of said scene and / or of at least one an event associated with at least one object of said scene, and / or at least one state of a hardware element of said terminal.
  • the method according to the invention consists in modifying the progress of the animations of a graphic or multimedia scene according to certain parameters of variable evolution of an object and / or an event associated with or targeting this object in a scene graphic.
  • events of the "progressEvent" type are attached to objects of a multimedia scene to promote the monitoring of the evolution of the latter, a fraction contained in FIG. Execution of such events can then be directly received by the receiving terminal playing the multimedia scene.
  • multimedia scenes of the RichMedia type for example, define a plurality of animations whose behavior is linked to the evolution of the scene over time. Indeed, at each step of rendering an animation on the terminal, the latter performs a set of calculations determining the marker or the key corresponding to the current time considered.
  • the animation method according to the invention thus makes it possible to overload the calculating the flow of time for each animation of a graphic or multimedia scene.
  • Each animation of a multimedia scene will therefore no longer necessarily refer to the current clock of the scene, but can now refer to any other data source or any other non-deterministic, but measurable, element. , allowing to define a new repository animation not necessarily temporal.
  • said chronology comprises a definition type indicator, taking by default said first type.
  • said one or more non-temporal information is representative of the evolution of an operation or a state of at least one element of said terminal.
  • the method according to the invention advantageously makes it possible to enrich the possibilities of the scenarios of the multimedia scene contents, for example but not exclusively RichMedia type scenes intended to be rendered on mobile radio communication terminals comprising display functionalities and rendering such scenes, allowing them to dynamically and autonomously adapt to external parameters a scene.
  • said element of said terminal is of the type belonging to the group comprising:
  • the animation method according to the invention makes it possible, for example, for an author of multimedia or graphic scenes:
  • - Animate graphic or multimedia objects according to the flow of a video and / or the filling state buffers (or buffers) associated with the video player; - Animate graphic or multimedia objects according to the state of the terminal rendering the multimedia or graphic scene: battery charge level, level of quality of network reception by the terminal, etc. - To animate graphic or multimedia objects according to the state of the software allowing the restitution of the scene on a terminal: memory volume still available, amount of network information loaded by a mobile radio terminal, etc.
  • the rendering platform for example a mobile radio communication terminal, so as to be able to define a setting of access to certain contents according to the language used by the terminal, or else a display setting (color selection, resizing the screen size for rendering a multimedia scene, etc.).
  • the invention advantageously makes it possible to be able to animate graphic and / or multimedia elements, independently of one another, according to one or more measurements made on the terminal or on any other software element and / or equipment equipping and / or being electrically connected. and / or by a wired and / or wireless communication link with said terminal on which a multimedia scene is rendered.
  • said operation or said state belongs to the group comprising:
  • said chronology takes into account a ratio between at least a first parameter T comparable to a predefined time and at least a second parameter D comparable to a predefined duration.
  • multimedia scenes in the form of content in RichMedia format intended to be rendered on a mobile terminal contain the animation definition that can affect the logical or graphical properties of the elements / objects that make up this scene.
  • An animation modifies the target properties (animation parameters) in a discrete and interpolated way, according to a predefined temporal scheme.
  • This timeline defines the date or the start event of the animation. It defines a sequence of time intervals each associated with a property value of the target.
  • the animation method according to the invention comprises a step of rendering said multimedia scene on said mobile radiocommunication terminal, comprising a step of calculating an interpolation factor F of said animation taking into account said chronology and / or said report.
  • PROVIDERFCN is the address of a parameter provider (for example of the terminal, or of a component connected to said terminal, electrically and / or by a wired or wireless communication link) allowing interpolation calculation, for example: - device :: batterylevel () to take into account the instantaneous level of loading of the battery of the terminal on which a multimedia scene is relocated;
  • bufferlevel for taking into account the state (occupied space) of the read buffer of a media (for example a video displayed on the terminal);
  • the invention allows the author of a multimedia scene to design a simple scenario in which he can take into account as a reference for the unfolding of the animations contained in said scene, elements as varied as the flow time of a video, the state of charge of the battery of the terminal or the mobile phone on which the scene will have to be restored, the current volume of the terminal or the mobile phone, the available memory space for the software, or the size of the terminal display screen on which will be restored the scene, this without need to consider in advance the possible type of terminals on which can be rendered multimedia or graphic scenes.
  • the invention also relates to a computer program product comprising code instructions for executing the steps of the method of animation of at least one multimedia object of a multimedia scene, at least one animation parameter of the said multimedia objects being modified over time, when said scene is played on a mobile radio terminal, according to a predetermined timeline, as aforesaid, when executed on a computer.
  • the invention also relates to an animation signal of at least one multimedia object of a multimedia scene advantageously carries at least one animation parameter of the one or more multimedia objects intended to be modified over time, when said scene is played.
  • said at least one parameter taking into account a predetermined chronology, said chronology being defined on the one hand a series of at least one instant of modification of at least one of said animation parameters, and secondly, a type of definition of instants, among which at least: a first type of definition according to a time base, called temporal definition, associating at each instant of modification a time value defined by a clock;
  • a second type of definition according to a state base called a deterministic definition, associating at each instant at least one non-temporal information representative of at least one parameter of at least one object of said scene and / or of at least one an event associated with at least one object of said scene, and / or at least one state of a hardware element of said terminal.
  • the invention also relates to a mobile radio communication terminal comprising at least one interface for restoring the multimedia scenes respectively composed of at least one multimedia object that can be animated according to at least one modifiable animation parameter over time according to a predetermined chronology, when one of said scenes is played on said terminal, said chronology defines a series of at least one modification moment of at least one of said animation parameters, and secondly a type of definition of instants, among which at least:
  • a temporal definition associating at each moment of modification a time value defined by a clock
  • a second type of definition according to a state base called a deterministic definition, associating at each instant at least one non-temporal information representative of at least one parameter of at least one object of said scene and / or of at least one an event associated with at least one object of said scene, and / or at least one state of a hardware element of said terminal.
  • FIG. 1 shows the flowchart of the main steps of the animation method according to the invention.
  • FIG. 2 illustrates an example of overloading the calculation parameters of an animation, from the charge level of the battery of a mobile terminal.
  • FIG. 3 illustrates a second exemplary implementation of the method according to the invention in which the flow of a video in read mode is represented by means of a moving cursor.
  • FIG. 4 shows a variant of the example of FIG. 3, in which the display of the current time of a video is returned;
  • FIGS. 5 and 6 respectively show the main steps of the creation method and of the rendering method according to a particular embodiment of the invention;
  • the main steps of the method for creating a multimedia scene according to one embodiment of the invention are presented below, in relation with FIG.
  • the first step 51 of defining a parameter to be animated consists in defining at least one parameter to animate an object of the multimedia scene, which parameter may be modified over time.
  • This parameter to be modified depends on a previously defined non-temporal animation variable, which is associated, during the association step 52, with the parameter to be animated.
  • step 53 of parameterizing the modification of the parameter to be animated makes it possible to define on what basis the animation of the object, that is to say what evolutions of the non-temporal animation variable make it possible to animate the object, through the animation parameter defined in step 51.
  • a step 61 of implementation of an object comprising at least one parameter to animate, which was associated, in step 52 described above, a non-temporal animation variable ; a step 62 of determining a value of this non-temporal animation variable, for example a measurement of a state of an object of the scene, or of an element of the terminal or of the communication network associated with the restitution from the scene ; a step 63 of modifying the parameter to be animated, so as to animate the object according to the value determined in the previous step of the variable.
  • a first step 10 it is a question of defining in the content or the graphic or multimedia scene, for example in RichMedia format, the graphical representation that one seeks to obtain on the screen of the terminal 22.
  • - target "bat”: sets the target as the "bat” display text box;
  • timeline value "device :: battery: defines the timeline attribute (interpolation value), which is here determined from the charge value of the battery 21 of the mobile terminal. calculated interpolation value, it is supported in a last step 13, by the playback device of the animation, as defined in the description file of the multimedia scene. When this step of support is carried out, the standard reading of RichMedia content is then initiated, the animation calculating an interpolated value from its attribute "timeline” which is worth “device :: battery”.
  • reader_Measure timeline
  • return SpecDevice_MeasureBatteryLevel (), SpecDevice_MAXBatteryLevel ()
  • the local system is activated to measure the current value of the power and the maximum value.
  • the animation calculates its current key of interpolation with these parameters the display of the interpolated text (from "0" to "10") is displayed on the screen 23, in the zone 24.
  • FIGS. 1, 3 and 4 show a second example of implementation of the method according to the invention in which the flow of a video 30 is represented in reading by means of a cursor (31, 32, 33) mobile.
  • the description file defines the content or the graphic or multimedia scene, for example in the format RichMedia, the graphic representation that one seeks to obtain on the screen of the terminal 34.
  • the description file defines the animation associated with the graphical representation:
  • the animation requests the reading device of the mobile terminal to resolve the measurement function "videotime :: vidl".
  • the media manager then returns the current time 40 of the video clip 40 and the duration if it is available.
  • the animation calculates its current interpolation key with these parameters. If the duration is absent, it considers it as infinite (the cursor 31, 32, 33 loop).
  • Step 10 Definition in the RichMedia content of the graphical representation:
  • Step 11 Definition in the RichMedia content of the animation of the graphical representation:
  • Step 13 Support by the reading device: - standard playback of RichMedia content.
  • the animation calculates an interpolated value, its "timeline” attribute is "videotimeabs :: vidl";
  • the animation requests the reading device to resolve the measurement function "videotimeabs :: vidl".
  • reader_Measure timeline
  • the media manager returns the current time of the video clip and the value 1000 (the internal time reference being for example the millisecond).
  • the animation calculates its current interpolation key with these parameters.
  • the animation loop according to its specifications ("repeat" in English), i.e. a modulo% 100 is performed. This allows to have an infinite counter and not dependent on the possible duration of the video.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Telephone Function (AREA)

Abstract

L'invent ion concerne un procédé de création d'une scène multimédia comprenant au moins une animation d'un objet, destinée à être restituée sur au moins un terminal de radiocommunication. Selon l'invention, au moins une des dites animations est associée à une variable d'animation non temporelle, représentative d'un état d'au moins un objet de ladite scène, d'au moins un élément dudit terminal et/ou d'un état d'un réseau de communication associé, ladite variable assurant une fonction de base de temps pour ladite animation. L'invention concerne également un procédé de restitution d'une scène mult imédia comprenant au moins une animation d'un objet, sur un terminal de radiocommunication.

Description

Procédé de calcul des paramètres d'animation des objets d'une scène multimédia.
Le domaine de l'invention est celui de la création et de la restitution d'animations à l'intérieur de scènes multimédia, par exemple du type RichMedia, sur tout type de terminaux.
Plus précisément, l'invention concerne la modification dynamique et automatique des paramètres d'animations de scènes multimédia, en leur permettant de s'adapter à des paramètres extérieurs.
En effet, une scène multimédia, au sens du présent document, est constituée d'objets présentant chacun diverses caractéristiques (tailles, couleurs, animation, contenu,...), selon les techniques connues, qui ont fait notamment l'objet de normes comme par exemple SVG ou VRML (« Virtual Reality
Modeling Language », langage de modélisation de réalité virtuelle) et pour au moins certains d'entre eux, différentes possibilités d'animation et/ou de modification de leur comportement.
Ainsi, l'invention s'applique notamment, mais non exclusivement, à tous les formats de type RichMedia aptes à définir des objets d'animation et/ou des animations destinés à évoluer dans le temps, par exemple, les formats BIFS
(« Binary Format Scène », Format Binaire pour les Scènes » décrivant des objets ainsi que leurs comportements spatial, temporel et interactif), SMIL
(« Synchronized Multimedia Intégration Language », langage synchronisé d'intégration multimédia), SVG (« Scalable Vector Graphics », langage de description vectorielle de graphiques), ou encore LASeR (« Lightweight
Application Scène Représentation », représentation légère de scènes d'application).
De telles scènes peuvent être programmées par un développeur, de façon à permettre une interactivité avec l'utilisateur d'un terminal sur laquelle elle est jouée.
Or, selon les techniques connues de l'art antérieur, le rendu des scènes multimédia (ou simplement graphiques) est exclusivement déterministe en ce qu'il dépend uniquement du temps écoulé et des interactions éventuelles de l'utilisateur avec celles-ci, par l'intermédiaire le plus souvent de l'interface du terminal, par exemple un terminal mobile, sur lequel elles sont restituées.
On connaît de l'art antérieur des solutions techniques visant à modifier le référentiel temporel d'un élément ou d'un objet d'une scène, comme par exemple l'objet « MediaSensor » définit dans la norme MPEG-4, dont le comportement d'animation peut être rendu dépendant de l'écoulement d'un média en cours de lecture.
On connaît également de l'art antérieur et, plus précisément dans la norme SVG, l'objet « TimeContainer » qui permet de définir une nouvelle base de temps pour des animations d'une scène multimédia.
Cependant, un inconvénient commun à l'objet MediaSensor d'MPEG-4 et à l'objet TimeContainer de SVG est qu'ils permettent de lier le déroulement d'une animation d'un objet uniquement d'une façon relative à l'écoulement du média restitué sur l'écran du terminal, sans aucune autre possibilité.
En d'autres termes, selon les techniques connues de l'art antérieur, l'adaptation du déroulement des animations d'une scène multimédia est uniquement fonction d'éléments déterministes.
L'invention a notamment pour objectif de pallier ces différents inconvénients.
Plus précisément, un objectif de l'invention est de fournir une technique permettant d'adapter la restitution d'une scène multimédia sur un terminal, notamment mais non exclusivement sur un terminal mobile, à des composantes non déterministes, que l'auteur de la scène pourra prendre en compte au moment de la création de cette dernière.
Un autre objectif de l'invention est de fournir un telle technique qui permette d'affecter des bases de temps différentes à différents objets animés et/ou à différentes animations d'une scène multimédia sans nécessiter l'implantation d'un environnement avec de multiples TimeContainers, beaucoup plus lourds à gérer qu'un TimeContainer unique. Un objectif supplémentaire de l'invention consiste donc à proposer une technique de modification dynamique et automatique des paramètres d'animation de scènes multimédia, faisant ainsi bénéficier les auteurs de telles scènes de nouvelles fonctionnalités comportementales à ces dernières. Encore un autre objectif de l'invention est de fournir une telle technique, qui ne soit pas coûteuse, tout en restant simple de mise en œuvre pour les auteurs et/ou les créateurs de scènes multimédia.
Ces objectifs, ainsi que d'autres qui apparaîtront plus clairement par la suite, sont atteints à l'aide d'un procédé de création d'une scène multimédia comprenant au moins une animation d'un objet, destinée à être restituée sur au moins un terminal de radiocommunication.
Selon l'invention, au moins une des dites animations est associée à une variable d'animation non temporelle, représentative d'un état d'au moins un objet de ladite scène, d'au moins un élément dudit terminal et/ou d'un état d'un réseau de communication associé, ladite variable assurant une fonction de base de temps pour ladite animation.
Ainsi, le procédé de création selon l'invention permet de tenir compte de paramètres différents de l'horloge courante de la scène pour animer cette scène ultérieurement, au moment de sa restitution. Ses paramètres peuvent être par exemple un état d'un autre objet de la scène, ou bien un état du terminal de restitution de la scène ou encore du réseau de communication associé. Cette variable va être considérée ensuite, lors de la restitution de la scène, comme une base de temps permettant d'asservir le déroulement de l'animation.
Avantageusement, un tel procédé comprend les étapes suivantes : - définition d'au moins un paramètre à animer dudit objet, susceptible d'être modifié au cours du temps ; association audit paramètre à animer de ladite variable d'animation non temporelle; paramétrage d'au moins une modification dudit paramètre à animer, de façon que la restitution dudit objet soit modifiée en fonction d'une évolution de ladite variable d'animation.
Ainsi, le procédé de création de la scène associe à un objet un paramètre à animer, qui lui-même sera associé à la variable d'animation non temporelle décrite ci-dessus.
De façon préférentielle, ladite variable d'animation non temporelle est représentative d'une des variables appartenant au groupe comprenant :
- le chargement ou la transmission d'un fichier ; - la restitution d'une séquence audio et/ou vidéo ;
- l'espace disponible dans une mémoire ;
- le niveau de charge d'une batterie ;
- le temps de charge d'une batterie ;
- le volume sonore de restitution des sons ; - le pourcentage d'utilisation d'au moins un microprocesseur ;
- le niveau de qualité de la réception 3 G/ GSM ;
- une fraction formant facteur d'interpolation.
En particulier, ladite fraction est contenue dans un événement associé à ladite animation ou reçu par ladite animation. De façon avantageuse, ladite étape de paramétrage comprend une étape de calcul de ladite fraction, correspondant à un rapport entre au moins un premier paramètre T assimilable à un temps prédéfini, représentatif d'un temps écoulé, et un deuxième paramètre D assimilable à une durée prédéfinie, représentative d'une durée totale de l'animation, lesdits paramètres étant fournis par ladite variable d'animation non temporelle.
De plus, ladite étape de calcul comprend une étape de détermination de la source d'obtention desdits paramètres, en fonction d'un attribut de ladite animation. Ainsi, le procédé de création de la scène permet de définir un nouveau référentiel d'animation, non temporel, en fonction de paramètres pouvant être assimilés à des temps ou des durées.
En particulier, ledit élément dudit terminal est du type appartenant au groupe comprenant :
- un élément matériel ;
- un élément électromagnétique ;
- un élément chimique ;
- un élément logiciel. L'invention concerne également un signal d'animation d'au moins un objet multimédia d'une scène multimédia, destinée à être restituée sur au moins un terminal de radiocommunication.
Selon l'invention, un tel signal porte au moins un paramètre à animer dudit objet, susceptible d'être modifié au cours du temps, auquel est associée une variable d'animation non temporelle, représentative d'un état d'au moins un objet de ladite scène, d'au moins un élément dudit terminal et/ou d'un état d'un réseau de communication associé, ladite variable assurant une fonction de base de temps pour l'animation dudit objet.
Un autre aspect de l'invention concerne un procédé de restitution d'une scène multimédia comprenant au moins une animation d'un objet, sur un terminal de radiocommunication.
Un tel procédé comprend les étapes suivantes : mise en œuvre d'au moins un objet de ladite scène, comprenant au moins un paramètre à animer dudit objet, susceptible d'être modifié au cours du temps, auquel est associée une variable d'animation non temporelle, représentative d'un état d'au moins un objet de ladite scène, d'au moins un élément dudit terminal et/ou d'un état d'un réseau de communication associé ; détermination d'une valeur de ladite variable d'animation ; modification dudit paramètre à animer, en fonction de la valeur de ladite variable d'animation, de façon que la restitution dudit objet soit modifiée en fonction d'une évolution de ladite variable d'animation. L'invention concerne également un produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutable par un processeur comprenant des instructions de code de programme pour la mise en œuvre du procédé de restitution d'une scène multimédia comprenant au moins un objet animé tel que décrit précédemment. Enfin, l'invention concerne un terminal de radiocommunication mobile comprenant au moins des moyens de restitution d'au moins une scène multimédia comprenant au moins une animation d'un objet, caractérisé en ce qu'il comprend les moyens suivants : des moyens de mise en œuvre d'au moins un objet de ladite scène, comprenant au moins un paramètre à animer dudit objet, susceptible d'être modifié au cours du temps, auquel est associée une variable d'animation non temporelle, représentative d'un état d'au moins un objet de ladite scène, d'au moins un élément dudit terminal et/ou d'un état d'un réseau de communication associé ; - des moyens de détermination d'une valeur de ladite variable d'animation ; des moyens de modification dudit paramètre à animer, en fonction de la valeur de ladite variable d'animation, de façon que la restitution dudit objet soit modifiée en fonction d'une évolution de ladite variable d'animation. Ces objectifs, ainsi que d'autres qui apparaîtront plus clairement par la suite, sont atteints à l'aide d'un procédé d'animation d'au moins un objet multimédia d'une scène multimédia, au moins un paramètre d'animation du ou desdits objets multimédia étant modifié au cours du temps, lorsque ladite scène est jouée sur un terminal de radiocommunication mobile, en fonction d'une chronologie prédéterminée. Selon un tel procédé, ladite chronologie définit avantageusement d'une part une série d'au moins un instant de modification d'au moins un desdits paramètres d'animation, et d'autre part un type de définition d'instants, parmi lesquels au moins : - un premier type de définition selon une base temporelle, dite définition temporelle, associant à chaque instant de modification une valeur temporelle définie par une horloge ;
- un deuxième type de définition selon une base d'états, dite définition déterministe, associant à chaque instant au moins une information non temporelle représentative d'au moins un paramètre d'au moins un objet de ladite scène et/ou d'au moins un événement associé à au moins un objet de ladite scène, et/ou d'au moins un état d'un élément matériel dudit terminal.
Ainsi, le procédé selon l'invention consiste à modifier le déroulement des animations d'une scène graphique ou multimédia selon certains paramètres d'évolution variable d'un objet et/ou d'un événement associé à, ou ciblant cet objet dans une scène graphique.
A titre d'exemple illustratif et non limitatif, lorsque dans une scène multimédia, des événements du type « progressEvent » sont attachés à des objets d'une scène multimédia pour favoriser le suivi de l'évolution de ces derniers, une fraction contenue dans l'exécution de tels événements peut alors être directement reçue par le terminal récepteur jouant la scène multimédia.
Ainsi, lorsque une animation de la scène multimédia est jouée sur le terminal, l'animation utilise la fraction reçue comme un facteur d'interpolation. Par ailleurs, les scènes multimédia du type RichMedia, par exemple, définissent une pluralité d'animations dont le comportement est lié à l'évolution de la scène dans le temps. En effet, à chaque étape de rendu d'une animation sur le terminal, cette dernière effectue un ensemble de calculs de détermination du repère ou de la clé correspondant au temps courant considéré. Le procédé d'animation selon l'invention permet ainsi de surcharger le calcul de l'écoulement du temps pour chaque animation d'une scène graphique ou multimédia.
Chaque animation d'une scène multimédia ne va donc plus nécessairement se référer à l'horloge courante de la scène, mais pourra désormais se référer à n'importe quelle autre source de données ou à n'importe quels autres éléments non déterministes, mais mesurables, permettant de définir un nouveau référentiel d'animation pas forcément temporel.
Dans un premier mode de réalisation avantageux de l'invention, ladite chronologie comprend un indicateur de type de définition, prenant par défaut ledit premier type.
Dans un mode de réalisation préféré de l'invention, la ou lesdites informations non temporelles sont représentatives de l'évolution d'une opération ou d'un état d'au moins un élément dudit terminal.
Ainsi, le procédé selon l'invention permet avantageusement d'enrichir les possibilités des scénarios des contenus de scène multimédia, par exemple mais non exclusivement des scènes du type RichMedia destinées à êtres restituées sur des terminaux mobiles de radiocommunication comprenant des fonctionnalités d'affichage et de restitutions de telles scènes, en leur permettant de s'adapter de façon dynamique et autonome à des paramètres extérieurs une scène. Préférentiellement, ledit élément dudit terminal est du type appartenant au groupe comprenant :
- un élément matériel ;
- un élément électromagnétique ;
- un élément chimique ; - un élément logiciel.
Ainsi, de façon avantageuse, le procédé d'animation selon l'invention permet par exemple à un auteur de scènes multimédia ou graphique :
- d'animer des objets graphiques ou multimédia en fonction de l'écoulement d'une vidéo et/ou de l'état de remplissage des mémoires tampon (ou buffers) associées au lecteur vidéo ; - d'animer des objets graphiques ou multimédia suivant l'état du terminal restituant la scène multimédia ou graphique : niveau de charge de la batterie, niveau de qualité de la réception réseau par le terminal, etc. - d'animer des objets graphiques ou multimédia suivant l'état du logiciel permettant la restitution de la scène sur un terminal : volume mémoire encore disponible, quantité d'informations réseau chargée par un terminal mobile de radiocommunication, etc.
- d'animer des objets à état logique suivant les propriétés de la plateforme de restitution, par exemple un terminal mobile de radiocommunication, de façon à pouvoir définir un paramétrage d'accès à certains contenus suivant la langue utilisée par le terminal, ou bien encore un paramétrage d'affichage (sélection de couleurs, re- dimensionnement de la taille de l'écran pour la restitution d'une scène multimédia, etc.).
Ainsi, l'invention permet avantageusement de pouvoir animer des éléments graphiques et/ou multimédia, indépendamment les uns des autres, suivant une ou plusieurs mesures effectuées sur le terminal ou sur tout autre élément logiciel et/ou matériel équipant et/ou étant relié électriquement et/ou par un lien de communication filaire et/ou sans fil avec ledit terminal sur lequel est restitué une scène multimédia.
De façon avantageuse, ladite opération ou ledit état appartient au groupe comprenant :
- le chargement ou la transmission d'un fichier ; - la restitution d'une séquence audio et/ou vidéo ;
- l'espace disponible dans une mémoire ;
- le niveau de charge d'une batterie ;
- le temps de charge d'une batterie ;
- le volume sonore de restitution des sons ; - le pourcentage d'utilisation d'au moins un microprocesseur ; - le niveau de qualité de la réception 3 G/ GSM ;
- une fraction formant facteur d'interpolation ;
- un événement associé à un objet de ladite scène et contenant une fraction formant facteur d'interpolation de l'animation dudit objet. Ainsi, dès lors qu'un fichier de description d'une scène multimédia, par exemple au format RichMedia, définit une animation ou un objet pouvant être animé dans la scène, il est désormais possible au moyen du procédé d'animation selon l'invention, d'affecter individuellement le comportement de l'animation ou de l'objet animé. Il suffira uniquement d'indiquer dans le fichier de description de la scène, relativement à l'animation ou à l'objet animé considéré, quelle opération ou quel état précité devra être pris en compte pour définir/ calculer le référentiel temporel et/ou d'interpolation de l'animation, indépendamment du mode de calcul de ce(s) dernier(s).
Dans un mode de réalisation préféré de l'invention, ladite chronologie tient compte d'un rapport entre au moins un premier paramètre T assimilable à un temps prédéfini et au moins un deuxième paramètre D assimilable à une durée prédéfinie.
Par exemple, les scènes multimédia prenant la forme de contenus au format RichMedia destinés à être restitués sur un terminal mobile, contiennent la définition d'animation pouvant affecter les propriétés logiques ou graphiques des éléments/objets constitutifs de cette scène.
Une animation modifie les propriétés cibles (paramètres d'animation) de manière discrète et interpolée, suivant un schéma temporel prédéfini.
Ce schéma temporel définit la date ou bien l'événement de démarrage de l'animation. Il définit une suite d'intervalles de temps associés chacun à une valeur de propriété de la cible.
A chaque rendu de la scène RichMedia, l'animation s'appuie sur le temps courant de la scène noté Tc, sur sa date de démarrage Td et sur sa durée totale A pour calculer le facteur d'interpolation F et ainsi pouvoir positionner dans la cible, la propriété correspondante de ce facteur, F s 'écrivant alors : F=(Tc-Td)/A. Grâce au procédé d'animation selon l'invention, il suffit désormais d'indiquer à une animation, ou à un objet pouvant être animé, quelle source de paramètres assimilable à une base de temps prendre en compte, sous contrainte que cette source puisse fournir au moins un paramètre noté T assimilable à un temps et au moins un paramètre noté D assimilable à une durée. La source peut aussi fournir directement une fraction entre 0 et 1 ou un pourcentage, ce qui correspond à fournir le facteur d'interpolation directement.
Quand les paramètres T et D sont fournis par la source, par exemple une opération ou un état précité, le facteur d'interpolation de l'animation au moment de la mesure de restitution de cette dernière prendra la forme F=IYD, ce qui provoque la modification du référentiel temps, par rapport à celui d'origine de la scène multimédia contenant l'animation.
Ainsi, le procédé d'animation selon l'invention comprend une étape de rendu de ladite scène multimédia sur ledit terminal de radiocommunication mobile, comprenant une étape de calcul d'un facteur F d'interpolation de ladite animation tenant compte de ladite chronologie et/ou dudit rapport.
A titre d'exemple illustratif et non limitatif, pour appliquer le procédé d'animation selon l'invention, il est nécessaire de définir pour le format RichMedia un ensemble d'attributs « customisés » d'animation pour des animations ou des objets pouvant être animés.
On présente ci-dessous un exemple possible de tels attributs pour l'implémentation du procédé selon l'invention.
Si un format d'animation du type RichMedia définit une animation de la forme : <animation target=TARGET attribute=ATTRIBUTE id=ID repeat=REPEAT start=START end=END compute=COMPUTE>
<animationkey frame="0%" value= ATTRIBUTEO>
<animationkey frame="20%" value= ATTRIBUTE20>
<animationkey frame="70%" value= ATTRIBUTE70> <animationkey frame="100%" value= ATTRIBUTE 100> </animation>
L'auteur de la scène multimédia ou graphique au format RichMedia pourra alors affecter individuellement le comportement de l'animation en lui indiquant la nouvelle source à prendre en compte pour les calculs des paramètres d'interpolation, de façon indépendante du mode de calcul de ce dernier, de la façon suivante :
<update target =id>
<Attribute attribute=timeline provider=PROVIDERFNC/> </update> où :
PROVIDERFCN est l'adresse d'un fournisseur de paramètres (par exemple du terminal, ou d'un composant relié audit terminal, électriquement et/ou par un lien de communication filaire ou sans fil) permettant le calcul d'interpolation, par exemple : - device ::batterylevel() pour la prise en compte du niveau instantané de chargement de la batterie du terminal sur lequel est resituée une scène multimédia ;
- média ::bufferlevel() pour la prise en compte de l'état (espace occupé) de la mémoire tampon de lecture d'un média (par exemple une vidéo s 'affichant sur le terminal) ;
- devive ::screenwidth() pour la prise en compte de la largeur d'écran ;
- RM : :memoryleft() pour la prise en compte de l'espace mémoire du terminal encore libre.
Ainsi, l'invention permet à l'auteur d'une scène multimédia de concevoir un scénario simple dans lequel il pourra prendre en compte comme référence pour le déroulement des animations contenus dans ladite scène, des éléments aussi variés que le temps d'écoulement d'une vidéo, l'état de chargement de la batterie du terminal ou du téléphone mobile sur lequel devra être restitué la scène, le volume sonore actuel du terminal ou du téléphone mobile, l'espace mémoire disponible pour le logiciel, ou encore la taille de l'écran d'affichage du terminal sur lequel sera restitué la scène, ceci sans besoin de considérer à l'avance le type possible des terminaux sur lesquels pourront être restituées les scènes multimédia ou graphiques.
L'invention concerne également un produit programme d'ordinateur comprenant des instructions de code de pour l'exécution des étapes du procédé d'animation d'au moins un objet multimédia d'une scène multimédia, au moins un paramètre d'animation du ou desdits objets multimédia étant modifié au cours du temps, lorsque ladite scène est jouée sur un terminal de radiocommunication mobile, en fonction d'une chronologie prédéterminée, tel que précité, lorsqu'elles sont exécutée sur un ordinateur.
L'invention concerne encore un signal d'animation d'au moins un objet multimédia d'une scène multimédia porte avantageusement au moins un paramètre d'animation du ou desdits objets multimédia destiné à être modifié au cours du temps, lorsque ladite scène est jouée sur un terminal de radiocommunication mobile, ledit au moins un paramètre tenant compte d'une chronologie prédéterminée, ladite chronologie étant définie d'une part une série d'au moins un instant de modification d'au moins un desdits paramètres d'animation, et d'autre part un type de définition d'instants, parmi lesquels au moins : - un premier type de définition selon une base temporelle, dite définition temporelle, associant à chaque instant de modification une valeur temporelle définie par une horloge ;
- un deuxième type de définition selon une base d'états, dite définition déterministe, associant à chaque instant au moins une information non temporelle représentative d'au moins un paramètre d'au moins un objet de ladite scène et/ou d'au moins un événement associé à au moins un objet de ladite scène, et/ou d'au moins un état d'un élément matériel dudit terminal.
L'invention concerne aussi un terminal multimédia de radiocommunication mobile comprend au moins un interface de restitution de scènes multimédia composées respectivement d'au moins un objet multimédia pouvant être animé selon au moins un paramètre d'animation modifiable au cours du temps en fonction d'une chronologie prédéterminée, lorsque une desdites scènes est jouée sur ledit terminal, ladite chronologie définit d'une part une série d'au moins un instant de modification d'au moins un desdits paramètres d'animation, et d'autre part un type de définition d'instants, parmi lesquels au moins :
- un premier type de définition selon une base temporelle, dite définition temporelle, associant à chaque instant de modification une valeur temporelle définie par une horloge ;
- un deuxième type de définition selon une base d'états, dite définition déterministe, associant à chaque instant au moins une information non temporelle représentative d'au moins un paramètre d'au moins un objet de ladite scène et/ou d'au moins un événement associé à au moins un objet de ladite scène, et/ou d'au moins un état d'un élément matériel dudit terminal.
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation préférentiel de l'invention, donnée à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels :
- la figure 1 présente l'organigramme des grandes étapes du procédé d'animation selon l'invention. la figure 2 illustre un exemple de surcharge des paramètres de calcul d'une animation, à partir du niveau de charge de la batterie d'un terminal mobile.
- la figure 3 illustre un deuxième exemple de mise en œuvre du procédé selon l'invention selon lequel on représente l'écoulement d'une vidéo en lecture au moyen d'un curseur mobile. la figure 4 présente une variante de l'exemple de la figure 3, selon laquelle on renvoie l'affichage du temps courant d'une vidéo ; les figures 5 et 6 présentent respectivement les principales étapes du procédé de création et du procédé de restitution selon un mode de réalisation particulier de l'invention ;
On présente ci-dessous, en relation avec la figure 5, les principales étapes du procédé de création d'une scène multimédia selon un mode de réalisation de l'invention. La première étape 51 de définition d'un paramètre à animer consiste à définir au moins un paramètre à animer d'un objet de la scène multimédia, paramètre étant susceptible d'être modifié au cours du temps.
La modification de ce paramètre à modifier dépend d'une variable d'animation non temporelle préalablement définie, que l'on associe, lors de l'étape 52 d'association, au paramètre à animer considéré.
Ensuite, l'étape 53 de paramétrage de la modification du paramètre à animer permet de définir sur quoi se base l'animation de l'objet, c'est-à-dire quelles évolutions de la variable d'animation non temporelle permettent d'animer l'objet, à travers le paramètre d'animation défini lors de l'étape 51. Lors de la restitution de la scène multimédia créée préalablement selon les principales étapes du procédé de création décrites ci-dessus, les étapes suivantes, illustrées en figure 6, sont mises en œuvre : une étape 61 de mise en œuvre d'un objet, comprenant au moins un paramètre à animer, auquel a été associée, lors de l'étape 52 décrite ci-dessus, une variable d'animation non temporelle ; une étape 62 de détermination d'une valeur de cette variable d'animation non temporelle, par exemple une mesure d'un état d'un objet de la scène, ou d'un élément du terminal ou du réseau de communication associé à la restitution de la scène ; une étape 63 de modification du paramètre à animer, de façon à animer l'objet en fonction de la valeur déterminée dans l'étape précédente de la variable.
On décrit de façon détaillée et relativement aux figures 1 et 2, un mode de réalisation détaillé du procédé d'animation selon l'invention.
Comme illustré sur la figure 2, on cherche à afficher dans une zone 24 de l'écran 23 d'un terminal 22 mobile, non plus un pourcentage 20 de chargement de la batterie 21, mais un texte de « 0 » à « 10 » représentatif de cette puissance.
Dans une première étape 10, il s'agit de définir dans le contenu ou la scène graphique ou multimédia, par exemple au format RichMedia, la représentation graphique que l'on cherche à obtenir à l'écran du terminal 22.
Cela s'effectue directement à l'intérieur du fichier de description, de la façon suivante :
<text string="" def="bat" position=pos/> où : text string est la définition de l'objet texte d'affichage ; def= « bat » définit le nom de la zone d'affichage de texte ; - position=pos définit la position de la zone de texte à l'écran. Dans une deuxième étape 11, il s'agit de définir dans le fichier de description du contenu ou de la scène au format RichMedia, quelle animation de la représentation graphique on souhaite obtenir.
Dans le présent exemple, cette définition peut prendre la forme suivante : <animation target="bat" def="batanim "attribute=string start=O compute=discrete duration=100> <animationkey frame="0%" value= "0">
<animationkey frame="10%" value= "1"> <animationkey frame="20%" value= "2"> <animationkey frame="30%" value= "3"> <animationkey frame="40%" value= "4"> <animationkey frame="50%" value= "5"> <animationkey frame="60%" value= "6"> <animationkey frame="70%" value= "7"> <animationkey frame="80%" value= "8"> <animationkey frame="90%" value= "9"> <animationkey frame=" 100%" value= " 10">
</animation> où les paramètres de l'animation sont les suivants :
- target= "bat" : définit la cible comme étant la zone de texte d'affichage « bat » ; — def= "batanim "attribute=string start=O compute=discrete duration=100 : définit une animation dénommée « batanim », ayant un attribut du type chaîne de caractère, initialisée à une valeur de début d'affichage « 0 », d'exécution s'appuyant sur un paramètre discret. Puis, dans une troisième étape 12, on définit dans le fichier de description quel sera le lien dans le contenu multimédia (ou scène) entre la mesure du chargement de la batterie et le calcul de l'interpolation pour l'affichage dans la zone de texte « bat » définie ci-dessus. Ceci s'effectue de la manière suivante : <update target="batanim">
<attribute attribute="timeline" value="device::battery"/> </update> où:
- target= "batanim " : définit la cible de l'animation selon la valeur d'interpolation préalablement déterminée ;
- attribute= "timeline" value= "device::battery : définit l'attribut de chronologie (valeur d'interpolation), lequel est ici déterminé à partir de la valeur 20 de charge de la batterie 21 du terminal mobile. Une fois la valeur d'interpolation calculée, celle-ci est prise en charge dans une dernière étape 13, par le dispositif de lecture de l'animation, telle qu'elle a été définie dans le fichier de description de la scène multimédia. Lorsque cette étape de prise en charge est effectuée, la lecture standard du contenu RichMedia est alors initié, l'animation calculant une valeur interpolée à partir de son attribut « timeline » qui vaut « device::battery ».
L'animation est alors apte à demander au dispositif de lecture (le terminal mobile 22) la résolution de la fonction de mesure « device::battery », de façon que l'implantation du lecteur utilise sur ce mot la fonction locale du matériel pour effectuer la mesure, selon le pseudo code d'animation suivant : if (« time » != timeline) paramsAnimCourant = lecteur Mesure(timeline); (premier type de définition d'instant de chronologie selon l'invention)
On présente ci-dessous le pseudo code lecteur correspondant pour le deuxième type de définition d'instant de chronologie selon l'invention : lecteur_Mesure(timeline) ; if (« device::battery » == timeline) return (SpecDevice_MeasureBatteryLevel(), SpecDevice_MAXBatteryLevel())
Le système local est activé pour mesurer la valeur courante de la puissance et la valeur maximale.
L'animation calcule sa clé courante d'interpolation avec ces paramètres l'affichage du texte interpolé (de « 0 » à « 10 ») est affiché sur l'écran 23, dans la zone 24.
On présente désormais en relation avec les figures 1, 3 et 4, un deuxième exemple de mise en œuvre du procédé selon l'invention dans lequel on représente l'écoulement d'une vidéo 30 en lecture au moyen d'un curseur (31, 32, 33) mobile.
Dans une première étape 10, on définit dans le fichier de description du contenu ou de la scène graphique ou multimédia, par exemple au format RichMedia, la représentation graphique que l'on cherche à obtenir à l'écran du terminal 34.
Cela s'effectue directement à l'intérieur du fichier de description, de la façon suivante : <shape shape=... def="vidc" position=0/>
<video url=... def="vidl" />
Dans une deuxième étape 11, on définit dans ce même fichier de description l'animation associée à la représentation graphique :
<animation target="vidc" def="vidanim "attribute=pos start=O compute=linear duration=100>
<animationkey frame="0%" value= "0"> <animationkey frame="100%" value= "200"> </animation>
Dans une troisième étape 12, on définit ensuite dans le contenu du lien entre mesure de la vidéo 30 et calcul de l'interpolation :
<update target="vidanim">
<attribute attribute="timeline" value="videotime::vidl"/> </update>
Une fois la valeur d'interpolation calculée, celle-ci est prise en charge dans une dernière étape 13, par le dispositif de lecture de l'animation, telle qu'elle a été définie dans le fichier de description de la scène multimédia. Cette prise en charge en :
- la lecture standard du contenu RichMedia ;
- lorsque l'animation calcule une valeur interpolée, son attribut timeline vaut "videotime::vidl".
- l'animation demande au dispositif de lecture du terminal mobile la résolution de la fonction de mesure "videotime::vidl".
Dans cet exemple le pseudo code d'animation vaut : if (« time » != timeline) paramAnimCourant = lecteur Mesure(timeline); (premier type de définition d'instant de chronologie selon l'invention)
On présente ci-dessous le pseudo code lecteur correspondant pour le deuxième type de définition d'instant de chronologie selon l'invention : lecteur_Mesure(timeline) ; if (« videotime:: » == timeline.start()) return (Media_getVideoTime(timeline.after(« :: »)),
Media_getVideoDuration(timeline.after(« :: »)));... Le gestionnaire des médias renvoie alors le temps courant 40 du clip vidéo 40 et la durée si elle est disponible.
L'animation calcule sa clé courante d'interpolation avec ces paramètres. Si la durée est absente, elle la considère comme infinie (le curseur 31, 32, 33 boucle).
Dans l'exemple de la figure 4, on représente l'écoulement d'une vidéo par une représentation textuelle du temps courant (limité dans cet exemple à seconde et dizaine de secondes). Cela s'effectue de la façon suivante :
Etape 10 : Définition dans le contenu RichMedia de la représentation graphique :
<text string="" def="vsecondes" position=pos/> <text string="" def="vdixsecondes" position=pos/>
Etape 11 : Définition dans le contenu RichMedia de l'animation de la représentation graphique :
<animation target="vsec" def="vsecondes "attribute=string start=O repeat=true compute=discrete duration="10s"> <animationkey frame="0%" value= "0">
<animationkey frame="10%" value= "1"> <animationkey frame="20%" value= "2"> <animationkey frame="30%" value= "3"> <animationkey frame="40%" value= "4"> <animationkey frame="50%" value= "5"> <animationkey frame="60%" value= "6"> <animationkey frame="70%" value= "7"> <animationkey frame="80%" value= "8"> <animationkey frame="90%" value= "9"> <animationkey frame=" 100%" value= "0">
</animation>
<animation target="vdixsec" def="vdixsecondes "attribute=string start=0 repeat=true compute=discrete duration="60s"> <animationkey frame="0%" value= "0"> <animationkey frame="10%" value= "1">
<animationkey frame="20%" value= "2"> <animationkey frame="30%" value= "3"> <animationkey frame="40%" value= "4"> <animationkey frame="50%" value= "5"> <animationkey frame="60%" value= "6">
<animationkey frame="70%" value= "7"> <animationkey frame="80%" value= "8"> <animationkey frame="90%" value= "9"> <animationkey frame="100%" value= "0"> </animation>
Etape 12 : Définition dans le contenu du lien entre mesure de la vidéo et calcul de l'interpolation <update target="vsec">
<attribute attribute="timeline" value="videotimeabs::vidl"/> </update>
<update target="vdixsec">
<attribute attribute="timeline" value="videotimeabs::vidl"/>
</update>
Etape 13 : Prise en charge par le dispositif de lecture : - lecture standard du contenu RichMedia. Lorsque l'animation calcule une valeur interpolée, son attribut « timeline » vaut "videotimeabs::vidl" ;
- l'animation demande au dispositif de lecture la résolution de la fonction de mesure "videotimeabs::vidl".
Le pseudo code d'animation s'écrit alors : if (« time » != timeline) paramAnimCourant = lecteur Mesure(timeline);
et le pseudo code lecteur correspondant s'écrit : lecteur_Mesure(timeline) ; if (« videotimeabs:: » == timeline. start()) return
Media_getVideoTime(timeline.after(« :: »)), 1000);
Le gestionnaire des médias renvoie le temps courant du clip vidéo et la valeur 1000 (la référence de temps interne étant par exemple la milliseconde).
L'animation calcule sa clé courante d'interpolation avec ces paramètres. L'animation boucle d'après ses spécifications (« repeat » en anglais), i.e. un modulo %100 est effectue. Ceci permet d'avoir un compteur infini et non dépendant de la durée éventuelle de la vidéo.
On notera que les animations définies dans la scène du présent exemple
(figure 4) ne gèrent que les secondes et les dizaines de secondes. Il est bien entendu possible de définir et d'afficher les minutes, les dizaines de minute, etc .. C'est uniquement dépendant de la durée de l'animation définie au moyen du paramètre « duration ».

Claims

REVENDICATIONS
1. Procédé de création d'une scène multimédia comprenant au moins une animation d'un objet, destinée à être restituée sur au moins un terminal de radiocommunication, caractérisé en ce qu'au moins une des dites animations est associée à une variable d'animation non temporelle, représentative d'un état d'au moins un objet de ladite scène, d'au moins un élément dudit terminal et/ou d'un état d'un réseau de communication associé, ladite variable assurant une fonction de base de temps pour ladite animation.
2. Procédé selon la revendication 1, caractérisé en ce qu'il comprend les étapes suivantes : définition d'au moins un paramètre à animer dudit objet, susceptible d'être modifié au cours du temps ; association audit paramètre à animer de ladite variable d'animation non temporelle; paramétrage d'au moins une modification dudit paramètre à animer, de façon que la restitution dudit objet soit modifiée en fonction d'une évolution de ladite variable d'animation.
3. Procédé selon l'une quelconque des revendications 1 et 2, caractérisé en ce que ladite variable d'animation non temporelle est représentative d'une des variables appartenant au groupe comprenant :
- le chargement ou la transmission d'un fichier ;
- la restitution d'une séquence audio et/ou vidéo ;
- l'espace disponible dans une mémoire ; - le niveau de charge d'une batterie ;
- le temps de charge d'une batterie ;
- le volume sonore de restitution des sons ;
- le pourcentage d'utilisation d'au moins un microprocesseur ;
- le niveau de qualité de la réception 3G/ GSM ; - une fraction formant facteur d'interpolation.
4. Procédé selon la revendication 3, caractérisé en ce ladite fraction est contenue dans un événement associé à ladite animation ou reçu par ladite animation.
5. Procédé selon l'une quelconque des revendications 3 et 4, caractérisé en ce que ladite étape de paramétrage comprend une étape de calcul de ladite fraction, correspondant à un rapport entre au moins un premier paramètre T assimilable à un temps prédéfini, représentatif d'un temps écoulé, et un deuxième paramètre D assimilable à une durée prédéfinie, représentative d'une durée totale de l'animation, lesdits paramètres étant fournis par ladite variable d'animation non temporelle.
6. Procédé selon l'une quelconque des revendications 3 à 5, caractérisé en ce que ladite étape de calcul comprend une étape de détermination de la source d'obtention desdits paramètres, en fonction d'un attribut de ladite animation.
7. Signal d'animation d'au moins un objet multimédia d'une scène multimédia, destinée à être restituée sur au moins un terminal de radiocommunication, caractérisé en ce qu'il porte au moins un paramètre à animer dudit objet, susceptible d'être modifié au cours du temps, auquel est associée une variable d'animation non temporelle, représentative d'un état d'au moins un objet de ladite scène, d'au moins un élément dudit terminal et/ou d'un état d'un réseau de communication associé, ladite variable assurant une fonction de base de temps pour l'animation dudit objet.
8. Procédé de restitution d'une scène multimédia comprenant au moins une animation d'un objet, sur un terminal de radiocommunication, caractérisé en ce qu'il comprend les étapes suivantes : - mise en œuvre d'au moins un objet de ladite scène, comprenant au moins un paramètre à animer dudit objet, susceptible d'être modifié au cours du temps, auquel est associée une variable d'animation non temporelle, représentative d'un état d'au moins un objet de ladite scène, d'au moins un élément dudit terminal et/ou d'un état d'un réseau de communication associé ; détermination d'une valeur de ladite variable d'animation ; modification dudit paramètre à animer, en fonction de la valeur de ladite variable d'animation, de façon que la restitution dudit objet soit modifiée en fonction d'une évolution de ladite variable d'animation.
9. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce que ledit élément dudit terminal est du type appartenant au groupe comprenant :
- un élément matériel ;
- un élément électromagnétique ;
- un élément chimique ; - un élément logiciel.
10. Produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutable par un processeur, caractérisé en ce qu'il comprend des instructions de code de programme pour la mise en œuvre du procédé de restitution d'une scène multimédia comprenant au moins un objet animé, selon la revendication 8.
11. Terminal de radiocommunication mobile comprenant au moins des moyens de restitution d'au moins une scène multimédia comprenant au moins une animation d'un objet, caractérisé en ce qu'il comprend les moyens suivants : - des moyens de mise en œuvre d'au moins un objet de ladite scène, comprenant au moins un paramètre à animer dudit objet, susceptible d'être modifié au cours du temps, auquel est associée une variable d'animation non temporelle, représentative d'un état d'au moins un objet de ladite scène, d'au moins un élément dudit terminal et/ou d'un état d'un réseau de communication associé ; des moyens de détermination d'une valeur de ladite variable d'animation ; des moyens de modification dudit paramètre à animer, en fonction de la valeur de ladite variable d'animation, de façon que la restitution dudit objet soit modifiée en fonction d'une évolution de ladite variable d'animation.
PCT/EP2007/052941 2006-03-28 2007-03-27 Procédé de calcul des paramètres d'animation des objets d'une scène multimédia. WO2007110432A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN200780011240XA CN101484921B (zh) 2006-03-28 2007-03-27 用于计算多媒体场景的对象的动画参数的方法
US12/294,732 US8373705B2 (en) 2006-03-28 2007-03-27 Method for computing animation parameters of objects of a multimedia scene
EP07727414A EP2002401A1 (fr) 2006-03-28 2007-03-27 Procédé de calcul des paramètres d'animation des objets d'une scène multimédia.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0602704A FR2899364B1 (fr) 2006-03-28 2006-03-28 Procede de calcul des parametres d'animation des objets d'une scene mulitmedia.
FR06/02704 2006-03-28

Publications (1)

Publication Number Publication Date
WO2007110432A1 true WO2007110432A1 (fr) 2007-10-04

Family

ID=37496713

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2007/052941 WO2007110432A1 (fr) 2006-03-28 2007-03-27 Procédé de calcul des paramètres d'animation des objets d'une scène multimédia.

Country Status (5)

Country Link
US (1) US8373705B2 (fr)
EP (1) EP2002401A1 (fr)
CN (1) CN101484921B (fr)
FR (1) FR2899364B1 (fr)
WO (1) WO2007110432A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100083336A1 (en) * 2008-09-29 2010-04-01 Samsung Electronics Co., Ltd. Method and apparatus for providing rich media service
CN113041615A (zh) * 2019-12-27 2021-06-29 阿里巴巴集团控股有限公司 场景呈现方法、装置、客户端、服务器、设备及存储介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866822B2 (en) * 2010-09-07 2014-10-21 Microsoft Corporation Alternate source for controlling an animation
US20130132840A1 (en) * 2011-02-28 2013-05-23 Joaquin Cruz Blas, JR. Declarative Animation Timelines
CN105007532B (zh) * 2015-06-30 2018-11-30 艾迪普(北京)文化科技股份有限公司 一种动画播放的方法和设备
CN110136230B (zh) * 2019-03-29 2023-09-05 北京达佳互联信息技术有限公司 动画显示方法、装置、电子设备及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5455902A (en) * 1990-12-21 1995-10-03 Eastman Kodak Company Method and apparatus for performing real-time computer animation
DE4416733A1 (de) * 1994-05-13 1995-11-16 Zeiss Karl Reinhard Dipl Ing Verfahren zur Herstellung von Trickfilmen
US6584479B2 (en) * 1998-06-17 2003-06-24 Xerox Corporation Overlay presentation of textual and graphical annotations
US6535215B1 (en) * 1999-08-06 2003-03-18 Vcom3D, Incorporated Method for animating 3-D computer generated characters
AU2001290326A1 (en) * 2000-10-02 2002-04-15 Sharp Kabushiki Kaisha Device, system, method, and program for reproducing or transferring animation
CN1481185A (zh) * 2002-09-06 2004-03-10 �����ɷ� 可显示定制动画的手机及相关方法
US20040075700A1 (en) * 2002-10-16 2004-04-22 Catherine Liu Functional idle mode display
US20040225966A1 (en) * 2003-05-09 2004-11-11 Motorola, Inc. Method and device for automatically displaying appointments
KR100762629B1 (ko) * 2003-08-26 2007-10-01 삼성전자주식회사 휴대단말기의 백업서비스 처리방법
JP2007536634A (ja) * 2004-05-04 2007-12-13 フィッシャー−ローズマウント・システムズ・インコーポレーテッド プロセス制御システムのためのサービス指向型アーキテクチャ
CN1710613A (zh) * 2004-06-16 2005-12-21 甲尚股份有限公司 自动产生动画的系统与方法
US7477254B2 (en) * 2005-07-13 2009-01-13 Microsoft Corporation Smooth transitions between animations
KR20070088090A (ko) * 2006-02-24 2007-08-29 삼성전자주식회사 표시 애니메이션을 이용하여 이동통신 단말기의 상태정보를 표시하기 위한 장치 및 방법

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Scalable Vector Graphics (SVG 1.1 Specification, Chapter 19", INTERNET CITATION, 14 January 2003 (2003-01-14), pages 1 - 29, XP002343954, Retrieved from the Internet <URL:http://www.w3.org/TR/SVG/animate.html#animation-mod> [retrieved on 20050905] *
ANONYMOUS: "Review GSM phone Nokia 6111", 17 February 2006 (2006-02-17), XP002417343, Retrieved from the Internet <URL:http://www.mobile-review.com/review/nokia-6111-en.shtml> [retrieved on 20061212] *
ANONYMOUS: "World Wide Web Consortium gibt Scalable Vector Graphics (SVG) 1.1 und Mobile SVG als W3C Recommendation frei", 14 January 2003 (2003-01-14), pages 1 - 3, XP002417344, Retrieved from the Internet <URL:http://www.w3c.de/Press/svg11rec-pressrelease.html> [retrieved on 20070115] *
MOSMONDOR ET AL, THE THIRD INTERNATIONAL CONFERENCE ON MOBILE SYSTEMS, APPLICATIONS AND SERVICES, 31 December 2005 (2005-12-31), MobiSys 2005, pages 15 - 22, XP002417345 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100083336A1 (en) * 2008-09-29 2010-04-01 Samsung Electronics Co., Ltd. Method and apparatus for providing rich media service
CN113041615A (zh) * 2019-12-27 2021-06-29 阿里巴巴集团控股有限公司 场景呈现方法、装置、客户端、服务器、设备及存储介质

Also Published As

Publication number Publication date
US20100016026A1 (en) 2010-01-21
CN101484921A (zh) 2009-07-15
EP2002401A1 (fr) 2008-12-17
FR2899364B1 (fr) 2008-12-26
FR2899364A1 (fr) 2007-10-05
US8373705B2 (en) 2013-02-12
CN101484921B (zh) 2013-10-30

Similar Documents

Publication Publication Date Title
CA2793450C (fr) Qualite de lecture amelioree de contenu multimedia
US8310485B1 (en) Creating animation effects
US20120089933A1 (en) Content configuration for device platforms
EP2393022A2 (fr) Procédé de création d&#39;une séquence média par groupes cohérents de fichiers médias
WO2007110432A1 (fr) Procédé de calcul des paramètres d&#39;animation des objets d&#39;une scène multimédia.
WO2006085026A2 (fr) Systeme radio multimedia reveil informatique
WO2007051807A1 (fr) Procede de gestion de polices de caracteres a l&#39;interieur de scenes multimedia, programme d&#39;ordinateur et terminal correspondants
US8370288B2 (en) Summarizing a body of media by assembling selected summaries
US20170148088A1 (en) Providing electronic content in association with a request for physical content
WO2007051784A1 (fr) Procede d&#39;optimisation de rendu d&#39;une scene multimedia, programme, signal, support de donnees, terminal et procede de reception correspondants
FR2851389A1 (fr) Procede et dispositif de gestion de requetes dans une architecture du type client-serveur
EP3942838A1 (fr) Procédé de gestion de distribution de contenus multimédia et dispositif pour la mise en oeuvre du procédé
US20140289622A1 (en) Systems and Methods for Programmatically Interacting with a Media Player
US20130158690A1 (en) Systems and Methods for Dynamic Media Players Utilizing Media Traits
FR2866183A1 (fr) Procedes d&#39;emission et de reception d&#39;une animation, et dispositifs associes
EP3497674A1 (fr) Système de composition ou de modification de séquences de réalité virtuelle, procédé de composition et système de lecture desdites séquences
Percival HTML5 advertising
WO2007107534A1 (fr) Procédé, dispositif et système de gestion d&#39;informations structurées au sein d&#39;une scène graphique
EP2597886A1 (fr) Procédé de transmission de programmes de vidéo à la demande de type &#34; Push &#34; et décodeur associé
CN108008935B (zh) 媒体资源的处理方法和装置
Collier iAd Production Beginner's Guide
WO2005088928A1 (fr) Procede d’edition de pages multimedia aupres d’un terminal, avec pre-memorisation de parametres d’objets intervenant dans les scenes.
WO2009004254A2 (fr) Adaptation du format d&#39;une scene multimedia pour l&#39;affichage de cette scene sur un terminal
WO2013114031A1 (fr) Procede et systeme de mise a disposition d&#39;au moins un objet numerique sur un gestionnaire de bibliotheque numerique
FR3093605A1 (fr) Procédé de navigation accélérée dans un contenu numérique obtenu par téléchargement progressif adaptatif (HAS), gestionnaire, lecteur de flux multimédia et programme d’ordinateur correspondants.

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780011240.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07727414

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007727414

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12294732

Country of ref document: US