WO2006103209A1 - Procédé de construction de scènes multimédia comprenant au moins un objet pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants - Google Patents

Procédé de construction de scènes multimédia comprenant au moins un objet pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants Download PDF

Info

Publication number
WO2006103209A1
WO2006103209A1 PCT/EP2006/061061 EP2006061061W WO2006103209A1 WO 2006103209 A1 WO2006103209 A1 WO 2006103209A1 EP 2006061061 W EP2006061061 W EP 2006061061W WO 2006103209 A1 WO2006103209 A1 WO 2006103209A1
Authority
WO
WIPO (PCT)
Prior art keywords
pointer
terminal
multimedia
sensitive
scene
Prior art date
Application number
PCT/EP2006/061061
Other languages
English (en)
Inventor
Jean-Claude Dufourd
Original Assignee
Streamezzo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Streamezzo filed Critical Streamezzo
Priority to CA002601643A priority Critical patent/CA2601643A1/fr
Priority to EP06725330A priority patent/EP1864200A1/fr
Priority to US11/910,147 priority patent/US20080195959A1/en
Priority to JP2008503490A priority patent/JP2008535070A/ja
Priority to AU2006228603A priority patent/AU2006228603A1/en
Publication of WO2006103209A1 publication Critical patent/WO2006103209A1/fr
Priority to IL185905A priority patent/IL185905A0/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key

Definitions

  • a method of constructing multimedia scenes comprising at least one pointer object, scene rendering method, terminal, computer programs, server and corresponding pointer object.
  • the field of the invention is that of the creation and the reproduction of multimedia scenes, on all types of terminals, and in particular on terminals that do not have an operating system ("OS" or "OS") internally.
  • OS operating system
  • OS operating system
  • OS operating system
  • OS electronic organizers
  • the invention relates to the improvement of interactivity for such terminals, such as radio telephones, electronic organizers (PDAs), etc.
  • a multimedia scene within the meaning of this document, consists of objects each having various characteristics (sizes, colors, animation, content, etc.), according to known techniques, which have been the subject of standards such as, for example SVG ("Scalable Vector Graphics") or VRML ("Virtual Reality Modeling Language”).
  • SVG Scalable Vector Graphics
  • VRML Virtual Reality Modeling Language
  • Such scenes can be programmed by a developer, so as to allow interactivity with the user of a terminal on which it is played.
  • a particular command of the user can lead to a particular action (selection or moving an object, launching a video, etc.).
  • These actions, or operations can in particular correspond to "sensors", according to the terminology VRML or MPEG.
  • the user On microcomputers, in addition to the keyboard, the user has a mouse, or similar means, which allows him to move a pointer on the screen, and click to select an object or initiate an operation. This interface element is very ergonomic, and therefore very used.
  • radiotelephones incorporate a similar function, in the form of a stylus or other control device (such as a wheel or a "joystick"), this technique is far from being generalized on small and / or low cost devices.
  • a multimedia scene developer wishing to propose a scene that can be played on any type of terminal has only two solutions, which are neither satisfactory. According to a first solution, it develops the scene without using the human-machine interface associated with the management of a pointer. This will result in increased complexity of use and programming, and dissatisfaction of users of terminals with such an interface.
  • the invention particularly aims to overcome these various disadvantages.
  • an object of the invention is to provide a technique for constructing and rendering multimedia scenes making it possible to overcome the absence of management of a pointer-type interface in the operating system of a terminal. .
  • Another objective of the invention is to provide such a technique, which does not oblige a developer to develop several versions of the same scene, nor to implement a complex development.
  • the management of the pointer is not ensured, conventionally, by the operating system of the terminal, but by the multimedia scene itself. It is thus possible to have, in a simple and effective manner, the implementation of a pointer, and associated actions, even on a terminal not integrating this function into its operating system.
  • the management of the pointer is deported in the scene, which not only allows to have it in a terminal that did not have it originally, but also to develop only one optimized scene , for all terminals.
  • This approach is also particularly simple: it essentially consists in creating a new type of object, or more precisely a new object property, for the multimedia scenes.
  • said pointer property can be assigned to any type of object of said multimedia scene having a visual component.
  • said pointer property can be assigned only to an object of said multimedia scene of a type belonging to a predetermined selection of object types.
  • At least one of said displacement and / or selection actions is associated with key presses on the keyboard of said terminal.
  • said scene comprises at least one object, said sensitive object, intended to react with said pointer object, when they are at least partly superimposed.
  • said pointer object comprises a specific point of pointing, called focal point.
  • said focal point is the origin of a local coordinate system of said pointer object.
  • the invention provides at least one superposition step of said focal point and a point of one of said sensitive objects.
  • said superposition step is used for the detection of an input of said pointer on one of said sensitive objects and / or an output of said pointer with respect to one of said sensitive objects.
  • a selection action performed during a superposition advantageously results in the transmission of a validation event to the sensitive object concerned.
  • said displacements are carried out in blocks of N pixels, N being an integer less than the smallest dimension of one of said sensitive objects present in the scene.
  • said operations comprise events corresponding to predetermined action semantics.
  • the invention also relates to the signals carrying at least one multimedia scene produced according to the method described above, and intended to be restored on at least one terminal.
  • the invention further relates to computer programs comprising program instructions for the construction of such multimedia scenes.
  • this also relates to computer programs comprising program instructions for the execution of these multimedia scenes.
  • Such a program can be implemented on a terminal, for example in the form of a component to download ("plug-in" in English), which will complement software for playing multimedia scenes, already present on the terminal. It can also, of course, be an integral part of such software.
  • the invention also relates to multimedia terminals for the reproduction of such multimedia scenes, and the method of rendering corresponding multimedia scenes.
  • the invention relates to the servers containing at least one such multimedia scene, and the data carriers (disks, memories, etc.) carrying such scenes.
  • At least one action for selecting an object and / or launching a predetermined operation associated with an object at least one movement action of said pointer object, so as to simulate, on any terminal, the operation of a pointer, even if said terminal is not equipped with corresponding control means.
  • Such an object as a clearly identifiable essential constituent, is an intermediate component of a multimedia scene according to the invention, which presents in itself a new and inventive technical effect.
  • FIG. 1 shows an exemplary terminal, in this case a radio-telephone, reproducing a multimedia scene presenting a plan of a city and comprising a pointer object according to the invention
  • FIG. 2 is a simplified flowchart of a multimedia scene construction method according to the invention
  • FIG. 3 is a simplified flowchart of a method for restoring multimedia scenes according to the invention
  • FIG. 4 illustrates another example of multimedia scenes according to the invention, simultaneously implementing three pointer type objects.
  • FIG. 1 shows an exemplary terminal, in this case a radio-telephone, reproducing a multimedia scene presenting a plan of a city and comprising a pointer object according to the invention
  • FIG. 2 is a simplified flowchart of a multimedia scene construction method according to the invention
  • FIG. 3 is a simplified flowchart of a method for restoring multimedia scenes according to the invention
  • FIG. 4 illustrates another example of multimedia scenes according to the invention, simultaneously implementing three pointer type objects.
  • FIG. 1 shows an exemplary terminal, in
  • the terminal 1 shows a simple radio-telephone comprising a keyboard 11 and a screen 12, but no means of piloting a pointer (stylus, mouse, touch screen, etc.), and no software element, in its operating system, allowing the management of a pointer.
  • the terminal includes, of course, in its memory, a software for rendering multimedia scenes, for example in SVG format, integrating the management of the cursor property according to the invention.
  • a multimedia scene has been downloaded. It comprises a map of a city represented on a scale such that two restaurants R1, R2, three car parks Pl, P2, P3 and a post P are visible on the screen 12.
  • the map is thus composed of an image and 6 objects sensitive to a mouse-type interaction, or pointer, located on restaurants, car parks and post office.
  • a seven-sided polygonal object 13 represents an arrow whose tip is turned up and to the left. This "pointer" object can be moved across the screen.
  • the invention is based on the creation of this pointer object, the sensitive objects, and the corresponding management.
  • This attribute gives the arrow object 13 a virtual pointer behavior. It behaves like the hardware pointer available on the operator systems that supports it.
  • the arrow object 13 has a certain size, and for the selection operations to be precise, a point of the arrow object (in this case the tip of the arrow) is chosen as the focal point 131, that is to say say the point under the point of the arrow at the top left of the object. This point is the origin of the local coordinate system of the arrow object, that is, the coordinate point 0,0.
  • the "2" key triggers a action that moves the arrow object 131 five pixels (for example) upward.
  • the "6", "8” and “4" keys trigger an action that moves the arrow object 13 five pixels to the right, the bottom and the left, respectively.
  • the choice of a pitch of 5 pixels assumes that the sensitive objects are larger than 5 pixels, so that the movement of the virtual pointer does not jump one of the sensitive objects.
  • the displacements are preferably carried out in blocks of N pixels, N being an integer less than the smallest dimension of the sensitive objects present in the scene.
  • the multimedia player checks, with each movement of the arrow object, if the focal point of the virtual pointer fulfills one of the following conditions:
  • the focal point was not on a sensitive object before moving, and it is on a sensitive object after the move, in which case the reader generates an event input from the pointer and sends it to the pointed object;
  • the focal point was on a sensitive object before moving, and it is on a non-sensitive area after the move, in which case the reader generates a pointer output event and sends it to the object formerly pointed; the focal point was on a sensitive object A before the displacement, and is found on a sensitive object B after the displacement, in which case the reader generates a pointer output event and sends it to the object A, then generates an event entered
  • the invention also makes it possible to emulate a selection operation, or "click".
  • a key of the keyboard is associated by default by the reader with the validation, for example the key "5".
  • the reader checks whether the focal point of the virtual pointer is located on one of the sensitive objects. If so, the reader sends a validation event to the pointed object. For example, the restaurant menu Rl only appears if this validation event has been received. Other operations (telephone call for example) are of course possible, and are linked only to the programming by the author. If this is not the case, the reader sends the validation event to the default validation manager if the author has defined one.
  • validation events can of course be defined, and be associated with combinations of keys, different keys, multiple supports ("double click") and / or the execution of one or more previous operations.
  • FIG. 2 shows, in a simplified manner, a flowchart of the implementation of the construction method of the invention, by an author, or a developer.
  • the sequencing illustrated by this flowchart is purely indicative: the order of the steps can be changed, steps can be removed or added, and some will generally be implemented simultaneously.
  • the author first defines (21) a multimedia scene, and in particular a set of objects each having their properties.
  • the author can identify (24) one or more sensitive objects, and then associate (25) with them actions to be performed, depending on whether the pointer goes on, stays on and / or leaves the sensitive object.
  • These actions can be simple, complex and multiple. In particular, they may be events corresponding to higher level action semantics, such as "drag-and-drop” or VRML "sensors".
  • the passage of the pointer on a sensitive object may cause it to move (rotation of a world map for example), allow its movement (either linearly, in the form of a "drag-and-drop", or in any way (rotation, moving in depth ...)), or launching a particular operation (opening another scene, or a menu, launching or stopping a video, ).
  • the author also programs (26) the emulation of one or more "clicks", associated where appropriate with different objects, and a default command, when the pointer is not superimposed on a sensitive object.
  • the author can also program a management of the edges of the image 27, allowing the displacement of this image when the pointer abuts on an edge of the screen. In the example of Figure 1, this allows to view another part of the plan. Edge and / or corner management may also allow specific actions to be associated with an edge or corner.
  • FIG. 3 illustrates, in the same way, the method of rendering a multimedia scene according to the invention, such that it can be implemented for example in the terminal of FIG. 1.
  • the terminal thus receives the scene ( 31), and the objects that compose it, programmed according to the method of Figure 2. It then scans the keyboard (32), and controls the movement of the pointer object accordingly (33).
  • the multimedia scene may be arbitrary, provided that it comprises a certain number of pointer-sensitive objects, such as buttons, a form, an image with regions of interest, a game board with bricks or saucers
  • FIG. 4 illustrates an example relating to a mixing desk.
  • the object to which the author attributes a virtual pointer behavior can therefore be arbitrary provided that it includes a visual component: it can be a polygon, an image, a group of polygons, a text, a group of graphic objects, a video...
  • the focal point of the virtual pointer can be moved anywhere relative to the visual shape of the pointer, for example by creating this visual form in a transform object (like a ⁇ g> in SVG).
  • the choice of the focal point as the origin of the local coordinate system of the pointer object is a simple choice, but any other choice is possible, including a case-by-case choice by explicitly noting the position of the focal point in the declared object.
  • a focalPointPosition attribute "10 10".
  • isVirtualPointer "true”
  • the actions ensuring the movement of the cursor are not necessarily key presses, but any user action by an available means, keyboard, special keys, voice recognition, joystick, wheel / wheel, ... Movements of the virtual pointer can be regular or no, isotropic or not, vary in time or not.
  • Sensitive objects can be static or moving (as in a game).
  • the events entry of the _pointer, the output of the _pointer and validation can be implemented all or in part, and other more complex events can be defined in the same way: distinction between support and release, behavior of "drag-and-drop", .. .

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L'invention concerne un procédé de construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, dans lequel au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant : - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ; - au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.

Description

Procédé de construction de scènes multimédia comprenant au moins un objet pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants.
Le domaine de l'invention est celui de la création et de la restitution de scènes multimédia, sur tout type de terminaux, et en particulier sur les terminaux ne possédant pas en interne un système d'exploitation (« Operating System », ou « OS » en anglais) offrant toutes les possibilités d'interactivité disponibles sur des micro-ordinateurs classiques. Plus précisément, l'invention concerne l'amélioration de l'interactivité, pour de tels terminaux, tels que des radio-téléphones, des organiseurs électroniques (PDA), etc.
Une scène multimédia, au sens du présent document, est constituée d'objets présentant chacun diverses caractéristiques (tailles, couleurs, animation, contenu,...), selon les techniques connues, qui ont fait notamment l'objet de normes comme par exemple SVG (« Scalable Vector Graphics », langage de description vectorielle de graphiques) ou VRML (« Virtual Reality Modeling Language », langage de modélisation de réalité virtuelle).
De telles scènes peuvent être programmées par un développeur, de façon à permettre une interactivité avec l'utilisateur d'un terminal sur laquelle elle est jouée. Une commande particulière de l'utilisateur peut entraîner une action particulière (sélection ou déplacement d'un objet, lancement d'une vidéo,...). Ces actions, ou opérations, peuvent notamment correspondre à des « sensors », selon la terminologie VRML ou MPEG. Sur les micro-ordinateurs, outre le clavier, l'utilisateur dispose d'une souris, ou de moyens similaires, qui lui permet de déplacer un pointeur sur l'écran, et de cliquer, pour sélectionner un objet ou lancer une opération. Cet élément d'interface est très ergonomique, et donc très utilisé.
Cependant, bien que certains radiotéléphones intègrent une fonction similaire, sous la forme d'un stylet ou d'un autre dispositif de contrôle (tel qu'une molette ou un «joystick »), cette technique est loin d'être généralisée sur les appareils de petite taille et/ou à coût réduit.
Dans ce cas, le terminal ne dispose ni de l'interface adaptée ni, a fortiori, des moyens logiciels permettant le contrôle d'une telle interface. En d'autres termes, le système d'exploitation ne peut pas interpréter des commandes adaptées à un pointeur dont il ne dispose pas.
En conséquence, un développeur de scènes multimédia voulant proposer une scène pouvant être jouée sur tout type de terminaux n'a que deux solutions, qui ne sont satisfaisantes ni l'une ni l'autre. Selon une première solution, il développe la scène sans utiliser l'interface homme-machine associée à la gestion d'un pointeur. Il en résultera une complexité accrue d'utilisation et de programmation, et une insatisfaction des utilisateurs de terminaux disposant d'une telle interface.
Selon une seconde solution, il développe deux versions de la scène, avec et sans gestion de pointeur. Dans ce cas, le temps de développement est bien sûr augmenté, et les deux versions ne réagissent pas exactement pareil. En outre, il faut prévoir une gestion particulière de contrôle en fonction des capacités particulières du terminal, pour choisir quelle version utiliser.
En outre, les utilisateurs de terminaux sans gestion de pointeur ne disposent que d'une version dégradée de la scène, qui risque de ne pas les satisfaire, et certaines fonctions ne pourront peut être pas être mises en œuvre.
L'invention a notamment pour objectif de pallier ces différents inconvénients.
Plus précisément, un objectif de l'invention est de fournir une technique de construction et de restitution de scènes multimédia permettant de s'affranchir de l'absence de gestion d'une interface de type pointeur dans le système d'exploitation d'un terminal.
En d'autres termes, l'invention a pour objectif de fournir une technique de mise en œuvre de scènes multimédia, qui ne pénalise ni les utilisateurs équipés d'un terminal disposant d'une gestion de pointeur, ni les utilisateurs équipés d'un terminal n'en disposant pas.
Un autre objectif de l'invention est de fournir une telle technique, qui n'oblige pas un développeur à développer plusieurs versions d'une même scène, ni à mettre en œuvre un développement complexe.
L'invention a également pour objectif de fournir une telle technique, qui puisse être mise en œuvre sur la plupart des terminaux, avec ou sans gestion de pointeur intégré, sans modification matérielle (« hardware »), aussi bien sur de nouveaux terminaux que sur des terminaux déjà diffusés. Encore un autre objectif de l'invention est de fournir une telle technique, qui ne soit pas coûteuse, que ce soit en temps de traitement ou en capacité de mémoire.
Ces objectifs, ainsi que d'autres qui apparaîtront plus clairement par la suite, sont atteints à l'aide d'un procédé de construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène.
Selon l'invention, au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant :
- au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ;
- au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
Ainsi, selon l'invention, la gestion du pointeur n'est pas assurée, classiquement, par le système d'exploitation du terminal, mais par la scène multimédia elle-même. On peut ainsi disposer, de façon simple et efficace, de la mise en œuvre d'un pointeur, et des actions associées, même sur un terminal n'intégrant pas cette fonction dans son système d'exploitation. En d'autres termes, la gestion du pointeur est déportée dans la scène, ce qui permet non seulement d'en disposer dans un terminal qui n'en disposait pas à l'origine, mais également de ne développer qu'une seule scène optimisée, pour tous les terminaux. Cette approche reste par ailleurs particulièrement simple : elle consiste essentiellement en la création d'un nouveau type d'objet, ou plus précisément d'une nouvelle propriété d'objet, pour les scènes multimédia.
Selon une première approche avantageuse de l'invention, ladite propriété de pointeur peut être affectée à tout type d'objet de ladite scène multimédia ayant une composante visuelle.
Cela permet non seulement de disposer de pointeurs classiques (flèches par exemple), mais plus généralement de tous types de pointeurs, y compris des objets graphiques, des vidéos... sans complexité particulière.
Selon une seconde approche de l'invention, ladite propriété de pointeur peut n'être affectée qu'à un objet de ladite scène multimédia d'un type appartenant à une sélection prédéterminée de types d'objet.
De façon préférentielle, au moins une desdites actions de déplacement et/ou de sélection est associée à des appuis sur une touche du clavier dudit terminal.
Bien sûr, d'autres modes de transmissions des actions peuvent être envisagées, en fonction des moyens équipant le terminal (y compris, s'il en dispose, de ses propres moyens de gestion de pointeur).
Préférentiellement, ladite scène comprend au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés. Pour faciliter la détection de cette superposition, on prévoit avantageusement que ledit objet pointeur comprend un point spécifique de pointage, dit point focal.
Selon un mode de réalisation particulier de l'invention, ledit point focal est l'origine d'un système de coordonnées locales dudit objet pointeur.
Préférentiellement, l'invention prévoit au moins une étape de superposition dudit point focal et d'un point d'un desdits objets sensibles. De façon avantageuse, ladite étape de superposition est utilisée pour la détection d'une entrée dudit pointeur sur un desdits objets sensibles et/ou d'une sortie dudit pointeur par rapport à un desdits objets sensibles.
Ainsi, une entrée ou une sortie peut entraîner une transmission d'un événement correspondant audit objet sensible.
Notamment, une action de sélection effectuée lors d'une superposition entraîne avantageusement la transmission d'un événement de validation à l'objet sensible concerné.
Selon un aspect particulier de l'invention, on peut prévoir que lesdits déplacements s'effectuent par blocs de N pixels, N étant un entier inférieur à la plus petite dimension d'un desdits objets sensibles présents dans la scène.
De façon préférentielle, lesdites opérations comprennent des événements correspondant à des sémantiques d'action prédéterminées.
Il peut notamment s'agir d'actions de plus haut niveau, telles que le « glisser- déplacer » ou les « sensors », selon la terminologie VRML.
L'invention concerne également les signaux portant au moins une scène multimédia produite selon le procédé décrit ci-dessus, et destinée à être restituée sur au moins un terminal.
L'invention concerne encore les programmes d'ordinateur comprenant des instructions de programme pour la construction de telles scènes multimédia.
Selon un autre aspect de l'invention, celle-ci concerne également les programmes d'ordinateur comprenant des instructions de programme pour l'exécution de ces scènes multimédia.
Un tel programme peut être implanté sur un terminal, par exemple sous la forme d'un composant à télécharger (« plug-in » en anglais), qui viendra compléter un logiciel permettant de jouer des scènes multimédia, déjà présent sur le terminal. Il peut également, bien sûr, faire partie intégrante d'un tel logiciel.
L'invention concerne aussi les terminaux multimédia permettant la restitution de telles scènes multimédia, et le procédé de restitution de scènes multimédia correspondant. Selon encore un autre aspect, l'invention concerne les serveurs contenant au moins une telle scène multimédia, et les supports de données (disques, mémoires...) portant de telles scènes.
Enfin, l'invention concerne un objet pointeur d'une telle scène multimédia en lui- même. A un tel objet est affecté, selon l'invention, une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant
- au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ; - au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
Un tel objet, en tant que constituant essentiel clairement identifiable, est un composant intermédiaire d'une scène multimédia selon l'invention, qui présente en lui-même un effet technique nouveau et inventif.
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation préférentiel de l'invention, donnée à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : - la figure 1 présente un exemple de terminal, en l'occurrence un radio-téléphone, restituant une scène multimédia présentant un plan d'une ville et comprenant un objet pointeur selon l'invention ; la figure 2 est un organigramme simplifié d'un procédé de construction de scènes multimédia selon l'invention ; - la figure 3 est un organigramme simplifié d'un procédé de restitution de scènes multimédia selon l'invention ; la figure 4 illustre un autre exemple de scènes multimédia selon l'invention, mettant en œuvre simultanément trois objets de type pointeur. L'exemple de la figure 1 présente un radio-téléphone simple, comprenant un clavier 11 et un écran 12, mais aucun moyen de pilotage d'un pointeur (stylet, souris, écran tactile...), et aucun élément logiciel, dans son système d'exploitation, permettant la gestion d'un pointeur. Le terminal comprend bien sûr, dans sa mémoire, un logiciel de restitution de scènes multimédia, par exemple au format SVG, intégrant la gestion la propriété de curseur selon l'invention.
Sur l'exemple illustré en figure 1, une scène multimédia a été téléchargée. Elle comporte une carte d'une ville représentée à une échelle telle que deux restaurants Rl, R2, trois parkings Pl, P2, P3 et une poste P sont visibles sur l'écran 12. La carte est donc constituée d'une image et des 6 objets sensibles à une interaction de type souris, ou pointeur, situés sur les restaurants, parkings et poste. Un objet polygonal 13 à sept côtés représente une flèche dont la pointe est tournée vers le haut et la gauche. Cet objet « pointeur » peut être déplacé sur l'ensemble de l'écran.
L'invention repose sur la création de cet objet pointeur, des objets sensibles, et de la gestion correspondante.
Ainsi, l'auteur de la scène a créé cet objet flèche 13 avec un attribut particulier, par exemple : isVirtualPointer=«true».
Cet attribut confère à l'objet flèche 13 un comportement de pointeur virtuel. Il se comporte comme le pointeur matériel disponible sur les systèmes opérateurs qui le supporte. L'objet flèche 13 a une certaine taille, et pour que les opérations de sélection soient précises, un point de l'objet flèche (en l'occurrence la pointe de la flèche) est choisi comme point focal 131, c'est-à-dire le point se trouvant sous la pointe de la flèche en haut et à gauche de l'objet. Ce point est l'origine du système de coordonnées locales de l'objet flèche, c'est-à-dire le point de coordonnée 0,0. Pour contrôler le déplacement de ce pointeur virtuel, l'auteur de la scène a créé quatre actions liées à quatre touches du clavier. La touche « 2 » déclenche une action qui déplace l'objet flèche 131 de cinq pixels (par exemple) vers le haut. De même, les touches « 6 », « 8 » et « 4 » déclenchent une action qui déplace l'objet flèche 13 de cinq pixels vers la droite, le bas et la gauche, respectivement. Le choix d'un pas de 5 pixels suppose que les objets sensibles sont d'une taille supérieure à 5 pixels, pour que le déplacement du pointeur virtuel ne saute pas un des objets sensibles. En d'autres termes, les déplacements s'effectuent préférentiellement par blocs de N pixels, N étant un entier inférieur à la plus petite dimension des objets sensibles présents dans la scène.
Pour gérer la sensibilité des objets sensibles au pointeur virtuel, le lecteur multimédia vérifie, à chaque déplacement de l'objet flèche, si le point focal du pointeur virtuel remplit une des conditions ci-après :
- le point focal n'était pas sur un objet sensible avant le déplacement, et il se trouve sur un objet sensible après le déplacement, auquel cas le lecteur génère un événement entrée du _pointeur et l'envoie à l'objet pointé ;
- le point focal était sur un objet sensible avant le déplacement, et il se trouve sur une zone non sensible après le déplacement, auquel cas le lecteur génère un événement sortie_de_ pointeur et l'envoie à l'objet anciennement pointé ; - le point focal était sur un objet sensible A avant le déplacement, et se retrouve sur un objet sensible B après le déplacement, auquel cas le lecteur génère un événement sortie_de_ pointeur et l'envoie à l'objet A, puis génère un événement entrée _du_pointeur et l'envoie à l'objet B. Dans l'exemple illustré en figure 1, lorsque le pointeur 13, et plus précisément le point focal 131 est superposé à l'objet restaurant Rl, celui-ci reçoit un événement entrée _du_pointeur, qui peut par exemple entraîner une modification de l'objet tel qu'un changement de couleurs ou de taille, ou l'affichage d'informations (heures d'ouverture, menu...). Un événement sortie de _ pointeur entraîne un retour de l'objet à son état précédent. L'invention permet également d'émuler une opération de sélection, ou « clic ». Dans l'exemple illustré, une touche du clavier est associée par défaut par le lecteur à la validation, par exemple la touche « 5 ».
Lorsque cette touche est appuyée, le lecteur vérifie si le point focal du pointeur virtuel est situé sur l'un des objets sensibles. Si c'est le cas, le lecteur envoie un événement validation à l'objet pointé. Par exemple, le menu du restaurant Rl ne s'affiche que si cet événement validation a été reçu. D'autres opérations (appel téléphonique par exemple) sont bien sûr possibles, et sont liées uniquement à la programmation par l'auteur. Si ce n'est pas le cas, le lecteur envoie l'événement validation au gestionnaire de la validation par défaut si l'auteur en a défini un.
Plusieurs événements validation différents peuvent bien sûr être définis, et être associés à des combinaisons de touches, à différentes touches, à des appuis multiples (« double clic ») et/ou à l'exécution d'une ou plusieurs opérations précédentes.
La figure 2 présente, de façon simplifiée, un organigramme de la mise en œuvre du procédé de construction de l'invention, par un auteur, ou un développeur. Le séquencement illustré par cet organigramme est purement indicatif : l'ordre des étapes peut être modifié, des étapes peuvent être supprimées ou ajoutées, et certaines seront généralement mises en œuvre simultanément.
L'auteur définit tout d'abord (21) une scène multimédia, et notamment un ensemble d'objets ayant chacun leurs propriétés. Dans ce cadre, il affecte (22) la propriété de pointeur {isVirtualPointer=«true») a un ou plusieurs objets, puis il associe à chaque objet pointeur une gestion des déplacements 23, par exemple sous la forme d'un déplacement de N pixels à chaque appui de touches prédéterminées.
Ensuite, l'auteur peut identifier (24) un ou plusieurs objets sensibles, puis associer (25) à ceux-ci des actions à effectuer, selon que le pointeur entre sur, reste sur et/ou sort de l'objet sensible. Ces actions peuvent être simples, complexes et multiples. II peut notamment s'agir d'événements correspondant à des sémantiques d'action de plus haut niveau, tel que le « glisser-déplacer » ou les « sensors » VRML. Par exemple, le passage du pointeur sur un objet sensible peut entraîner sa mise en mouvement (rotation d'une mappemonde par exemple), permettre son déplacement (soit linéairement, sous la forme d'un « glisser-déplacer », soit de façon quelconque (rotation, déplacement en profondeur...)), ou le lancement d'une opération particulière (ouverture d'une autre scène, ou d'un menu, lancement ou arrêt d'une vidéo,...). L'auteur programme également (26) l'émulation d'un ou plusieurs « clics », associés le cas échéant à différents objets, et à une commande par défaut, lorsque le pointeur n'est pas superposé à un objet sensible.
L'auteur peut également programmer une gestion des bords de l'image 27, permettant le déplacement de cette image lorsque le pointeur vient buter sur un bord de l'écran. Dans l'exemple de la figure 1, ceci permet ainsi de visualiser une autre partie du plan. Une gestion de bords et/ou de coins peut également permettre d'associer des actions spécifiques à un bord ou un coin.
La figure 3 illustre, de la même façon, le procédé de restitution d'une scène multimédia selon l'invention, tel qu'il peut être mis en œuvre par exemple dans le terminal de la figure 1. Le terminal reçoit donc la scène (31), et les objets qui la composent, programmés selon le procédé de la figure 2. Il scrute ensuite le clavier (32), et contrôle le déplacement de l'objet pointeur en conséquence (33).
Il détecte par ailleurs les superpositions (34) du pointeur (plus précisément son point focal) et d'un objet sensible, et génère les opérations associées à une entrée sur ou une sortie d'un objet sensible.
Enfin, il assure l'émulation d'un « clic » 35, ou le cas échéant de plusieurs types de « clics », et lance les opérations associées, en fonction de la position du pointeur.
De nombreuses variantes de mises en œuvre peuvent bien sûr être envisagée. Notamment, la scène multimédia peut être quelconque, pourvu qu'elle comporte un certain nombre d'objets sensibles au pointeur, comme des boutons, un formulaire, une image avec des régions d'intérêt, un plateau de jeux avec des briques ou des soucoupes volantes... A titre d'exemple, la figure 4 illustre un exemple concernant une table de mixage.
Trois entrées sonores sont disponibles, et l'auteur a défini trois objets pointeurs 41, 42 et 43, correspondant à des curseurs. Les touches « 1 » et « 7 », « 2 » et « 8 », et « 3 » et « 9 » permettent respectivement le déplacement de ces curseurs. L'objet auquel l'auteur attribue un comportement de pointeur virtuel peut donc être quelconque pourvu qu'il comporte une composante visuelle : ce peut être un polygone, une image, un groupe de polygones, un texte, un groupe d'objets graphiques, une vidéo...
Le point focal du pointeur virtuel peut être déplacé n'importe où par rapport à la forme visuelle du pointeur, par exemple en créant cette forme visuelle dans un objet transformation (comme un <g> en SVG).
Le choix du point focal comme origine du système de coordonnées locales de l'objet pointeur est un choix simple, mais tout autre choix est possible, y compris un choix au cas par cas en signalant explicitement la position du point focal dans l'objet déclaré comme pointeur virtuel, par exemple par un attribut focalPointPosition=«10 10».
Bien entendu, le nom et la valeur de isVirtualPointer=«true» sont remplaçables par n'importe quelle combinaison non ambiguë conférant la sémantique indiquée à un objet graphique, ou validant une telle sémantique si elle est définie par défaut sur tous les objets. Les actions assurant le déplacement du curseur ne sont pas nécessairement des pressions de touches, mais toute action utilisateur par un moyen disponible, clavier, touches spéciales, reconnaissance vocale, joystick, roulette/molette, ... Les déplacements du pointeur virtuel peuvent réguliers ou non, isotropes ou non, varier dans le temps ou non. Les objets sensibles peuvent être statiques ou mouvants (comme dans un jeu). Les événements entrée du _pointeur, sortie du _pointeur et validation peuvent être implémentés tous ou en partie, et d'autres événements plus complexes peuvent être définis de la même façon : distinction entre appui et relâchement, comportement de « glisser-déplacer », ...

Claims

REVENDICATIONS
1. Procédé de construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend :
- au moins un objet, ledit objet étant affecté d'une propriété de pointeur et d'un point spécifique de pointage, dit point focal, telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant :
- au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ;
- au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants ; et
- au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés, et en ce que ledit procédé met en œuvre au moins une étape de superposition dudit point focal et d'un point d'un desdits objets sensibles de façon à pouvoir détecter une entrée dudit pointeur sur un desdits objets sensibles et/ou une sortie dudit pointeur par rapport à un desdits objets sensibles.
2. Procédé selon la revendication 1, caractérisé en ce qu'une entrée ou une sortie dudit pointeur sur un desdits objets sensibles entraîne une transmission d'un événement correspondant audit objet sensible.
3. Procédé selon l'une quelconque des revendications 1 et 2, caractérisé en ce qu'une action de sélection effectuée lors de ladite étape de superposition entraîne la transmission d'un événement de validation à l'objet sensible concerné.
4. Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce que ladite propriété de pointeur peut être affectée à tout type d'objet de ladite scène multimédia ayant une composante visuelle.
5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce que ladite propriété de pointeur ne peut être affectée qu'à un objet de ladite scène multimédia d'un type appartenant à une sélection prédéterminée de types d'objets.
6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce qu'au moins une desdites actions de déplacement et/ou de sélection sont associées à des appuis sur une touche du clavier dudit terminal.
7. Procédé selon l'une quelconque des revendications 1 à 6, caractérisé en ce que ledit point focal est l'origine d'un système de coordonnées locales dudit objet pointeur.
8. Procédé selon l'une quelconque des revendications 1 à 7, caractérisé en ce que lesdits déplacements s'effectuent par blocs de N pixels, N étant un entier inférieur à la plus petite dimension d'un desdits objets sensibles présents dans la scène.
9. Procédé selon l'une quelconque des revendications 1 à 8, caractérisé en ce que lesdites opérations comprennent des événements correspondant à des sémantiques d'action prédéterminées.
10. Signal portant au moins une scène multimédia destinée à être restituée sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce que ladite au moins une desdites scènes comprend : - au moins un objet, ledit objet étant affecté d'une propriété de pointeur et d'un point spécifique de pointage, dit point focal, telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant : - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ; - au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants ; et
- au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés, de telle sorte qu'une superposition dudit point focal et d'un point d'un desdits objets sensibles permette de détecter une entrée dudit pointeur sur un desdits objets sensibles et/ou une sortie dudit pointeur par rapport à un desdits objets sensibles.
11. Programme d'ordinateur comprenant des instructions de programme pour la construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend : - au moins un objet, ledit objet étant affecté d'une propriété de pointeur et d'un point spécifique de pointage, dit point focal, telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant : - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ; - au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants ; et
- au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés, et en ce que ledit programme d'ordinateur comprend des instructions de programme pour l'exécution d'au moins une étape de superposition dudit point focal et d'un point d'un desdits objets sensibles de façon à pouvoir détecter une entrée dudit pointeur sur un desdits objets sensibles et/ou une sortie dudit pointeur par rapport à un desdits objets sensibles.
12. Programme d'ordinateur comprenant des instructions de programme pour l'exécution de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend :
- au moins un objet, ledit objet étant affecté d'une propriété de pointeur et d'un point spécifique de pointage, dit point focal, telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant :
- au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ;
- au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants ; et - au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés, et en ce que ledit programme d'ordinateur comprend des instructions de code pour l'exécution d'au moins une étape de superposition dudit point focal et d'un point d'un desdits objets sensibles de façon à pouvoir détecter une entrée dudit pointeur sur un desdits objets sensibles et/ou une sortie dudit pointeur par rapport à un desdits objets sensibles.
13. Terminal multimédia permettant la restitution de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'il comprend des moyens de traitement, dans une scène multimédia :
- au moins un objet, ledit objet étant affecté d'une propriété de pointeur et d'un point spécifique de pointage, dit point focal, telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant : - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ;
- au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants ; et
- d'au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés, et en ce que ledit terminal comprend des moyens de superposition dudit point focal et d'un point d'un desdits objets sensibles de façon à pouvoir détecter une entrée dudit pointeur sur un desdits objets sensibles et/ou une sortie dudit pointeur par rapport à un desdits objets sensibles.
14. Procédé de restitution de scènes multimédia sur un terminal, lesdites scènes multimédia comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend :
- au moins un objet, ledit objet étant affecté d'une propriété de pointeur et d'un point spécifique de pointage, dit point focal, telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant :
- au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ;
- au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants ; et
- au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés, et en ce que ledit procédé met en œuvre au moins une étape de superposition dudit point focal et d'un point d'un desdits objets sensibles de façon à pouvoir détecter une entrée dudit pointeur sur un desdits objets sensibles et/ou une sortie dudit pointeur par rapport à un desdits objets sensibles.
15. Serveur de scènes multimédia destinées à être restituées sur au moins un terminal, lesdites scènes multimédia comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend :
- au moins un objet, ledit objet étant affecté d'une propriété de pointeur et d'un point spécifique de pointage, dit point focal, telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant :
- au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ;
- au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants ; et
- au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés, et en ce que ledit procédé met en œuvre au moins une étape de superposition dudit point focal et d'un point d'un desdits objets sensibles de façon à pouvoir détecter une entrée dudit pointeur sur un desdits objets sensibles et/ou une sortie dudit pointeur par rapport à un desdits objets sensibles.
16. Objet d'une scène multimédia destinée à être restituée sur au moins un terminal, ladite scène multimédia comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'il s'agit d'un objet étant affecté d'une propriété de pointeur et d'un point spécifique de pointage, dit point focal, telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant : - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ;
- au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants et en ce que dans une ladite scène multimédia comprenant au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés, la superposition dudit point focal et d'un point d'un desdits objets sensibles permet de détecter une entrée dudit pointeur sur un desdits objets sensibles et/ou une sortie dudit pointeur par rapport à un desdits objets sensibles.
PCT/EP2006/061061 2005-03-29 2006-03-27 Procédé de construction de scènes multimédia comprenant au moins un objet pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants WO2006103209A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CA002601643A CA2601643A1 (fr) 2005-03-29 2006-03-27 Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants
EP06725330A EP1864200A1 (fr) 2005-03-29 2006-03-27 Procédé de construction de scènes multimédia comprenant au moins un objet pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants
US11/910,147 US20080195959A1 (en) 2005-03-29 2006-03-27 Method Of Constructing Multimedia Scenes Comprising At Least One Pointer Object, And Corresponding Scene Rendering Method, Terminal, Computer Programs, Server And Pointer Object
JP2008503490A JP2008535070A (ja) 2005-03-29 2006-03-27 少なくとも1つのポインタオブジェクトを備えるマルチメディアシーンを構成する方法、並びに対応するシーンレンダリング方法、端末、コンピュータプログラム、サーバ及びポインタオブジェクト
AU2006228603A AU2006228603A1 (en) 2005-03-29 2006-03-27 Method of constructing multimedia scenes comprising at least one pointer object, and corresponding scene reproduction method, terminal, computer programmes, server and pointer object
IL185905A IL185905A0 (en) 2005-03-29 2007-09-11 Method of constructing multimedia scenes comprising at least one pointer object, and corresponding scene reproduction method, terminal, computer programmes, server and pointer object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0503048A FR2883996B1 (fr) 2005-03-29 2005-03-29 Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants
FR0503048 2005-03-29

Publications (1)

Publication Number Publication Date
WO2006103209A1 true WO2006103209A1 (fr) 2006-10-05

Family

ID=35457087

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/061061 WO2006103209A1 (fr) 2005-03-29 2006-03-27 Procédé de construction de scènes multimédia comprenant au moins un objet pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants

Country Status (10)

Country Link
US (1) US20080195959A1 (fr)
EP (1) EP1864200A1 (fr)
JP (1) JP2008535070A (fr)
KR (1) KR20080004541A (fr)
CN (1) CN101151588A (fr)
AU (1) AU2006228603A1 (fr)
CA (1) CA2601643A1 (fr)
FR (1) FR2883996B1 (fr)
IL (1) IL185905A0 (fr)
WO (1) WO2006103209A1 (fr)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054050A (ja) * 2009-09-03 2011-03-17 Sony Corp 情報処理装置、情報処理方法、プログラムおよび情報処理システム
CN102368297A (zh) * 2011-09-14 2012-03-07 北京英福生科技有限公司 一种用于识别被检测对象动作的设备、系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6002401A (en) * 1994-09-30 1999-12-14 Baker; Michelle User definable pictorial interface for accessing information in an electronic file system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020056136A1 (en) * 1995-09-29 2002-05-09 Wistendahl Douglass A. System for converting existing TV content to interactive TV programs operated with a standard remote control and TV set-top box
US6057854A (en) * 1997-03-07 2000-05-02 Micrografx, Inc. System and method of providing interactive vector graphics over a network
US6442755B1 (en) * 1998-07-07 2002-08-27 United Video Properties, Inc. Electronic program guide using markup language
US7577978B1 (en) * 2000-03-22 2009-08-18 Wistendahl Douglass A System for converting TV content to interactive TV game program operated with a standard remote control and TV set-top box
US6889062B2 (en) * 2001-10-04 2005-05-03 Nokia Corporation System and protocol for providing pictures in wireless communication messages
US7908570B2 (en) * 2003-12-05 2011-03-15 Trading Technologies International, Inc. Method and system for displaying a cursor on a trading screen

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6002401A (en) * 1994-09-30 1999-12-14 Baker; Michelle User definable pictorial interface for accessing information in an electronic file system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Bare-hand human-computer interaction", PROCEEDINGS OF THE 2001 WORKSHOP ON PERCEPTIVE USER INTERFACES, 15 November 2001 (2001-11-15) - 16 November 2001 (2001-11-16), Orlando, Florida, XP002359773, Retrieved from the Internet <URL:http://doi.acm.org/10.1145/971478.971513> [retrieved on 20051216] *
ISO/IEC JTC 1/SC 29/WG 11: "Combined CD Registration and CD Consideration Ballot on ISO/IEC CD 14496-20: Information technology -- Coding of audio-visual objects -- Part 20: Lightweight Application Scene Representation (LASeR) and Simple Aggregation Format (SAF)", 16 October 2004 (2004-10-16), XP002359771, Retrieved from the Internet <URL:http://web.archive.org/web/20041016005918/http://www.itscj.ipsj.or.jp/sc29/open/29view/29n6148t.doc> [retrieved on 20051216] *
LLOYD RIEBER: "Flash 8: Advanced Action Scripting", 4 March 2005 (2005-03-04), XP002382969, Retrieved from the Internet <URL:http://web.archive.org/web/20050304063742/http://it.coe.uga.edu/studio/new_site_content/workshops/flash_actionscript/flash-scripting_adv.ppt> [retrieved on 20060529] *
WORLD WIDE WEB CONSORTIUM: "Scalable Vector Graphics (SVG) 1.1 Specification, Chapter 16: Interactivity", 14 January 2003 (2003-01-14), XP002359772, Retrieved from the Internet <URL:http://www.w3.org/TR/SVG/interact.html> [retrieved on 20051214] *

Also Published As

Publication number Publication date
JP2008535070A (ja) 2008-08-28
CA2601643A1 (fr) 2006-10-05
CN101151588A (zh) 2008-03-26
IL185905A0 (en) 2008-01-20
FR2883996B1 (fr) 2008-05-30
US20080195959A1 (en) 2008-08-14
KR20080004541A (ko) 2008-01-09
EP1864200A1 (fr) 2007-12-12
FR2883996A1 (fr) 2006-10-06
AU2006228603A1 (en) 2006-10-05

Similar Documents

Publication Publication Date Title
US7725839B2 (en) Three-dimensional active file explorer
US7568165B2 (en) Sidebar engine, object model and schema
TWI596538B (zh) 應用程式開啟狀況提供技術
Negus Linux Bible 2010 Edition: Boot Up to Ubuntu, Fedora, KNOPPIX, Debian, openSUSE, and 13 Other Distributions
EP2336867B1 (fr) Procédé et dispositif de contrôle de l&#39;affichage sur un dispositif d&#39;affichage d&#39;une pluralité d&#39;éléments d&#39;une liste
EP1227442B1 (fr) Procédé de traitement d&#39;images en 2D appliquées sur des objets en 3D
US20060031776A1 (en) Multi-planar three-dimensional user interface
EP2336885B1 (fr) Procédé pour afficher dans un navigateur web le rendu produit par une application
US20090178011A1 (en) Gesture movies
US20050091609A1 (en) User interface menu with hovering icons
WO2007115983A1 (fr) Procede de restitution d&#39;au moins une scene multimedia
EP2898391B1 (fr) Methode de selection de mode d&#39;interactivite
EP3497674B1 (fr) Système de composition ou de modification de séquences de réalité virtuelle, procédé de composition et système de lecture desdites séquences
WO2006103209A1 (fr) Procédé de construction de scènes multimédia comprenant au moins un objet pointeur, procédé de restitution de scènes, terminal, programmes d&#39;ordinateur, serveur et objet pointeur correspondants
EP2469397A1 (fr) Traitement perfectionné de données d&#39;interface graphique
WO2007031530A1 (fr) Procede de controle d&#39;interface d&#39;une pluralite de types de terminaux de radiocommunication par la definition d&#39;evenements abstraits, programme d&#39;ordinateur, signal, et terminal correspondants
JP5430828B2 (ja) ビデオ再生システムにおいてマウスの遠隔制御装置の機能を実現するためのボタンマップを生成するシステムおよび方法
FR3064767B1 (fr) Systeme informatique et procede correspondant pour la gestion de contenus
WO1998022866A1 (fr) Interface pour cederoms
FR3071639A1 (fr) Procede d’exploitation d’un dispositif informatique et dispositif informatique mettant en œuvre celui-ci
WO2020245098A1 (fr) Procede de commande d&#39;un equipement informatique
EP2466443A1 (fr) Traitement de données d&#39;interface graphique perfectionné.
Hartanto Mobilo: A Java-based mobile integrated development environment
Thurrott Windows Vista Secrets
AHMAD LINE OF MICROSOFT WINDOWS OPERATING SYSTEMS

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006725330

Country of ref document: EP

Ref document number: 185905

Country of ref document: IL

WWE Wipo information: entry into national phase

Ref document number: 2601643

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 200680009978.8

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2008503490

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

NENP Non-entry into the national phase

Ref country code: RU

WWE Wipo information: entry into national phase

Ref document number: 2006228603

Country of ref document: AU

Ref document number: 1020077025018

Country of ref document: KR

WWW Wipo information: withdrawn in national office

Ref document number: RU

ENP Entry into the national phase

Ref document number: 2006228603

Country of ref document: AU

Date of ref document: 20060327

Kind code of ref document: A

WWP Wipo information: published in national office

Ref document number: 2006228603

Country of ref document: AU

WWP Wipo information: published in national office

Ref document number: 2006725330

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11910147

Country of ref document: US