FR2883996A1 - Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants - Google Patents

Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants Download PDF

Info

Publication number
FR2883996A1
FR2883996A1 FR0503048A FR0503048A FR2883996A1 FR 2883996 A1 FR2883996 A1 FR 2883996A1 FR 0503048 A FR0503048 A FR 0503048A FR 0503048 A FR0503048 A FR 0503048A FR 2883996 A1 FR2883996 A1 FR 2883996A1
Authority
FR
France
Prior art keywords
pointer
terminal
multimedia
scene
assigned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0503048A
Other languages
English (en)
Other versions
FR2883996B1 (fr
Inventor
Jean Claude Dufourd
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Streamezzo SA
Original Assignee
Streamezzo SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to FR0503048A priority Critical patent/FR2883996B1/fr
Application filed by Streamezzo SA filed Critical Streamezzo SA
Priority to CA002601643A priority patent/CA2601643A1/fr
Priority to JP2008503490A priority patent/JP2008535070A/ja
Priority to EP06725330A priority patent/EP1864200A1/fr
Priority to KR1020077025018A priority patent/KR20080004541A/ko
Priority to CNA2006800099788A priority patent/CN101151588A/zh
Priority to AU2006228603A priority patent/AU2006228603A1/en
Priority to PCT/EP2006/061061 priority patent/WO2006103209A1/fr
Priority to US11/910,147 priority patent/US20080195959A1/en
Publication of FR2883996A1 publication Critical patent/FR2883996A1/fr
Priority to IL185905A priority patent/IL185905A0/en
Application granted granted Critical
Publication of FR2883996B1 publication Critical patent/FR2883996B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L'invention concerne un procédé de construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, dans lequel au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant :- au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ;- au moins une action de déplacement dudit objet pointeur,de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.

Description

Procédé de construction de scènes multimédia comprenant au moins un objet
pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants.
Le domaine de l'invention est celui de la création et de la restitution de scènes multimédia, sur tout type de terminaux, et en particulier sur les terminaux ne possédant pas en interne un système d'exploitation ( Operating system , ou OS en anglais) offrant toutes les possibilités d'interactivité disponibles sur des micro-ordinateurs classiques.
Plus précisément, l'invention concerne l'amélioration de l'interactivité, pour de tels terminaux, tels que des radio-téléphones, des organiseurs électroniques (PDA), etc. Une scène multimédia, au sens du présent document, est constituée d'objets présentant chacun diverses caractéristiques (tailles, couleurs, animation, contenu,...), selon les techniques connues, qui ont fait notamment l'objet de normes comme par exemple SVG ( Scalable Vector Graphics , langage de description vectorielle de graphiques) ou VRML ( Virtual Reality Modeling Language , langage de modélisation de réalité virtuelle).
De telles scènes peuvent être programmées par un développeur, de façon à permettre une interactivité avec l'utilisateur d'un terminal sur laquelle elle est jouée. Une commande particulière de l'utilisateur peut entraîner une action particulière (sélection ou déplacement d'un objet, lancement d'une vidéo,...). Ces actions, ou opérations, peuvent notamment correspondre à des sensors , selon la terminologie VRML ou MPEG.
Sur les micro-ordinateurs, outre le clavier, l'utilisateur dispose d'une souris, ou de moyens similaires, qui lui permet de déplacer un pointeur sur l'écran, et de cliquer, pour sélectionner un objet ou lancer une opération. Cet élément d'interface est très ergonomique, et donc très utilisé.
Cependant, bien que certains radiotéléphones intègrent une fonction similaire, sous la forme d'un stylet ou d'un autre dispositif de contrôle (tel qu'une molette ou un joystick ), cette technique est loin d'être généralisée sur les appareils de petite taille et/ou à coût réduit.
Dans ce cas, le terminal ne dispose ni de l'interface adaptée ni, a fortiori, des moyens logiciels permettant le contrôle d'une telle interface. En d'autres 5 termes, le système d'exploitation ne peut pas interpréter des commandes adaptées à un pointeur dont il ne dispose pas.
En conséquence, un développeur de scènes multimédia voulant proposer une scène pouvant être jouée sur tout type de terminaux n'a que deux solutions, qui ne sont satisfaisantes ni l'une ni l'autre.
Selon une première solution, il développe la scène sans utiliser l'interface homme-machine associée à la gestion d'un pointeur. Il en résultera une complexité accrue d'utilisation et de programmation, et une insatisfaction des utilisateurs de terminaux disposant d'une telle interface.
Selon une seconde solution, il développe deux versions de la scène, avec et sans gestion de pointeur. Dans ce cas, le temps de développement est bien sûr augmenté, et les deux versions ne réagissent pas exactement pareil. En outre, il faut prévoir une gestion particulière de contrôle en fonction des capacités particulières du terminal, pour choisir quelle version utiliser.
En outre, les utilisateurs de terminaux sans gestion de pointeur ne disposent que d'une version dégradée de la scène, qui risque de ne pas les satisfaire, et certaines fonctions ne pourront peut être pas être mises en oeuvre.
L'invention a notamment pour objectif de pallier ces différents inconvénients.
Plus précisément, un objectif de l'invention est de fournir une technique de construction et de restitution de scènes multimédia permettant de s'affranchir de l'absence de gestion d'une interface de type pointeur dans le système d'exploitation d'un terminal.
En d'autres termes, l'invention a pour objectif de fournir une technique de mise en oeuvre de scènes multimédia, qui ne pénalise ni les utilisateurs équipés d'un terminal disposant d'une gestion de pointeur, ni les utilisateurs équipés d'un terminal n'en disposant pas.
Un autre objectif de l'invention est de fournir une telle technique, qui n'oblige pas un développeur à développer plusieurs versions d'une même scène, ni à mettre en oeuvre un développement complexe.
L'invention a également pour objectif de fournir une telle technique, qui puisse être mise en oeuvre sur la plupart des terminaux, avec ou sans gestion de pointeur intégré, sans modification matérielle ( hardware ), aussi bien sur de nouveaux terminaux que sur des terminaux déjà diffusés.
Encore un autre objectif de l'invention est de fournir une telle technique, qui ne soit pas coûteuse, que ce soit en temps de traitement ou en capacité de mémoire.
Ces objectifs, ainsi que d'autres qui apparaîtront plus clairement par la suite, sont atteints à l'aide d'un procédé de construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène.
Selon l'invention, au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
Ainsi, selon l'invention, la gestion du pointeur n'est pas assurée, classiquement, par le système d'exploitation du terminal, mais par la scène multimédia elle-même. On peut ainsi disposer, de façon simple et efficace, de la mise en oeuvre d'un pointeur, et des actions associées, même sur un terminal n'intégrant pas cette fonction dans son système d'exploitation.
En d'autres termes, la gestion du pointeur est déportée dans la scène, ce qui permet non seulement d'en disposer dans un terminal qui n'en disposait pas à l'origine, mais également de ne développer qu'une seule scène optimisée, pour tous les terminaux.
Cette approche reste par ailleurs particulièrement simple: elle consiste essentiellement en la création d'un nouveau type d'objet, ou plus précisément d'une nouvelle propriété d'objet, pour les scènes multimédia.
Selon une première approche avantageuse de l'invention, ladite propriété de pointeur peut être affectée à tout type d'objet de ladite scène multimédia ayant une composante visuelle.
Cela permet non seulement de disposer de pointeurs classiques (flèches par exemple), mais plus généralement de tous types de pointeurs, y compris des objets graphiques, des vidéos... sans complexité particulière.
Selon une seconde approche de l'invention, ladite propriété de pointeur peut n'être affectée qu'à un objet de ladite scène multimédia d'un type appartenant à une sélection prédéterminée de types d'objet.
De façon préférentielle, au moins une desdites actions de déplacement et/ou de sélection est associée à des appuis sur une touche du clavier dudit terminal.
Bien sûr, d'autres modes de transmissions des actions peuvent être envisagées, en fonction des moyens équipant le terminal (y compris, s'il en dispose, de ses propres moyens de gestion de pointeur).
Préférentiellement, ladite scène comprend au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés.
Pour faciliter la détection de cette superposition, on prévoit avantageusement que ledit objet pointeur comprend un point spécifique de pointage, dit point focal.
Selon un mode de réalisation particulier de l'invention, ledit point focal est l'origine d'un système de coordonnées locales dudit objet pointeur.
Préférentiellement, l'invention prévoit au moins une étape de superposition dudit point focal et d'un point d'un desdits objets sensibles.
De façon avantageuse, ladite étape de superposition est utilisée pour la détection d'une entrée dudit pointeur sur un desdits objets sensibles et/ou d'une sortie dudit pointeur par rapport à un desdits objets sensibles.
Ainsi, une entrée ou une sortie peut entraîner une transmission d'un événement correspondant audit objet sensible.
Notamment, une action de sélection effectuée lors d'une superposition entraîne avantageusement la transmission d'un événement de validation à l'objet sensible concerné.
Selon un aspect particulier de l'invention, on peut prévoir que lesdits déplacements s'effectuent par blocs de N pixels, N étant un entier inférieur à la plus petite dimension d'un desdits objets sensibles présents dans la scène.
De façon préférentielle, lesdites opérations comprennent des événements correspondant à des sémantiques d'action prédéterminées.
Il peut notamment s'agir d'actions de plus haut niveau, telles que le glisser-déplacer ou les sensors , selon la terminologie VRML.
L'invention concerne également les signaux portant au moins une scène multimédia produite selon le procédé décrit ci-dessus, et destinée à être restituée sur au moins un terminal.
L'invention concerne encore les programmes d'ordinateur comprenant des instructions de programme pour la construction de telles scènes multimédia.
Selon un autre aspect de l'invention, celle-ci concerne également les programmes d'ordinateur comprenant des instructions de programme pour l'exécution de ces scènes multimédia.
Un tel programme peut être implanté sur un terminal, par exemple sous la forme d'un composant à télécharger ( plug-in en anglais), qui viendra compléter un logiciel permettant de jouer des scènes multimédia, déjà présent sur le terminal. Il peut également, bien sûr, faire partie intégrante d'un tel logiciel.
L'invention concerne aussi les terminaux multimédia permettant la restitution de telles scènes multimédia, et le procédé de restitution de scènes multimédia correspondant.
Selon encore un autre aspect, l'invention concerne les serveurs contenant au moins une telle scène multimédia, et les supports de données (disques, mémoires...) portant de telles scènes.
Enfin, l'invention concerne un objet pointeur d'une telle scène multimédia en lui-même. A un tel objet est affecté, selon l'invention, une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; - au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
Un tel objet, en tant que constituant essentiel clairement identifiable, est un composant intermédiaire d'une scène multimédia selon l'invention, qui présente en lui-même un effet technique nouveau et inventif.
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation préférentiel de l'invention, donnée à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels: -la figure 1 présente un exemple de terminal, en l'occurrence un radiotéléphone, restituant une scène multimédia présentant un plan d'une ville et comprenant un objet pointeur selon l'invention; - la figure 2 est un organigramme simplifié d'un procédé de construction de scènes multimédia selon l'invention; - la figure 3 est un organigramme simplifié d'un procédé de restitution de scènes multimédia selon l'invention; la figure 4 illustre un autre exemple de scènes multimédia selon l'invention, mettant en oeuvre simultanément trois objets de type pointeur.
L'exemple de la figure 1 présente un radio-téléphone simple, comprenant un clavier 11 et un écran 12, mais aucun moyen de pilotage d'un pointeur (stylet, souris, écran tactile...), et aucun élément logiciel, dans son système d'exploitation, permettant la gestion d'un pointeur.
Le terminal comprend bien sûr, dans sa mémoire, un logiciel de restitution de scènes multimédia, par exemple au format SVG, intégrant la gestion la propriété de curseur selon l'invention.
Sur l'exemple illustré en figure 1, une scène multimédia a été téléchargée. Elle comporte une carte d'une ville représentée à une échelle telle que deux restaurants R1, R2, trois parkings P1, P2, P3 et une poste P sont visibles sur l'écran 12. La carte est donc constituée d'une image et des 6 objets sensibles à une interaction de type souris, ou pointeur, situés sur les restaurants, parkings et poste.
Un objet polygonal 13 à sept côtés représente une flèche dont la pointe est tournée vers le haut et la gauche. Cet objet pointeur peut être déplacé sur l'ensemble de l'écran.
L'invention repose sur la création de cet objet pointeur, des objets sensibles, et de la gestion correspondante.
Ainsi, l'auteur de la scène a créé cet objet flèche 13 avec un attribut particulier, par exemple: isVi rtualPointer= true .
Cet attribut confère à l'objet flèche 13 un comportement de pointeur virtuel. Il se comporte comme le pointeur matériel disponible sur les systèmes opérateurs qui le supporte.
L'objet flèche 13 a une certaine taille, et pour que les opérations de sélection soient précises, un point de l'objet flèche (en l'occurrence la pointe de la flèche) est choisi comme point focal 131, c'est-à-dire le point se trouvant sous la pointe de la flèche en haut et à gauche de l'objet. Ce point est l'origine du système de coordonnées locales de l'objet flèche, c'est-à-dire le point de coordonnée 0,0.
Pour contrôler le déplacement de ce pointeur virtuel, l'auteur de la scène a créé quatre actions liées à quatre touches du clavier. La touche 2 déclenche une action qui déplace l'objet flèche 131 de cinq pixels (par exemple) vers le haut. De même, les touches 6 , 8 et 4 déclenchent une action qui déplace l'objet flèche 13 de cinq pixels vers la droite, le bas et la gauche, respectivement.
Le choix d'un pas de 5 pixels suppose que les objets sensibles sont d'une taille supérieure à 5 pixels, pour que le déplacement du pointeur virtuel ne saute pas un des objets sensibles. En d'autres termes, les déplacements s'effectuent préférentiellement par blocs de N pixels, N étant un entier inférieur à la plus petite dimension des objets sensibles présents dans la scène.
Pour gérer la sensibilité des objets sensibles au pointeur virtuel, le lecteur multimédia vérifie, à chaque déplacement de l'objet flèche, si le point focal du pointeur virtuel remplit une des conditions ci-après: le point focal n'était pas sur un objet sensible avant le déplacement, et il se trouve sur un objet sensible après le déplacement, auquel cas le lecteur génère un événement entrée_du pointeur et l'envoie à l'objet pointé ; - le point focal était sur un objet sensible avant le déplacement, et il se trouve sur une zone non sensible après le déplacement, auquel cas le lecteur génère un événement sortie_de_ pointeur et l'envoie à l'objet anciennement pointé ; le point focal était sur un objet sensible A avant le déplacement, et se retrouve sur un objet sensible B après le déplacement, auquel cas le lecteur génère un événement sortie_de_ pointeur et l'envoie à l'objet A, puis génère un événement entrée_du pointeur et l'envoie à l'objet B. Dans l'exemple illustré en figure 1, lorsque le pointeur 13, et plus précisément le point focal 131 est superposé à l'objet restaurant R1, celui-ci reçoit un événement entrée_du_pointeur, qui peut par exemple entraîner une modification de l'objet tel qu'un changement de couleurs ou de taille, ou l'affichage d'informations (heures d'ouverture, menu...). Un événement sortie_de_ pointeur entraîne un retour de l'objet à son état précédent.
L'invention permet également d'émuler une opération de sélection, ou clic . Dans l'exemple illustré, une touche du clavier est associée par défaut par le lecteur à la validation, par exemple la touche 5 .
Lorsque cette touche est appuyée, le lecteur vérifie si le point focal du pointeur virtuel est situé sur l'un des objets sensibles. Si c'est le cas, le lecteur envoie un événement validation à l'objet pointé. Par exemple, le menu du restaurant R1 ne s'affiche que si cet événement validation a été reçu. D'autres opérations (appel téléphonique par exemple) sont bien sûr possibles, et sont liées uniquement à la programmation par l'auteur.
Si ce n'est pas le cas, le lecteur envoie l'événement validation au gestionnaire de la validation par défaut si l'auteur en a défini un.
Plusieurs événements validation différents peuvent bien sûr être définis, et être associés à des combinaisons de touches, à différentes touches, à des appuis multiples ( double clic ) et/ou à l'exécution d'une ou plusieurs opérations précédentes.
La figure 2 présente, de façon simplifiée, un organigramme de la mise en oeuvre du procédé de construction de l'invention, par un auteur, ou un développeur. Le séquencement illustré par cet organigramme est purement indicatif: l'ordre des étapes peut être modifié, des étapes peuvent être supprimées ou ajoutées, et certaines seront généralement mises en oeuvre simultanément.
L'auteur définit tout d'abord (21) une scène multimédia, et notamment un ensemble d'objets ayant chacun leurs propriétés. Dans ce cadre, il affecte (22) la propriété de pointeur (isVirtualPointer= crue ) a un ou plusieurs objets, puis il associe à chaque objet pointeur une gestion des déplacements 23, par exemple sous la forme d'un déplacement de N pixels à chaque appui de touches prédéterminées.
Ensuite, l'auteur peut identifier (24) un ou plusieurs objets sensibles, puis associer (25) à ceux-ci des actions à effectuer, selon que le pointeur entre sur, reste sur et/ou sort de l'objet sensible. Ces actions peuvent être simples, complexes et multiples.
Il peut notamment s'agir d'événements correspondant à des sémantiques d'action de plus haut niveau, tel que le glisser-déplacer ou les sensors VRML. Par exemple, le passage du pointeur sur un objet sensible peut entraîner sa mise en mouvement (rotation d'une mappemonde par exemple), permettre son déplacement (soit linéairement, sous la forme d'un glisser-déplacer , soit de façon quelconque (rotation, déplacement en profondeur...)), ou le lancement d'une opération particulière (ouverture d'une autre scène, ou d'un menu, lancement ou arrêt d'une vidéo,...).
L'auteur programme également (26) l'émulation d'un ou plusieurs clics , associés le cas échéant à différents objets, et à une commande par défaut, lorsque le pointeur n'est pas superposé à un objet sensible.
L'auteur peut également programmer une gestion des bords de l'image 27, permettant le déplacement de cette image lorsque le pointeur vient buter sur un bord de l'écran. Dans l'exemple de la figure 1, ceci permet ainsi de visualiser une autre partie du plan. Une gestion de bords et/ou de coins peut également permettre d'associer des actions spécifiques à un bord ou un coin.
La figure 3 illustre, de la même façon, le procédé de restitution d'une scène multimédia selon l'invention, tel qu'il peut être mis en oeuvre par exemple dans le terminal de la figure 1.
Le terminal reçoit donc la scène (31), et les objets qui la composent, programmés selon le procédé de la figure 2. Il scrute ensuite le clavier (32), et contrôle le déplacement de l'objet pointeur en conséquence (33).
Il détecte par ailleurs les superpositions (34) du pointeur (plus précisément son point focal) et d'un objet sensible, et génère les opérations associées à une entrée sur ou une sortie d'un objet sensible.
Enfin, il assure l'émulation d'un clic 35, ou le cas échéant de plusieurs types de clics , et lance les opérations associées, en fonction de la position du pointeur.
De nombreuses variantes de mises en oeuvre peuvent bien sûr être envisagée.
Notamment, la scène multimédia peut être quelconque, pourvu qu'elle comporte un certain nombre d'objets sensibles au pointeur, comme des boutons, un formulaire, une image avec des régions d'intérêt, un plateau de jeux avec des briques ou des soucoupes volantes...
A titre d'exemple, la figure 4 illustre un exemple concernant une table de mixage. Trois entrées sonores sont disponibles, et l'auteur a défini trois objets pointeurs 41, 42 et 43, correspondant à des curseurs. Les touches 1 et 7 , 2 et 8 , et 3 et 9 permettent respectivement le déplacement de ces curseurs.
L'objet auquel l'auteur attribue un comportement de pointeur virtuel peut donc être quelconque pourvu qu'il comporte une composante visuelle: ce peut être un polygone, une image, un groupe de polygones, un texte, un groupe d'objets graphiques, une vidéo...
Le point focal du pointeur virtuel peut être déplacé n'importe où par rapport à la forme visuelle du pointeur, par exemple en créant cette forme visuelle dans un objet transformation (comme un <g> en SVG).
Le choix du point focal comme origine du système de coordonnées locales de l'objet pointeur est un choix simple, mais tout autre choix est possible, y compris un choix au cas par cas en signalant explicitement la position du point focal dans l'objet déclaré comme pointeur virtuel, par exemple par un attribut focalPointPosition= 10 10 .
Bien entendu, le nom et la valeur de isVirtualPointer= crue sont remplaçables par n'importe quelle combinaison non ambiguë conférant la sémantique indiquée à un objet graphique, ou validant une telle sémantique si elle est définie par défaut sur tous les objets.
Les actions assurant le déplacement du curseur ne sont pas nécessairement des pressions de touches, mais toute action utilisateur par un moyen disponible, clavier, touches spéciales, reconnaissance vocale, joystick, roulette/molette, ...
Les déplacements du pointeur virtuel peuvent réguliers ou non, isotropes ou non, varier dans le temps ou non.
Les objets sensibles peuvent être statiques ou mouvants (comme dans un jeu).
Les événements entrée_dupointeur, sortie_du_pointeur et validation peuvent être implémentés tous ou en partie, et d'autres événements plus complexes peuvent être définis de la même façon: distinction entre appui et relâchement, comportement de glisser-déplacer , ...

Claims (20)

REVENDICATIONS
1. Procédé de construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
2. Procédé selon la revendication 1, caractérisé en ce que ladite propriété de pointeur peut être affectée à tout type d'objet de ladite scène multimédia ayant une composante visuelle.
3. Procédé selon la revendication 1, caractérisé en ce que ladite propriété de pointeur ne peut être affectée qu'à un objet de ladite scène multimédia d'un type appartenant à une sélection prédéterminée de types d'objets.
4. Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce qu'au moins une desdites actions de déplacement et/ou de sélection sont associées à des appuis sur une touche du clavier dudit terminal.
5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce que ladite scène comprend au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés.
6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce que ledit objet pointeur comprend un point spécifique de pointage, dit point focal.
7. Procédé selon la revendication 6, caractérisé en ce que ledit point focal est l'origine d'un système de coordonnées locales dudit objet pointeur.
8. Procédé selon les revendications 5 et 6, caractérisé en ce qu'il comprend au moins une étape de superposition dudit point focal et d'un point d'un desdits objets sensibles.
9. Procédé selon la revendication 8, caractérisé en ce que ladite étape de superposition est utilisée pour la détection d'une entrée dudit pointeur sur un desdits objets sensibles et/ou d'une sortie dudit pointeur par rapport à un desdits objets sensibles.
10. Procédé selon la revendication 9, caractérisé en ce qu'une entrée ou une sortie entraîne une transmission d'un événement correspondant audit objet sensible.
11. Procédé selon l'une quelconque des revendications 9 et 10, caractérisé en ce qu'une action de sélection effectuée lors d'une superposition entraîne la transmission d'un événement de validation à l'objet sensible concerné.
12. Procédé selon l'une quelconque des revendications 5 à 11, caractérisé en ce que lesdits déplacements s'effectuent par blocs de N pixels, N étant un entier inférieur à la plus petite dimension d'un desdits objets sensibles présents dans la scène.
13. Procédé selon l'une quelconque des revendications 1 à 12, caractérisé en ce que lesdites opérations comprennent des événements correspondant à des sémantiques d'action prédéterminées.
14. Signal portant au moins une scène multimédia destinée à être restituée sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
15. Programme d'ordinateur comprenant des instructions de programme pour la construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
16. Programme d'ordinateur comprenant des instructions de programme pour l'exécution de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
17. Terminal multimédia permettant la restitution de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'il comprend des moyens de traitement, dans une scène multimédia, d'au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur ledit terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
18. Procédé de restitution de scènes multimédia sur un terminal, lesdites scènes multimédia comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit 15 objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur ledit terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
19. Serveur de scènes multimédia destinées à être restituées sur au moins un terminal, lesdites scènes multimédia comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une 30 opération prédéterminée associée à un objet; - au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
20. Objet d'une scène multimédia destinée à être restituée sur au moins un terminal, ladite scène multimédia comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'il s'agit d'un objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
FR0503048A 2005-03-29 2005-03-29 Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants Expired - Fee Related FR2883996B1 (fr)

Priority Applications (10)

Application Number Priority Date Filing Date Title
FR0503048A FR2883996B1 (fr) 2005-03-29 2005-03-29 Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants
US11/910,147 US20080195959A1 (en) 2005-03-29 2006-03-27 Method Of Constructing Multimedia Scenes Comprising At Least One Pointer Object, And Corresponding Scene Rendering Method, Terminal, Computer Programs, Server And Pointer Object
EP06725330A EP1864200A1 (fr) 2005-03-29 2006-03-27 Procédé de construction de scènes multimédia comprenant au moins un objet pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants
KR1020077025018A KR20080004541A (ko) 2005-03-29 2006-03-27 적어도 하나의 포인터 객체를 포함하는 멀티미디어 장면을구성하는 방법, 그리고 대응하는 장면을 재생하는 방법,단말, 컴퓨터 프로그램 그리고 서버 그리고 포인터 객체
CNA2006800099788A CN101151588A (zh) 2005-03-29 2006-03-27 构建包括至少一个指针对象的多媒体场景的方法和相应的场景渲染方法、终端、计算机程序、服务器和指针对象
AU2006228603A AU2006228603A1 (en) 2005-03-29 2006-03-27 Method of constructing multimedia scenes comprising at least one pointer object, and corresponding scene reproduction method, terminal, computer programmes, server and pointer object
CA002601643A CA2601643A1 (fr) 2005-03-29 2006-03-27 Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants
JP2008503490A JP2008535070A (ja) 2005-03-29 2006-03-27 少なくとも1つのポインタオブジェクトを備えるマルチメディアシーンを構成する方法、並びに対応するシーンレンダリング方法、端末、コンピュータプログラム、サーバ及びポインタオブジェクト
PCT/EP2006/061061 WO2006103209A1 (fr) 2005-03-29 2006-03-27 Procédé de construction de scènes multimédia comprenant au moins un objet pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants
IL185905A IL185905A0 (en) 2005-03-29 2007-09-11 Method of constructing multimedia scenes comprising at least one pointer object, and corresponding scene reproduction method, terminal, computer programmes, server and pointer object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0503048A FR2883996B1 (fr) 2005-03-29 2005-03-29 Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants

Publications (2)

Publication Number Publication Date
FR2883996A1 true FR2883996A1 (fr) 2006-10-06
FR2883996B1 FR2883996B1 (fr) 2008-05-30

Family

ID=35457087

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0503048A Expired - Fee Related FR2883996B1 (fr) 2005-03-29 2005-03-29 Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants

Country Status (10)

Country Link
US (1) US20080195959A1 (fr)
EP (1) EP1864200A1 (fr)
JP (1) JP2008535070A (fr)
KR (1) KR20080004541A (fr)
CN (1) CN101151588A (fr)
AU (1) AU2006228603A1 (fr)
CA (1) CA2601643A1 (fr)
FR (1) FR2883996B1 (fr)
IL (1) IL185905A0 (fr)
WO (1) WO2006103209A1 (fr)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054050A (ja) * 2009-09-03 2011-03-17 Sony Corp 情報処理装置、情報処理方法、プログラムおよび情報処理システム
CN102368297A (zh) * 2011-09-14 2012-03-07 北京英福生科技有限公司 一种用于识别被检测对象动作的设备、系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6442755B1 (en) * 1998-07-07 2002-08-27 United Video Properties, Inc. Electronic program guide using markup language

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5715416A (en) * 1994-09-30 1998-02-03 Baker; Michelle User definable pictorial interface for a accessing information in an electronic file system
US20020056136A1 (en) * 1995-09-29 2002-05-09 Wistendahl Douglass A. System for converting existing TV content to interactive TV programs operated with a standard remote control and TV set-top box
US6057854A (en) * 1997-03-07 2000-05-02 Micrografx, Inc. System and method of providing interactive vector graphics over a network
US7577978B1 (en) * 2000-03-22 2009-08-18 Wistendahl Douglass A System for converting TV content to interactive TV game program operated with a standard remote control and TV set-top box
US6889062B2 (en) * 2001-10-04 2005-05-03 Nokia Corporation System and protocol for providing pictures in wireless communication messages
US7908570B2 (en) * 2003-12-05 2011-03-15 Trading Technologies International, Inc. Method and system for displaying a cursor on a trading screen

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6442755B1 (en) * 1998-07-07 2002-08-27 United Video Properties, Inc. Electronic program guide using markup language

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Bare-hand human-computer interaction", PROCEEDINGS OF THE 2001 WORKSHOP ON PERCEPTIVE USER INTERFACES, 15 November 2001 (2001-11-15) - 16 November 2001 (2001-11-16), Orlando, Florida, XP002359773, Retrieved from the Internet <URL:http://doi.acm.org/10.1145/971478.971513> [retrieved on 20051216] *
ISO/IEC JTC 1/SC 29/WG 11: "Combined CD Registration and CD Consideration Ballot on ISO/IEC CD 14496-20: Information technology -- Coding of audio-visual objects -- Part 20: Lightweight Application Scene Representation (LASeR) and Simple Aggregation Format (SAF)", 16 October 2004 (2004-10-16), XP002359771, Retrieved from the Internet <URL:http://web.archive.org/web/20041016005918/http://www.itscj.ipsj.or.jp/sc29/open/29view/29n6148t.doc> [retrieved on 20051216] *
WORLD WIDE WEB CONSORTIUM: "Scalable Vector Graphics (SVG) 1.1 Specification, Chapter 16: Interactivity", 14 January 2003 (2003-01-14), XP002359772, Retrieved from the Internet <URL:http://www.w3.org/TR/SVG/interact.html> [retrieved on 20051214] *

Also Published As

Publication number Publication date
US20080195959A1 (en) 2008-08-14
EP1864200A1 (fr) 2007-12-12
AU2006228603A1 (en) 2006-10-05
CN101151588A (zh) 2008-03-26
KR20080004541A (ko) 2008-01-09
JP2008535070A (ja) 2008-08-28
CA2601643A1 (fr) 2006-10-05
FR2883996B1 (fr) 2008-05-30
WO2006103209A1 (fr) 2006-10-05
IL185905A0 (en) 2008-01-20

Similar Documents

Publication Publication Date Title
US7725839B2 (en) Three-dimensional active file explorer
US7568165B2 (en) Sidebar engine, object model and schema
US7178111B2 (en) Multi-planar three-dimensional user interface
TWI596538B (zh) 應用程式開啟狀況提供技術
EP1227442B1 (fr) Procédé de traitement d&#39;images en 2D appliquées sur des objets en 3D
EP2336867B1 (fr) Procédé et dispositif de contrôle de l&#39;affichage sur un dispositif d&#39;affichage d&#39;une pluralité d&#39;éléments d&#39;une liste
EP2005729A1 (fr) Procede de restitution d&#39;au moins une scene multimedia
US20150248722A1 (en) Web based interactive multimedia system
US20190272086A1 (en) Devices, methods, and computer program for displaying user interfaces
EP2898391B1 (fr) Methode de selection de mode d&#39;interactivite
EP3497674B1 (fr) Système de composition ou de modification de séquences de réalité virtuelle, procédé de composition et système de lecture desdites séquences
FR2883996A1 (fr) Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d&#39;ordinateur, serveur et objet pointeur correspondants
Banks Dialogues: Trust in design
EP2469397A1 (fr) Traitement perfectionné de données d&#39;interface graphique
JP5430828B2 (ja) ビデオ再生システムにおいてマウスの遠隔制御装置の機能を実現するためのボタンマップを生成するシステムおよび方法
FR3064767B1 (fr) Systeme informatique et procede correspondant pour la gestion de contenus
WO2007031530A1 (fr) Procede de controle d&#39;interface d&#39;une pluralite de types de terminaux de radiocommunication par la definition d&#39;evenements abstraits, programme d&#39;ordinateur, signal, et terminal correspondants
FR3071639A1 (fr) Procede d’exploitation d’un dispositif informatique et dispositif informatique mettant en œuvre celui-ci
Lee et al. Mac OS X Leopard: beyond the manual
EP2634683B1 (fr) Procédé de navigation au sein d&#39;un contenu affichable à l&#39;aide de commandes de navigation, dispositif de navigation et programme associé
WO2024033192A1 (fr) Procédé et dispositif de construction d&#39;une base de connaissance dans le but d&#39;utiliser de manière transverse des fonctions applicatives d&#39;une pluralité de logiciels
EP1849299B1 (fr) Procede et dispositif d&#39;edition de programme audiovisuel
EP2466443A1 (fr) Traitement de données d&#39;interface graphique perfectionné.
Hartanto Mobilo: A Java-based mobile integrated development environment

Legal Events

Date Code Title Description
CA Change of address
PLFP Fee payment

Year of fee payment: 12

ST Notification of lapse

Effective date: 20171130