FR2883996A1 - Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants - Google Patents
Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants Download PDFInfo
- Publication number
- FR2883996A1 FR2883996A1 FR0503048A FR0503048A FR2883996A1 FR 2883996 A1 FR2883996 A1 FR 2883996A1 FR 0503048 A FR0503048 A FR 0503048A FR 0503048 A FR0503048 A FR 0503048A FR 2883996 A1 FR2883996 A1 FR 2883996A1
- Authority
- FR
- France
- Prior art keywords
- pointer
- terminal
- multimedia
- scene
- assigned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000009471 action Effects 0.000 claims abstract description 53
- 230000033001 locomotion Effects 0.000 claims description 11
- 238000010200 validation analysis Methods 0.000 claims description 9
- 238000006073 displacement reaction Methods 0.000 claims description 8
- 238000009877 rendering Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 230000000977 initiatory effect Effects 0.000 claims 1
- 230000006399 behavior Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000011449 brick Substances 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0489—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0489—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
- G06F3/04892—Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
L'invention concerne un procédé de construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, dans lequel au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant :- au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet ;- au moins une action de déplacement dudit objet pointeur,de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
Description
Procédé de construction de scènes multimédia comprenant au moins un objet
pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants.
Le domaine de l'invention est celui de la création et de la restitution de scènes multimédia, sur tout type de terminaux, et en particulier sur les terminaux ne possédant pas en interne un système d'exploitation ( Operating system , ou OS en anglais) offrant toutes les possibilités d'interactivité disponibles sur des micro-ordinateurs classiques.
Plus précisément, l'invention concerne l'amélioration de l'interactivité, pour de tels terminaux, tels que des radio-téléphones, des organiseurs électroniques (PDA), etc. Une scène multimédia, au sens du présent document, est constituée d'objets présentant chacun diverses caractéristiques (tailles, couleurs, animation, contenu,...), selon les techniques connues, qui ont fait notamment l'objet de normes comme par exemple SVG ( Scalable Vector Graphics , langage de description vectorielle de graphiques) ou VRML ( Virtual Reality Modeling Language , langage de modélisation de réalité virtuelle).
De telles scènes peuvent être programmées par un développeur, de façon à permettre une interactivité avec l'utilisateur d'un terminal sur laquelle elle est jouée. Une commande particulière de l'utilisateur peut entraîner une action particulière (sélection ou déplacement d'un objet, lancement d'une vidéo,...). Ces actions, ou opérations, peuvent notamment correspondre à des sensors , selon la terminologie VRML ou MPEG.
Sur les micro-ordinateurs, outre le clavier, l'utilisateur dispose d'une souris, ou de moyens similaires, qui lui permet de déplacer un pointeur sur l'écran, et de cliquer, pour sélectionner un objet ou lancer une opération. Cet élément d'interface est très ergonomique, et donc très utilisé.
Cependant, bien que certains radiotéléphones intègrent une fonction similaire, sous la forme d'un stylet ou d'un autre dispositif de contrôle (tel qu'une molette ou un joystick ), cette technique est loin d'être généralisée sur les appareils de petite taille et/ou à coût réduit.
Dans ce cas, le terminal ne dispose ni de l'interface adaptée ni, a fortiori, des moyens logiciels permettant le contrôle d'une telle interface. En d'autres 5 termes, le système d'exploitation ne peut pas interpréter des commandes adaptées à un pointeur dont il ne dispose pas.
En conséquence, un développeur de scènes multimédia voulant proposer une scène pouvant être jouée sur tout type de terminaux n'a que deux solutions, qui ne sont satisfaisantes ni l'une ni l'autre.
Selon une première solution, il développe la scène sans utiliser l'interface homme-machine associée à la gestion d'un pointeur. Il en résultera une complexité accrue d'utilisation et de programmation, et une insatisfaction des utilisateurs de terminaux disposant d'une telle interface.
Selon une seconde solution, il développe deux versions de la scène, avec et sans gestion de pointeur. Dans ce cas, le temps de développement est bien sûr augmenté, et les deux versions ne réagissent pas exactement pareil. En outre, il faut prévoir une gestion particulière de contrôle en fonction des capacités particulières du terminal, pour choisir quelle version utiliser.
En outre, les utilisateurs de terminaux sans gestion de pointeur ne disposent que d'une version dégradée de la scène, qui risque de ne pas les satisfaire, et certaines fonctions ne pourront peut être pas être mises en oeuvre.
L'invention a notamment pour objectif de pallier ces différents inconvénients.
Plus précisément, un objectif de l'invention est de fournir une technique de construction et de restitution de scènes multimédia permettant de s'affranchir de l'absence de gestion d'une interface de type pointeur dans le système d'exploitation d'un terminal.
En d'autres termes, l'invention a pour objectif de fournir une technique de mise en oeuvre de scènes multimédia, qui ne pénalise ni les utilisateurs équipés d'un terminal disposant d'une gestion de pointeur, ni les utilisateurs équipés d'un terminal n'en disposant pas.
Un autre objectif de l'invention est de fournir une telle technique, qui n'oblige pas un développeur à développer plusieurs versions d'une même scène, ni à mettre en oeuvre un développement complexe.
L'invention a également pour objectif de fournir une telle technique, qui puisse être mise en oeuvre sur la plupart des terminaux, avec ou sans gestion de pointeur intégré, sans modification matérielle ( hardware ), aussi bien sur de nouveaux terminaux que sur des terminaux déjà diffusés.
Encore un autre objectif de l'invention est de fournir une telle technique, qui ne soit pas coûteuse, que ce soit en temps de traitement ou en capacité de mémoire.
Ces objectifs, ainsi que d'autres qui apparaîtront plus clairement par la suite, sont atteints à l'aide d'un procédé de construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène.
Selon l'invention, au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
Ainsi, selon l'invention, la gestion du pointeur n'est pas assurée, classiquement, par le système d'exploitation du terminal, mais par la scène multimédia elle-même. On peut ainsi disposer, de façon simple et efficace, de la mise en oeuvre d'un pointeur, et des actions associées, même sur un terminal n'intégrant pas cette fonction dans son système d'exploitation.
En d'autres termes, la gestion du pointeur est déportée dans la scène, ce qui permet non seulement d'en disposer dans un terminal qui n'en disposait pas à l'origine, mais également de ne développer qu'une seule scène optimisée, pour tous les terminaux.
Cette approche reste par ailleurs particulièrement simple: elle consiste essentiellement en la création d'un nouveau type d'objet, ou plus précisément d'une nouvelle propriété d'objet, pour les scènes multimédia.
Selon une première approche avantageuse de l'invention, ladite propriété de pointeur peut être affectée à tout type d'objet de ladite scène multimédia ayant une composante visuelle.
Cela permet non seulement de disposer de pointeurs classiques (flèches par exemple), mais plus généralement de tous types de pointeurs, y compris des objets graphiques, des vidéos... sans complexité particulière.
Selon une seconde approche de l'invention, ladite propriété de pointeur peut n'être affectée qu'à un objet de ladite scène multimédia d'un type appartenant à une sélection prédéterminée de types d'objet.
De façon préférentielle, au moins une desdites actions de déplacement et/ou de sélection est associée à des appuis sur une touche du clavier dudit terminal.
Bien sûr, d'autres modes de transmissions des actions peuvent être envisagées, en fonction des moyens équipant le terminal (y compris, s'il en dispose, de ses propres moyens de gestion de pointeur).
Préférentiellement, ladite scène comprend au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés.
Pour faciliter la détection de cette superposition, on prévoit avantageusement que ledit objet pointeur comprend un point spécifique de pointage, dit point focal.
Selon un mode de réalisation particulier de l'invention, ledit point focal est l'origine d'un système de coordonnées locales dudit objet pointeur.
Préférentiellement, l'invention prévoit au moins une étape de superposition dudit point focal et d'un point d'un desdits objets sensibles.
De façon avantageuse, ladite étape de superposition est utilisée pour la détection d'une entrée dudit pointeur sur un desdits objets sensibles et/ou d'une sortie dudit pointeur par rapport à un desdits objets sensibles.
Ainsi, une entrée ou une sortie peut entraîner une transmission d'un événement correspondant audit objet sensible.
Notamment, une action de sélection effectuée lors d'une superposition entraîne avantageusement la transmission d'un événement de validation à l'objet sensible concerné.
Selon un aspect particulier de l'invention, on peut prévoir que lesdits déplacements s'effectuent par blocs de N pixels, N étant un entier inférieur à la plus petite dimension d'un desdits objets sensibles présents dans la scène.
De façon préférentielle, lesdites opérations comprennent des événements correspondant à des sémantiques d'action prédéterminées.
Il peut notamment s'agir d'actions de plus haut niveau, telles que le glisser-déplacer ou les sensors , selon la terminologie VRML.
L'invention concerne également les signaux portant au moins une scène multimédia produite selon le procédé décrit ci-dessus, et destinée à être restituée sur au moins un terminal.
L'invention concerne encore les programmes d'ordinateur comprenant des instructions de programme pour la construction de telles scènes multimédia.
Selon un autre aspect de l'invention, celle-ci concerne également les programmes d'ordinateur comprenant des instructions de programme pour l'exécution de ces scènes multimédia.
Un tel programme peut être implanté sur un terminal, par exemple sous la forme d'un composant à télécharger ( plug-in en anglais), qui viendra compléter un logiciel permettant de jouer des scènes multimédia, déjà présent sur le terminal. Il peut également, bien sûr, faire partie intégrante d'un tel logiciel.
L'invention concerne aussi les terminaux multimédia permettant la restitution de telles scènes multimédia, et le procédé de restitution de scènes multimédia correspondant.
Selon encore un autre aspect, l'invention concerne les serveurs contenant au moins une telle scène multimédia, et les supports de données (disques, mémoires...) portant de telles scènes.
Enfin, l'invention concerne un objet pointeur d'une telle scène multimédia en lui-même. A un tel objet est affecté, selon l'invention, une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; - au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
Un tel objet, en tant que constituant essentiel clairement identifiable, est un composant intermédiaire d'une scène multimédia selon l'invention, qui présente en lui-même un effet technique nouveau et inventif.
D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation préférentiel de l'invention, donnée à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels: -la figure 1 présente un exemple de terminal, en l'occurrence un radiotéléphone, restituant une scène multimédia présentant un plan d'une ville et comprenant un objet pointeur selon l'invention; - la figure 2 est un organigramme simplifié d'un procédé de construction de scènes multimédia selon l'invention; - la figure 3 est un organigramme simplifié d'un procédé de restitution de scènes multimédia selon l'invention; la figure 4 illustre un autre exemple de scènes multimédia selon l'invention, mettant en oeuvre simultanément trois objets de type pointeur.
L'exemple de la figure 1 présente un radio-téléphone simple, comprenant un clavier 11 et un écran 12, mais aucun moyen de pilotage d'un pointeur (stylet, souris, écran tactile...), et aucun élément logiciel, dans son système d'exploitation, permettant la gestion d'un pointeur.
Le terminal comprend bien sûr, dans sa mémoire, un logiciel de restitution de scènes multimédia, par exemple au format SVG, intégrant la gestion la propriété de curseur selon l'invention.
Sur l'exemple illustré en figure 1, une scène multimédia a été téléchargée. Elle comporte une carte d'une ville représentée à une échelle telle que deux restaurants R1, R2, trois parkings P1, P2, P3 et une poste P sont visibles sur l'écran 12. La carte est donc constituée d'une image et des 6 objets sensibles à une interaction de type souris, ou pointeur, situés sur les restaurants, parkings et poste.
Un objet polygonal 13 à sept côtés représente une flèche dont la pointe est tournée vers le haut et la gauche. Cet objet pointeur peut être déplacé sur l'ensemble de l'écran.
L'invention repose sur la création de cet objet pointeur, des objets sensibles, et de la gestion correspondante.
Ainsi, l'auteur de la scène a créé cet objet flèche 13 avec un attribut particulier, par exemple: isVi rtualPointer= true .
Cet attribut confère à l'objet flèche 13 un comportement de pointeur virtuel. Il se comporte comme le pointeur matériel disponible sur les systèmes opérateurs qui le supporte.
L'objet flèche 13 a une certaine taille, et pour que les opérations de sélection soient précises, un point de l'objet flèche (en l'occurrence la pointe de la flèche) est choisi comme point focal 131, c'est-à-dire le point se trouvant sous la pointe de la flèche en haut et à gauche de l'objet. Ce point est l'origine du système de coordonnées locales de l'objet flèche, c'est-à-dire le point de coordonnée 0,0.
Pour contrôler le déplacement de ce pointeur virtuel, l'auteur de la scène a créé quatre actions liées à quatre touches du clavier. La touche 2 déclenche une action qui déplace l'objet flèche 131 de cinq pixels (par exemple) vers le haut. De même, les touches 6 , 8 et 4 déclenchent une action qui déplace l'objet flèche 13 de cinq pixels vers la droite, le bas et la gauche, respectivement.
Le choix d'un pas de 5 pixels suppose que les objets sensibles sont d'une taille supérieure à 5 pixels, pour que le déplacement du pointeur virtuel ne saute pas un des objets sensibles. En d'autres termes, les déplacements s'effectuent préférentiellement par blocs de N pixels, N étant un entier inférieur à la plus petite dimension des objets sensibles présents dans la scène.
Pour gérer la sensibilité des objets sensibles au pointeur virtuel, le lecteur multimédia vérifie, à chaque déplacement de l'objet flèche, si le point focal du pointeur virtuel remplit une des conditions ci-après: le point focal n'était pas sur un objet sensible avant le déplacement, et il se trouve sur un objet sensible après le déplacement, auquel cas le lecteur génère un événement entrée_du pointeur et l'envoie à l'objet pointé ; - le point focal était sur un objet sensible avant le déplacement, et il se trouve sur une zone non sensible après le déplacement, auquel cas le lecteur génère un événement sortie_de_ pointeur et l'envoie à l'objet anciennement pointé ; le point focal était sur un objet sensible A avant le déplacement, et se retrouve sur un objet sensible B après le déplacement, auquel cas le lecteur génère un événement sortie_de_ pointeur et l'envoie à l'objet A, puis génère un événement entrée_du pointeur et l'envoie à l'objet B. Dans l'exemple illustré en figure 1, lorsque le pointeur 13, et plus précisément le point focal 131 est superposé à l'objet restaurant R1, celui-ci reçoit un événement entrée_du_pointeur, qui peut par exemple entraîner une modification de l'objet tel qu'un changement de couleurs ou de taille, ou l'affichage d'informations (heures d'ouverture, menu...). Un événement sortie_de_ pointeur entraîne un retour de l'objet à son état précédent.
L'invention permet également d'émuler une opération de sélection, ou clic . Dans l'exemple illustré, une touche du clavier est associée par défaut par le lecteur à la validation, par exemple la touche 5 .
Lorsque cette touche est appuyée, le lecteur vérifie si le point focal du pointeur virtuel est situé sur l'un des objets sensibles. Si c'est le cas, le lecteur envoie un événement validation à l'objet pointé. Par exemple, le menu du restaurant R1 ne s'affiche que si cet événement validation a été reçu. D'autres opérations (appel téléphonique par exemple) sont bien sûr possibles, et sont liées uniquement à la programmation par l'auteur.
Si ce n'est pas le cas, le lecteur envoie l'événement validation au gestionnaire de la validation par défaut si l'auteur en a défini un.
Plusieurs événements validation différents peuvent bien sûr être définis, et être associés à des combinaisons de touches, à différentes touches, à des appuis multiples ( double clic ) et/ou à l'exécution d'une ou plusieurs opérations précédentes.
La figure 2 présente, de façon simplifiée, un organigramme de la mise en oeuvre du procédé de construction de l'invention, par un auteur, ou un développeur. Le séquencement illustré par cet organigramme est purement indicatif: l'ordre des étapes peut être modifié, des étapes peuvent être supprimées ou ajoutées, et certaines seront généralement mises en oeuvre simultanément.
L'auteur définit tout d'abord (21) une scène multimédia, et notamment un ensemble d'objets ayant chacun leurs propriétés. Dans ce cadre, il affecte (22) la propriété de pointeur (isVirtualPointer= crue ) a un ou plusieurs objets, puis il associe à chaque objet pointeur une gestion des déplacements 23, par exemple sous la forme d'un déplacement de N pixels à chaque appui de touches prédéterminées.
Ensuite, l'auteur peut identifier (24) un ou plusieurs objets sensibles, puis associer (25) à ceux-ci des actions à effectuer, selon que le pointeur entre sur, reste sur et/ou sort de l'objet sensible. Ces actions peuvent être simples, complexes et multiples.
Il peut notamment s'agir d'événements correspondant à des sémantiques d'action de plus haut niveau, tel que le glisser-déplacer ou les sensors VRML. Par exemple, le passage du pointeur sur un objet sensible peut entraîner sa mise en mouvement (rotation d'une mappemonde par exemple), permettre son déplacement (soit linéairement, sous la forme d'un glisser-déplacer , soit de façon quelconque (rotation, déplacement en profondeur...)), ou le lancement d'une opération particulière (ouverture d'une autre scène, ou d'un menu, lancement ou arrêt d'une vidéo,...).
L'auteur programme également (26) l'émulation d'un ou plusieurs clics , associés le cas échéant à différents objets, et à une commande par défaut, lorsque le pointeur n'est pas superposé à un objet sensible.
L'auteur peut également programmer une gestion des bords de l'image 27, permettant le déplacement de cette image lorsque le pointeur vient buter sur un bord de l'écran. Dans l'exemple de la figure 1, ceci permet ainsi de visualiser une autre partie du plan. Une gestion de bords et/ou de coins peut également permettre d'associer des actions spécifiques à un bord ou un coin.
La figure 3 illustre, de la même façon, le procédé de restitution d'une scène multimédia selon l'invention, tel qu'il peut être mis en oeuvre par exemple dans le terminal de la figure 1.
Le terminal reçoit donc la scène (31), et les objets qui la composent, programmés selon le procédé de la figure 2. Il scrute ensuite le clavier (32), et contrôle le déplacement de l'objet pointeur en conséquence (33).
Il détecte par ailleurs les superpositions (34) du pointeur (plus précisément son point focal) et d'un objet sensible, et génère les opérations associées à une entrée sur ou une sortie d'un objet sensible.
Enfin, il assure l'émulation d'un clic 35, ou le cas échéant de plusieurs types de clics , et lance les opérations associées, en fonction de la position du pointeur.
De nombreuses variantes de mises en oeuvre peuvent bien sûr être envisagée.
Notamment, la scène multimédia peut être quelconque, pourvu qu'elle comporte un certain nombre d'objets sensibles au pointeur, comme des boutons, un formulaire, une image avec des régions d'intérêt, un plateau de jeux avec des briques ou des soucoupes volantes...
A titre d'exemple, la figure 4 illustre un exemple concernant une table de mixage. Trois entrées sonores sont disponibles, et l'auteur a défini trois objets pointeurs 41, 42 et 43, correspondant à des curseurs. Les touches 1 et 7 , 2 et 8 , et 3 et 9 permettent respectivement le déplacement de ces curseurs.
L'objet auquel l'auteur attribue un comportement de pointeur virtuel peut donc être quelconque pourvu qu'il comporte une composante visuelle: ce peut être un polygone, une image, un groupe de polygones, un texte, un groupe d'objets graphiques, une vidéo...
Le point focal du pointeur virtuel peut être déplacé n'importe où par rapport à la forme visuelle du pointeur, par exemple en créant cette forme visuelle dans un objet transformation (comme un <g> en SVG).
Le choix du point focal comme origine du système de coordonnées locales de l'objet pointeur est un choix simple, mais tout autre choix est possible, y compris un choix au cas par cas en signalant explicitement la position du point focal dans l'objet déclaré comme pointeur virtuel, par exemple par un attribut focalPointPosition= 10 10 .
Bien entendu, le nom et la valeur de isVirtualPointer= crue sont remplaçables par n'importe quelle combinaison non ambiguë conférant la sémantique indiquée à un objet graphique, ou validant une telle sémantique si elle est définie par défaut sur tous les objets.
Les actions assurant le déplacement du curseur ne sont pas nécessairement des pressions de touches, mais toute action utilisateur par un moyen disponible, clavier, touches spéciales, reconnaissance vocale, joystick, roulette/molette, ...
Les déplacements du pointeur virtuel peuvent réguliers ou non, isotropes ou non, varier dans le temps ou non.
Les objets sensibles peuvent être statiques ou mouvants (comme dans un jeu).
Les événements entrée_dupointeur, sortie_du_pointeur et validation peuvent être implémentés tous ou en partie, et d'autres événements plus complexes peuvent être définis de la même façon: distinction entre appui et relâchement, comportement de glisser-déplacer , ...
Claims (20)
1. Procédé de construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
2. Procédé selon la revendication 1, caractérisé en ce que ladite propriété de pointeur peut être affectée à tout type d'objet de ladite scène multimédia ayant une composante visuelle.
3. Procédé selon la revendication 1, caractérisé en ce que ladite propriété de pointeur ne peut être affectée qu'à un objet de ladite scène multimédia d'un type appartenant à une sélection prédéterminée de types d'objets.
4. Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce qu'au moins une desdites actions de déplacement et/ou de sélection sont associées à des appuis sur une touche du clavier dudit terminal.
5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce que ladite scène comprend au moins un objet, dit objet sensible, destiné à réagir avec ledit objet pointeur, lorsqu'ils sont au moins en partie superposés.
6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce que ledit objet pointeur comprend un point spécifique de pointage, dit point focal.
7. Procédé selon la revendication 6, caractérisé en ce que ledit point focal est l'origine d'un système de coordonnées locales dudit objet pointeur.
8. Procédé selon les revendications 5 et 6, caractérisé en ce qu'il comprend au moins une étape de superposition dudit point focal et d'un point d'un desdits objets sensibles.
9. Procédé selon la revendication 8, caractérisé en ce que ladite étape de superposition est utilisée pour la détection d'une entrée dudit pointeur sur un desdits objets sensibles et/ou d'une sortie dudit pointeur par rapport à un desdits objets sensibles.
10. Procédé selon la revendication 9, caractérisé en ce qu'une entrée ou une sortie entraîne une transmission d'un événement correspondant audit objet sensible.
11. Procédé selon l'une quelconque des revendications 9 et 10, caractérisé en ce qu'une action de sélection effectuée lors d'une superposition entraîne la transmission d'un événement de validation à l'objet sensible concerné.
12. Procédé selon l'une quelconque des revendications 5 à 11, caractérisé en ce que lesdits déplacements s'effectuent par blocs de N pixels, N étant un entier inférieur à la plus petite dimension d'un desdits objets sensibles présents dans la scène.
13. Procédé selon l'une quelconque des revendications 1 à 12, caractérisé en ce que lesdites opérations comprennent des événements correspondant à des sémantiques d'action prédéterminées.
14. Signal portant au moins une scène multimédia destinée à être restituée sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
15. Programme d'ordinateur comprenant des instructions de programme pour la construction de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
16. Programme d'ordinateur comprenant des instructions de programme pour l'exécution de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
17. Terminal multimédia permettant la restitution de scènes multimédia destinées à être restituées sur au moins un terminal, comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'il comprend des moyens de traitement, dans une scène multimédia, d'au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: - au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur ledit terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
18. Procédé de restitution de scènes multimédia sur un terminal, lesdites scènes multimédia comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit 15 objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur ledit terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
19. Serveur de scènes multimédia destinées à être restituées sur au moins un terminal, lesdites scènes multimédia comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'au moins une desdites scènes comprend au moins un objet, dit objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une 30 opération prédéterminée associée à un objet; - au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
20. Objet d'une scène multimédia destinée à être restituée sur au moins un terminal, ladite scène multimédia comprenant au moins un objet multimédia auquel peuvent être affectées des propriétés, permettant de contrôler son comportement dans ladite scène, caractérisé en ce qu'il s'agit d'un objet pointeur, auquel est affecté une propriété de pointeur telle qu'il réagisse à des actions effectuées par un utilisateur d'un terminal, comprenant: au moins une action de sélection d'un objet et/ou de lancement d'une opération prédéterminée associée à un objet; au moins une action de déplacement dudit objet pointeur, de façon à simuler, sur tout terminal, le fonctionnement d'un pointeur, même si ledit terminal n'est pas équipé de moyens de contrôle correspondants.
Priority Applications (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0503048A FR2883996B1 (fr) | 2005-03-29 | 2005-03-29 | Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants |
US11/910,147 US20080195959A1 (en) | 2005-03-29 | 2006-03-27 | Method Of Constructing Multimedia Scenes Comprising At Least One Pointer Object, And Corresponding Scene Rendering Method, Terminal, Computer Programs, Server And Pointer Object |
EP06725330A EP1864200A1 (fr) | 2005-03-29 | 2006-03-27 | Procédé de construction de scènes multimédia comprenant au moins un objet pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants |
KR1020077025018A KR20080004541A (ko) | 2005-03-29 | 2006-03-27 | 적어도 하나의 포인터 객체를 포함하는 멀티미디어 장면을구성하는 방법, 그리고 대응하는 장면을 재생하는 방법,단말, 컴퓨터 프로그램 그리고 서버 그리고 포인터 객체 |
CNA2006800099788A CN101151588A (zh) | 2005-03-29 | 2006-03-27 | 构建包括至少一个指针对象的多媒体场景的方法和相应的场景渲染方法、终端、计算机程序、服务器和指针对象 |
AU2006228603A AU2006228603A1 (en) | 2005-03-29 | 2006-03-27 | Method of constructing multimedia scenes comprising at least one pointer object, and corresponding scene reproduction method, terminal, computer programmes, server and pointer object |
CA002601643A CA2601643A1 (fr) | 2005-03-29 | 2006-03-27 | Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants |
JP2008503490A JP2008535070A (ja) | 2005-03-29 | 2006-03-27 | 少なくとも1つのポインタオブジェクトを備えるマルチメディアシーンを構成する方法、並びに対応するシーンレンダリング方法、端末、コンピュータプログラム、サーバ及びポインタオブジェクト |
PCT/EP2006/061061 WO2006103209A1 (fr) | 2005-03-29 | 2006-03-27 | Procédé de construction de scènes multimédia comprenant au moins un objet pointeur, procédé de restitution de scènes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants |
IL185905A IL185905A0 (en) | 2005-03-29 | 2007-09-11 | Method of constructing multimedia scenes comprising at least one pointer object, and corresponding scene reproduction method, terminal, computer programmes, server and pointer object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0503048A FR2883996B1 (fr) | 2005-03-29 | 2005-03-29 | Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2883996A1 true FR2883996A1 (fr) | 2006-10-06 |
FR2883996B1 FR2883996B1 (fr) | 2008-05-30 |
Family
ID=35457087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0503048A Expired - Fee Related FR2883996B1 (fr) | 2005-03-29 | 2005-03-29 | Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants |
Country Status (10)
Country | Link |
---|---|
US (1) | US20080195959A1 (fr) |
EP (1) | EP1864200A1 (fr) |
JP (1) | JP2008535070A (fr) |
KR (1) | KR20080004541A (fr) |
CN (1) | CN101151588A (fr) |
AU (1) | AU2006228603A1 (fr) |
CA (1) | CA2601643A1 (fr) |
FR (1) | FR2883996B1 (fr) |
IL (1) | IL185905A0 (fr) |
WO (1) | WO2006103209A1 (fr) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011054050A (ja) * | 2009-09-03 | 2011-03-17 | Sony Corp | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
CN102368297A (zh) * | 2011-09-14 | 2012-03-07 | 北京英福生科技有限公司 | 一种用于识别被检测对象动作的设备、系统及方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6442755B1 (en) * | 1998-07-07 | 2002-08-27 | United Video Properties, Inc. | Electronic program guide using markup language |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5715416A (en) * | 1994-09-30 | 1998-02-03 | Baker; Michelle | User definable pictorial interface for a accessing information in an electronic file system |
US20020056136A1 (en) * | 1995-09-29 | 2002-05-09 | Wistendahl Douglass A. | System for converting existing TV content to interactive TV programs operated with a standard remote control and TV set-top box |
US6057854A (en) * | 1997-03-07 | 2000-05-02 | Micrografx, Inc. | System and method of providing interactive vector graphics over a network |
US7577978B1 (en) * | 2000-03-22 | 2009-08-18 | Wistendahl Douglass A | System for converting TV content to interactive TV game program operated with a standard remote control and TV set-top box |
US6889062B2 (en) * | 2001-10-04 | 2005-05-03 | Nokia Corporation | System and protocol for providing pictures in wireless communication messages |
US7908570B2 (en) * | 2003-12-05 | 2011-03-15 | Trading Technologies International, Inc. | Method and system for displaying a cursor on a trading screen |
-
2005
- 2005-03-29 FR FR0503048A patent/FR2883996B1/fr not_active Expired - Fee Related
-
2006
- 2006-03-27 JP JP2008503490A patent/JP2008535070A/ja active Pending
- 2006-03-27 US US11/910,147 patent/US20080195959A1/en not_active Abandoned
- 2006-03-27 KR KR1020077025018A patent/KR20080004541A/ko not_active Application Discontinuation
- 2006-03-27 CA CA002601643A patent/CA2601643A1/fr not_active Abandoned
- 2006-03-27 CN CNA2006800099788A patent/CN101151588A/zh active Pending
- 2006-03-27 WO PCT/EP2006/061061 patent/WO2006103209A1/fr active Application Filing
- 2006-03-27 EP EP06725330A patent/EP1864200A1/fr not_active Ceased
- 2006-03-27 AU AU2006228603A patent/AU2006228603A1/en not_active Abandoned
-
2007
- 2007-09-11 IL IL185905A patent/IL185905A0/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6442755B1 (en) * | 1998-07-07 | 2002-08-27 | United Video Properties, Inc. | Electronic program guide using markup language |
Non-Patent Citations (3)
Title |
---|
"Bare-hand human-computer interaction", PROCEEDINGS OF THE 2001 WORKSHOP ON PERCEPTIVE USER INTERFACES, 15 November 2001 (2001-11-15) - 16 November 2001 (2001-11-16), Orlando, Florida, XP002359773, Retrieved from the Internet <URL:http://doi.acm.org/10.1145/971478.971513> [retrieved on 20051216] * |
ISO/IEC JTC 1/SC 29/WG 11: "Combined CD Registration and CD Consideration Ballot on ISO/IEC CD 14496-20: Information technology -- Coding of audio-visual objects -- Part 20: Lightweight Application Scene Representation (LASeR) and Simple Aggregation Format (SAF)", 16 October 2004 (2004-10-16), XP002359771, Retrieved from the Internet <URL:http://web.archive.org/web/20041016005918/http://www.itscj.ipsj.or.jp/sc29/open/29view/29n6148t.doc> [retrieved on 20051216] * |
WORLD WIDE WEB CONSORTIUM: "Scalable Vector Graphics (SVG) 1.1 Specification, Chapter 16: Interactivity", 14 January 2003 (2003-01-14), XP002359772, Retrieved from the Internet <URL:http://www.w3.org/TR/SVG/interact.html> [retrieved on 20051214] * |
Also Published As
Publication number | Publication date |
---|---|
US20080195959A1 (en) | 2008-08-14 |
EP1864200A1 (fr) | 2007-12-12 |
AU2006228603A1 (en) | 2006-10-05 |
CN101151588A (zh) | 2008-03-26 |
KR20080004541A (ko) | 2008-01-09 |
JP2008535070A (ja) | 2008-08-28 |
CA2601643A1 (fr) | 2006-10-05 |
FR2883996B1 (fr) | 2008-05-30 |
WO2006103209A1 (fr) | 2006-10-05 |
IL185905A0 (en) | 2008-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7725839B2 (en) | Three-dimensional active file explorer | |
US7568165B2 (en) | Sidebar engine, object model and schema | |
US7178111B2 (en) | Multi-planar three-dimensional user interface | |
TWI596538B (zh) | 應用程式開啟狀況提供技術 | |
EP1227442B1 (fr) | Procédé de traitement d'images en 2D appliquées sur des objets en 3D | |
EP2336867B1 (fr) | Procédé et dispositif de contrôle de l'affichage sur un dispositif d'affichage d'une pluralité d'éléments d'une liste | |
EP2005729A1 (fr) | Procede de restitution d'au moins une scene multimedia | |
US20150248722A1 (en) | Web based interactive multimedia system | |
US20190272086A1 (en) | Devices, methods, and computer program for displaying user interfaces | |
EP2898391B1 (fr) | Methode de selection de mode d'interactivite | |
EP3497674B1 (fr) | Système de composition ou de modification de séquences de réalité virtuelle, procédé de composition et système de lecture desdites séquences | |
FR2883996A1 (fr) | Procede de construction de scenes multimedia comprenant au moins un objet pointeur, procede de restitution de scenes, terminal, programmes d'ordinateur, serveur et objet pointeur correspondants | |
Banks | Dialogues: Trust in design | |
EP2469397A1 (fr) | Traitement perfectionné de données d'interface graphique | |
JP5430828B2 (ja) | ビデオ再生システムにおいてマウスの遠隔制御装置の機能を実現するためのボタンマップを生成するシステムおよび方法 | |
FR3064767B1 (fr) | Systeme informatique et procede correspondant pour la gestion de contenus | |
WO2007031530A1 (fr) | Procede de controle d'interface d'une pluralite de types de terminaux de radiocommunication par la definition d'evenements abstraits, programme d'ordinateur, signal, et terminal correspondants | |
FR3071639A1 (fr) | Procede d’exploitation d’un dispositif informatique et dispositif informatique mettant en œuvre celui-ci | |
Lee et al. | Mac OS X Leopard: beyond the manual | |
EP2634683B1 (fr) | Procédé de navigation au sein d'un contenu affichable à l'aide de commandes de navigation, dispositif de navigation et programme associé | |
WO2024033192A1 (fr) | Procédé et dispositif de construction d'une base de connaissance dans le but d'utiliser de manière transverse des fonctions applicatives d'une pluralité de logiciels | |
EP1849299B1 (fr) | Procede et dispositif d'edition de programme audiovisuel | |
EP2466443A1 (fr) | Traitement de données d'interface graphique perfectionné. | |
Hartanto | Mobilo: A Java-based mobile integrated development environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
CA | Change of address | ||
PLFP | Fee payment |
Year of fee payment: 12 |
|
ST | Notification of lapse |
Effective date: 20171130 |