FR3038402A1 - Procede et dispositif de mise en interaction de deux objets interactifs - Google Patents

Procede et dispositif de mise en interaction de deux objets interactifs Download PDF

Info

Publication number
FR3038402A1
FR3038402A1 FR1556117A FR1556117A FR3038402A1 FR 3038402 A1 FR3038402 A1 FR 3038402A1 FR 1556117 A FR1556117 A FR 1556117A FR 1556117 A FR1556117 A FR 1556117A FR 3038402 A1 FR3038402 A1 FR 3038402A1
Authority
FR
France
Prior art keywords
scene
interactive
objects
interaction
interactive objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1556117A
Other languages
English (en)
Inventor
Emmanuel Canteux
Bruno Lemoine
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1556117A priority Critical patent/FR3038402A1/fr
Publication of FR3038402A1 publication Critical patent/FR3038402A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L'invention vise un procédé de mise en interaction de deux objets interactifs. Ce procédé comprend : - une étape (E100) d'obtention d'une première scène (SCN1) acquise à l'aide d'au moins un capteur d'images vidéo ; - une étape (E200) d'affichage sur un écran d'un terminal d'une deuxième scène (SCN2) obtenue à partir de la première scène (SCN1), la deuxième scène (SCN2) comportant des objets interactifs ; - une étape (E260) de sélection d'un premier objet interactif et une étape (E460) de sélection d'un deuxième objet interactif, les sélections étant obtenues lorsque une condition de sélection est vérifiée et en faisant coïncider l'objet à sélectionner avec un viseur affiché à un emplacement fixe de l'écran; et - une étape (E800) de déclenchement d'une interaction entre le premier et le deuxième objet.

Description

Arrière-plan de l'invention L'invention se rapporte au domaine général des télécommunications. Elle concerne plus précisément le domaine de la manipulation des objets présents dans une vidéo affichée sur l'écran d'un terminal.
Cette vidéo peut présenter une scène réelle représentant l'environnement physique qui se trouve dans le champ d'une caméra équipant le terminal ou une scène de réalité augmentée.
Par scène de réalité augmentée, on entend une représentation visuelle d'un environnement physique contenant des objets réels à laquelle sont ajoutés des objets virtuels de synthèse, certains de ces objets virtuels ou réels étant interactifs.
Il existe aujourd'hui des solutions qui permettent d'interagir avec un objet réel ou virtuel présent dans une scène de réalité augmentée afin d'utiliser les fonctionnalités associés à ces objets.
Ces solutions s'appuient par exemple sur la sélection d'un objet dans une scène de réalité virtuelle en effectuant une pression du doigt directement sur l'emplacement où l'objet est affiché à l'écran, cette pression du doigt générant une action associée à l'objet, telle que l'affichage de données additionnelles.
Ce mécanisme d'interaction reste toutefois limité et ne permet pas d'initier facilement des interactions entre deux objets.
Le document PCT/US2014/025579 propose une autre solution consistant à simuler un mécanisme de glisser-déposer (en anglais « drag and drop ») d'un objet réel vers un objet virtuel pour initier une interaction entre ces deux objets lorsqu'ils sont simultanément présents à l'écran.
Cependant, une telle solution est relativement limitée du fait notamment de la nécessité de disposer au même moment sur l'écran des deux objets à faire interagir. Par ailleurs, elle n'adresse que la problématique de la mise en interaction d'un objet virtuel avec un objet réel (ou vice versa).
Objet et résumé de l’invention
La présente invention permet notamment de pallier ces inconvénients en proposant un procédé de mise en interaction de deux objets interactifs. Ce procédé comprend : — une étape d'obtention d'une première scène acquise à l'aide d'au moins un capteur d'images vidéo ; — une étape d'affichage sur un écran d'un terminal d'une deuxième scène obtenue à partir de la première scène, la deuxième scène comportant des objets interactifs ; — une étape de sélection d'un premier objet interactif et une étape de sélection d'un deuxième objet interactif, les sélections étant obtenues lorsque une condition de sélection est vérifiée et en faisant coïncider l'objet à sélectionner avec un viseur affiché à un emplacement fixe de l'écran ; et — une étape de déclenchement d'une interaction entre le premier et le deuxième objet. L'invention facilite ainsi la mise en interaction de deux objets interactifs présents dans une scène de réalité augmentée (deuxième scène au sens de l'invention) obtenue en temps réel à partir d'un flux vidéo (première scène au sens de l'invention).
Cette deuxième scène est par exemple réalisée par une application logicielle de réalité augmentée installée sur le terminal, celui-ci pouvant être par exemple un terminal mobile doté d'une caméra.
Au sens de l'invention, l'expression « objet interactif » est utilisée pour désigner un objet réel ou virtuel présent dans une scène de réalité augmentée et disposant de fonctionnalités activables par un utilisateur du terminal, lesdites fonctionnalités correspondant à des interactions pouvant être réalisées entre les objets.
La mise en interaction de deux objets repose sur la sélection successive des deux objets, chacun des objets étant sélectionné lorsqu'une condition de sélection est réalisée et lorsqu'un viseur affiché à un emplacement fixe de l'écran coïncide avec l'objet à sélectionner.
Par exemple, l'utilisateur peut ainsi sélectionner un premier objet en orientant la caméra de son terminal de sorte à faire coïncider dans la scène cet objet avec le viseur affiché sur l'écran. Il est à noter que lors de cette opération, le deuxième objet peut être hors du champ de la caméra. Une fois, le premier objet sélectionné, l'utilisateur oriente la caméra vers le second objet afin de le sélectionner.
Ainsi, et de façon particulièrement avantageuse, il n'est pas nécessaire pour mettre en interaction deux objets que ces deux objets soient simultanément affichés sur l'écran.
Dans un mode de réalisation particulier de l'invention, une représentation du premier objet sélectionné reste affichée dans le viseur.
Ainsi, lorsqu'on fait coïncider le viseur avec le deuxième objet pour le sélectionner, on simule un déplacement du premier objet sur le deuxième objet similaire à un glisser-déposer d'un objet vers l'autre.
Dans un mode particulier de réalisation de l'invention, le procédé de mise en interaction de deux objets interactifs comprend en outre préalablement à l'étape d'affichage, une étape de détection d'au moins un desdits objets interactifs dans la première scène.
Autrement dit, lors de la construction de la deuxième scène, l'application de réalité augmentée détecte les objets présents dans la première scène, ajoute éventuellement des objets virtuels à la scène et associe des fonctionnalités à ces objets qui deviennent ainsi des objets interactifs de la deuxième scène.
Dans un autre mode particulier de réalisation de l'invention, au moins un desdits objets interactifs est un objet virtuel positionné dans la deuxième scène selon une logique de réalité augmentée.
Dans un mode particulier de réalisation de l'invention, l'étape de détection comprend : — une étape d'envoi à un serveur distant d'au moins une requête de demande d'identification des objets interactifs devant être affichés dans la deuxième scène ; et — une étape de réception d'au moins un message de réponse du serveur distant à la requête, le message comprenant une liste d'objets interactifs devant être affichés dans la deuxième scène.
Autrement dit, la détection des objets associés à la première scène est réalisée dans ce mode de réalisation lors d'une interaction avec un serveur distant.
Cette solution facilite notamment la mise en œuvre du procédé de mise en interaction sur des terminaux légers comme des terminaux mobiles par exemple.
Dans un mode particulier de réalisation de l'invention, le deuxième objet est sélectionné parmi une liste d'objets interactifs associée au premier objet interactif.
De façon avantageuse, l'invention permet ainsi à l'utilisateur du terminal d'identifier facilement dans la scène de réalité augmentée les objets qui peuvent interagir avec un objet préalablement sélectionné.
Dans un mode particulier de réalisation de l'invention, la condition de sélection est vérifiée lorsqu'un le viseur fixe coïncide avec le premier ou le deuxième objet interactif à sélectionner pendant un intervalle de temps prédéterminé.
Dans un mode particulier de réalisation de l'invention, la condition de sélection est vérifiée lorsqu'un utilisateur du terminal effectue une action prédéterminée, par exemple l'appui sur un bouton présent sur l'interface du terminal.
Les deux conditions de sélection précédentes sont particulièrement simples et efficaces. Elles permettent notamment de sélectionner un objet même lorsque l'utilisateur tient son terminal d'une seule main, améliorant ainsi l'ergonomie du terminal.
Dans un mode particulier de réalisation de l'invention, les différentes étapes du procédé de mise en interaction de deux objets interactifs sont déterminées par des instructions de programmes d'ordinateurs.
En conséquence, l'invention vise aussi un programme d'ordinateur sur un support d'informations, ce programme étant susceptible d'être mis en œuvre dans un dispositif de mise en interaction de deux objets interactifs ou plus généralement dans un ordinateur, ce programme comportant des instructions adaptées à la mise en œuvre des étapes d'un procédé de mise en interaction de deux objets interactifs tel que décrit ci-dessus.
Ce programme peut utiliser n'importe quel langage de programmation, et être sous la forme de codes source, codes objet, ou de codes intermédiaires entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n'importe quelle autre forme souhaitable. L'invention vise aussi un support d'informations lisible par un ordinateur, et comportant des instructions d'un programme d'ordinateur tel que mentionné ci-dessus.
Le support d'informations peut être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, ou encore un moyen d'enregistrement magnétique, par exemple une disquette (floppy dise) ou un disque dur. D'autre part, le support d'informations peut être un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d'informations peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question. L'invention vise également, selon un deuxième aspect, un dispositif de mise en interaction de deux objets interactifs. Ce dispositif comprend : — un module d'obtention d'une première scène acquise à l'aide d'au moins un capteur d'images vidéo ; — un module d'affichage sur un écran d'un terminal d'une deuxième scène obtenue à partir de la première scène, la deuxième scène comportant des objets interactifs ; — un module de sélection d'un premier objet interactif et d'un deuxième objet interactif, ce module étant configuré pour sélectionner un des objets lorsque l'utilisateur fait coïncider l'objet à sélectionner avec un viseur affiché à un emplacement fixe de l'écran et lorsque une condition de sélection est vérifiée ; et — un module de déclenchement d'une interaction entre le premier et le deuxième objet.
Dans un mode particulier de réalisation, le dispositif de mise en interaction de deux objets interactifs comprend en outre un module de détection d'au moins un des objets interactifs dans la première scène. L'invention vise également un terminal comprenant un dispositif de mise en interaction selon l'invention.
Selon un autre aspect, l'invention vise également un système de mise en interaction de deux objets interactifs comprenant : — un terminal comprenant un dispositif de mise en interaction de deux objets interactifs selon l'invention ; et — au moins un serveur informatique apte, sur réception d'au moins une requête de demande d'identification des objets interactifs devant être affichés dans la deuxième scène, à transmettre au dispositif de mise en interaction au moins un message de réponse à la requête, ledit au moins un message comprenant une liste des objets interactifs devant être affichés dans la deuxième scène.
Le dispositif de mise en interaction et le système bénéficient des mêmes avantages, cités précédemment, que le procédé de mise en interaction.
On peut également envisager, dans d’autres modes de réalisation, que le procédé de mise en interaction, le dispositif de mise en interaction et le système selon l’invention présentent en combinaison tout ou partie des caractéristiques précitées.
Brève description des dessins
Des caractéristiques et avantages particuliers de la présente invention ressortiront de la description détaillée faite aux figures dans lesquelles : — la figure 1 représente un système de mise en interaction de deux objets interactifs conforme à l'invention dans un premier mode de réalisation ; — la figure 2 illustre un exemple d'architecture matérielle d'un dispositif de mise en interaction de deux objets interactifs selon l'invention ; — la figure 3 représente, sous forme d'ordinogramme, les principales étapes d'un procédé de mise en interaction de deux objets interactifs conforme à l'invention dans une première variante d'implémentation ; — La figure 4 représente une deuxième scène contenant des objets interactifs identifiés par un symbole particulier et affichée sur l'écran d'un terminal ; — La figure 5 représente une deuxième scène affichée sur l'écran d'un terminal lorsque le viseur coïncide avec un premier objet ; — La figure 6 représente une deuxième scène affichée sur l'écran d'un terminal lorsque le viseur coïncide avec un deuxième objet ; — la figure 7 représente un terminal comprenant un dispositif de mise en interaction de deux objets interactifs conforme à l'invention dans un deuxième mode de réalisation ; et — la figure 8 représente, sous forme d'ordinogramme, les principales étapes d'un procédé de mise en interaction de deux objets interactifs conforme à l'invention dans une deuxième variante d'implémentation ;
Description détaillée de deux modes de réalisation de l'invention
La figure 1 représente un système 1 de mise en interaction de deux objets interactifs conforme à l'invention dans un premier mode de réalisation.
Le système 1 comprend : — un terminal 2 conforme à l'invention et comprenant un dispositif de mise en interaction 13 de deux objets conforme à l'invention; et — un serveur distant 3.
Le serveur distant 3 communique avec le terminal 2 via un réseau de communications 4.
Aucune limitation n'est attachée à la nature du réseau de communications 4 reliant le terminal 2 au serveur distant 3. Ainsi, le réseau de communications 4 peut être un réseau mobile (ex. UMTS (Universal Mobile Télécommunications System)) ou fixe (ex. Ethernet), filaire ou sans fil (ex : WLAN (Wireless Local Area Network)), privé ou public, etc.
Le terminal 2 est dans l'exemple illustré à la figure 1, un téléphone intelligent muni d'un capteur 5 d'images vidéo (ici une caméra intégrée au téléphone intelligent) permettant à un utilisateur U de filmer l'environnement dans lequel il se trouve.
Plus précisément, le capteur 5 associé au terminal 2 lui permet d'acquérir en temps réel une vidéo de la scène contenant les objets qui se trouvent à proximité de l'utilisateur U et dans le champ du capteur 5.
Dans l'exemple décrit ici, la scène contient en particulier un ordinateur portable 6, une télécommande 7, un téléphone 8, une chaise 9, un lampadaire 10, une télévision 11 et une table 12.
Dans l'exemple décrit ici, l'ordinateur portable 6, le téléphone 8 et la télévision 11 sont d'autre part reliés au réseau de communications 4.
Conformément à l'invention, la vidéo acquise par le capteur 5 est utilisée par le dispositif de mise en interaction 13 compris dans le terminal 2.
Dans le premier mode de réalisation décrit ici, le dispositif de mise en interaction 13 dispose de l'architecture matérielle d'un ordinateur, telle qu'illustrée schématiquement à la figure 2.
Ainsi, le dispositif 13 comporte notamment un processeur 13A, une mémoire morte 13B, une mémoire vive 13C, une mémoire non volatile 13D et des moyens de communication 13E sur le réseau de télécommunications 4. Le processeur 13A, les mémoires 13B-13D et les moyens de communication 13E peuvent éventuellement être partagés avec des moyens correspondants du terminal 2.
La mémoire morte 13B du dispositif 13 constitue un support d'enregistrement lisible par le processeur 13A et sur lequel est enregistré un programme d'ordinateur conforme à l'invention, comportant des instructions pour l'exécution des étapes d'un procédé de mise en interaction de deux objets interactifs conforme à l'invention, les étapes de ce procédé de mise en interaction étant décrites ultérieurement en référence à la figure 3, dans un mode particulier de réalisation.
Ce programme d'ordinateur définit de façon équivalente des modules fonctionnels du dispositif 13, tels que notamment un module 13B1 d'obtention d'une première scène acquise à l'aide du capteur d'images vidéo du terminal 2, un module 13B2 d'affichage sur l'écran du terminal 2 d'une deuxième scène obtenue à partir de la première scène, la deuxième scène comportant des objets interactifs, un module 13B3 de sélection d'un premier objet interactif et d'un deuxième objet interactif, ce module étant configuré pour sélectionner un des objets lorsque l'utilisateur fait coïncider l'objet à sélectionner avec un viseur affiché à un emplacement fixe de l'écran du terminal 2 et lorsque une condition de sélection est vérifiée, et un module 13B4 de déclenchement d'une interaction entre le premier et le deuxième objet. Leurs fonctions sont décrites plus en détail en référence aux étapes du procédé de mise en interaction illustrées à la figure 3.
Nous allons maintenant décrire, en référence à la figure 3, les principales étapes d'un procédé de mise en interaction de deux objets interactifs selon l'invention dans un mode de réalisation dans lequel il est mis en œuvre par le dispositif 13.
Ainsi, dans l'exemple envisagé à la figure 1, on suppose que l'utilisateur U souhaite afficher sur la télévision 11 un document D actuellement affiché sur l'écran de l'ordinateur portable 6.
En d'autres termes, l'utilisateur U souhaite mettre en interaction les deux objets réels que sont l'ordinateur portable 6 (premier objet au sens de l'invention) et la télévision 11 (deuxième objet au sens de l'invention) afin de déclencher le transfert (une action au sens de l'invention) du document D de l'ordinateur portable 6 vers la télévision 11.
Lors d'une étape E100, le dispositif de mise en relation 13 obtient à l'aide de la caméra 5 du terminal 2, un signal SIG comprenant des images vidéo d'une première scène SCN1.
Sur réception des images vidéo de la première scène SCN1, le dispositif de mise en interaction envoie (étape E150) au serveur distant 3 une requête RI de demande d'identification des objets interactifs associés à la première scène SCN1.
Lors d'une étape E160, le dispositif de mise en interaction 13 reçoit un message de réponse Ml à la requête RI en provenance du serveur distant 3. Ce message Ml comprend une liste LIST1-OBJ des objets interactifs associés à la première scène SCN1 ainsi que leur localisation dans cette première scène.
Dans l'exemple décrit ici, le message de réponse Ml comprend une liste de trois objets interactifs, à savoir l'ordinateur portable 6, le téléphone 8 et la télévision 11.
Conformément à l'invention, le dispositif 13 affiche (étape E200) alors en temps réel sur son écran, via notamment son module d'affichage 13B2 une deuxième scène SCN2 obtenue à partir de la première scène SCN1 acquise par le capteur 5.
La scène SCN2 comporte ici les objets interactifs 6, 8 et 11 qui sont identifiés dans la scène SCN2 par exemple par un symbole particulier (dans l'exemple présenté ici par des ronds pleins).
La figure 4 présente la scène SCN2 affiché sur l'écran du terminal 2 avec les objets interactifs 6, 8 et 11 identifiés chacun par un rond plein.
Le dispositif de mise en relation 13 affiche également lors de l'étape E200 à un emplacement fixe de l'écran du terminal 2 un viseur V (représenté ici sous la forme d'une croix et d'un cercle). Dans l'exemple représenté à la figure 4, le viseur V est affiché au centre de l'écran.
Pour pouvoir sélectionner l'ordinateur portable 6, l'utilisateur U oriente tout d'abord la caméra du terminal 2 vers l'ordinateur portable 6 de sorte à faire coïncider le viseur V avec l'ordinateur portable 6.
La figure 5 illustre l'affichage de la scène SCN2 sur l'écran du terminal 2 lorsque le viseur V coïncide avec l'ordinateur portable 6.
Puis, lorsque le viseur V coïncide avec un objet interactif (réponse oui à l'étape E250) le dispositif de mise en relation 13 détermine (étape E260) si l'utilisateur sélectionne l'objet interactif coïncidant avec le viseur V.
Dans l'exemple décrit à la figure 5, le dispositif de mise en relation 13 détermine si l'utilisateur U sélectionne l'ordinateur portable 6 en vérifiant si une condition de sélection est remplie.
Par exemple le dispositif de mise en relation 13 détecte si l'utilisateur U appuie sur un bouton B du terminal 2 afin de sélectionner (réponse oui à l'étape E260) l'ordinateur portable 6.
En variante, le dispositif de mise en relation 13 détecte si l'utilisateur U sélectionne l'ordinateur portable 6 en vérifiant que le viseur V coïncide avec l'ordinateur portable 6 pendant une durée prédéterminée.
Dans encore une autre variante, le dispositif de mise en relation 13 détermine que l'utilisateur U sélectionne l'ordinateur portable 6 en détectant que l'utilisateur U effectue une pression du doigt directement sur l'emplacement dans l'écran du terminal 2 de l'ordinateur portable 6 lorsque cet ordinateur coïncide avec le viseur V.
Le dispositif de mise en relation 13 détermine alors parmi les objets interactifs présents dans la scène SCN2 ceux qui peuvent interagir avec l'ordinateur portable 6.
Sur sélection d'un objet interactif appartenant à la liste LIST1-OBJ, le dispositif de mise en interaction 13 envoie (étape E300) au serveur distant 3 une requête R2 de demande d'identification des objets interactifs pouvant interagir avec l'objet interactif sélectionné par l'utilisateur (i.e. avec l'ordinateur portable 6).
Lors d'une étape E350, le dispositif de mise en interaction 13 reçoit un message de réponse M2 à la requête R2 en provenance du serveur distant 3. Ce message M2 comprend une liste LIST2-OBJ des objets interactifs pouvant ainsi interagir avec l'ordinateur portable 6 ainsi que leur localisation dans la scène.
Dans l'exemple décrit ici, le message de réponse M2 comprend une liste LIST2-OBJ comprenant un seul objet constitué de la télévision 11.
Suite à la sélection de l'ordinateur portable 6, le dispositif de mise en relation 13 lors d'une étape E400 efface le symbole particulier repérant les objets interactifs appartenant à la liste LIST1-OBJ et marque à la place les objets appartenant à la liste LIST2-OBJ. Dans l'exemple décrit ici, les objets appartenant à la liste LIST2-OBJ sont identifiés de la même façon que les objets appartenant à la liste LIST1-OBJ, i.e. par un rond plein. En variante, des symboles différents peuvent être utilisés pour identifier les objets de la liste LIST1-OBJ et les objets de la liste LIST2-0BJ.
Dans l'exemple décrit ici, la couleur d'affichage du viseur V change afin d'indiquer qu'un premier objet a été sélectionné.
En variante, la couleur d'affichage du viseur V n'est pas changée mais une icône ou un modèle de synthèse représentant le premier objet sélectionné est affiché en transparence au centre du viseur V.
Afin de sélectionner l'objet interactif, à savoir la télévision 11, à mettre en relation avec l'ordinateur portable 6, l'utilisateur U oriente de nouveau la caméra du terminal 2 de sorte à faire coïncider le viseur V avec la télévision 11.
La figure 6 illustre l'affichage de la scène SCN2 sur l'écran du terminal 2 lorsque le viseur V coïncide avec la télévision 11.
Puis, lorsque le viseur V coïncide avec un objet interactif (réponse oui à l'étape E450) le dispositif de mise en relation 13 détermine (étape E460) si l'utilisateur sélectionne l'objet interactif coïncidant avec le viseur V.
Dans l'exemple décrit à la figure 6, le dispositif de mise en relation 13 détermine si l'utilisateur U sélectionne (réponse oui à l'étape E460) l'ordinateur portable 6 en déterminant si une condition de sélection est remplie, par exemple en déterminant si l'utilisateur U à appuyer sur le bouton B ou à laisser coïncider le viseur V avec la télévision 11 pendant un temps prédéterminée ou encore à effectuer une pression du doigt directement sur l'emplacement dans l'écran du terminal 2 de la télévision 11.
Suite à la sélection des deux objets, le dispositif de mise en interaction 13 envoie (étape E500) au serveur distant 3 une requête R3 de demande d'identification des actions pouvant être mises en œuvre entre l'ordinateur portable 6 et la télévision 11.
Lors d'une étape E550, le dispositif de mise en interaction 13 reçoit un message de réponse M3 à la requête R3 en provenance du serveur distant 3. Ce message M3 comprend une liste des actions LIST-ACT pouvant être mises en œuvre entre l'ordinateur portable 6 et la télévision 11.
Dans l'exemple envisagé ici, la liste des actions possibles LIST-ACT comprend les deux actions suivantes : • le transfert du document D affiché sur l'écran de l'ordinateur portable 6 vers la télévision 11 ; et • le transfert du document D affiché sur l'écran de l'ordinateur portable 6 vers la télévision 11 suivi de l'affichage du document D sur l'écran de la télévision 11.
Le dispositif de mise en interaction 13 affiche (étape E600) sur l'écran du terminal 2 la liste des actions possibles entre l'ordinateur portable 6 et la télévision 11.
Sur sélection (réponse oui à l'étape E700) par l'utilisateur U d'une des actions affichées sur l'écran du terminal 2, le dispositif de mise en relation 13 déclenche (étape E800) l'action sélectionnée.
Dans l'exemple envisagé ici, l'utilisateur U sélection l'action consistant à transférer le document D affiché sur l'écran de l'ordinateur portable 6 vers la télévision 11 et à afficher ensuite le document D sur l'écran de la télévision 11.
Suite à cette sélection, le dispositif de mise en relation 13 déclenche la mise en oeuvre de l'action sélectionnée.
Dans l'exemple envisagé ici, la mise en oeuvre de l'action sélectionnée par le dispositif de mise en relation 13 comprend l'émission (étape E800) vers l'ordinateur portable 6 via le réseau de communications 4 d'une requête R4 de demande de transfert et d'affichage du document D sur la télévision 11.
Sur réception via le réseau 4 de la demande de transfert R4, l'ordinateur portable 6 transfère le document D à la télévision 11 via le réseau 4 ainsi qu'une requête d'affichage de ce document sur la télévision 11.
Puis l'ordinateur portable 6 envoie au dispositif de mise en relation 13 un message d'acquittement ACK confirmant que le document D a bien été transféré à la télévision 11 pour y être affiché.
La réception de la requête ACK (étape E850) par le dispositif de mise en relation 13 termine la mise en œuvre de l'action sélectionnée par l'utilisateur U.
Dans l'exemple décrit précédemment, le message de réponse Ml comprend une liste LIST1-OBJ de trois objets interactifs correspondant à des objets réels présents dans la scène SCN1, à savoir l'ordinateur portable 6, le téléphone 8 et la télévision 11.
En variante, la liste LIST1-OBJ comprend également des objets virtuels (i.e. des objets non présents dans la scène SCN1). Par exemple, la liste LIST1-OBJ comprend également, outre l'ordinateur portable 6, le téléphone 8 et la télévision 11, un agenda virtuel 14 associé à une description indiquant sa position dans la scène SCN1, par exemple semblant être posé sur la table 12 selon une logique de réalité augmentée.
Dans une autre variante, la liste LIST1-OBJ comprend seulement des objets virtuels.
En d'autres termes, la scène SCN2 affichée sur l'écran du terminal 2 est constituée des images vidéo issues du capteur 5 dans lesquelles des objets interactifs réels ont été identifiés et/ou dans lesquelles des modélisations d'objets interactifs virtuels sont incrustées, ces objets interactifs réels et/ou virtuels étant sélectionnâmes en faisant coïncider l'objet à sélectionner avec un viseur affiché à un emplacement fixe de l'écran du terminal 2 et en remplissant une condition de sélection.
Dans le premier mode de réalisation de l'invention précédemment décrit, la détermination des listes des objets interactifs LIST1-OBJ, des objets pouvant être mis en relation avec le premier objet sélectionné LIST2-OBJ et des actions pouvant avoir lieu entre les deux objets sélectionnés LIST-ACT est réalisée par le serveur distant 3 sur requête du dispositif de mise en relation 13 intégré dans le terminal mobile 2.
Dans un autre mode de réalisation, la détermination d'une ou de plusieurs des listes LIST1-OBJ, LIST2-OBJ et LIST-ACT est réalisée par le dispositif de mise en relation 13.
La figure 7 illustre ainsi un deuxième mode de réalisation dans lequel les trois listes LIST1-OBJ, LIST2-OBJ et LIST-ACT sont déterminées par le dispositif de mise en relation 13' compris dans le terminal 2'. Par souci de simplification, des références identiques sont données sur cette figure aux éléments communs avec le premier mode de réalisation et illustrés à la figure 1.
Nous allons maintenant décrire, en référence à la figure 8 les principales étapes d'un procédé de mise en interaction de deux objets interactifs dans ce deuxième mode de réalisation de l'invention.
Ainsi, dans l'exemple envisagé à la figure 7, on suppose que l'utilisateur U souhaite mettre en interaction les deux objets réels que sont l'ordinateur portable 6 (premier objet au sens de l'invention) et la télévision 11 (deuxième objet au sens de l'invention) afin de déclencher le transfert (une action au sens de l'invention) du document D de l'ordinateur portable 6 vers la télévision 11.
Lors d'une étape F100, le dispositif de mise en relation 13' obtient à l'aide de la caméra 5 du terminal 2', un signal SIG comprenant des images vidéo d'une première scène SCN1.
Sur réception des images vidéo correspondant à la première scène SCN1, le dispositif de mise en interaction détermine (étape F150) une liste LIST1-OBJ des objets interactifs associés à la première scène SCN1 ainsi que leur localisation dans cette première scène.
Dans l'exemple décrit ici, le message de réponse Ml comprend une liste de trois objets interactifs, à savoir l'ordinateur portable 6, le téléphone 8 et la télévision 11.
Conformément à l'invention, le dispositif 13' affiche (étape F200) alors en temps réel sur son écran une deuxième scène SCN2 obtenue à partir de la première scène SCN1 acquise par le capteur 5.
La scène SCN2 comporte ici les objets interactifs 6, 8 et 11 qui sont identifiés dans la scène SCN2 par exemple par un symbole particulier.
Le dispositif de mise en relation 13' affiche également lors de l'étape F200 à un emplacement fixe de l'écran du terminal 2' un viseur V (représenté ici sous la forme d'une croix et d'un cercle).
Pour pouvoir sélectionner l'ordinateur portable 6, l'utilisateur U oriente tout d'abord la caméra du terminal 2' vers l'ordinateur portable 6 de sorte à faire coïncider le viseur V avec l'ordinateur portable 6.
Puis, lorsque le viseur V coïncide avec un objet interactif (réponse oui à l'étape F250) le dispositif de mise en relation 13' détermine (étape F260) si l'utilisateur sélectionne l'objet interactif coïncidant avec le viseur V en vérifiant qu'une condition de sélection est remplie.
Le dispositif de mise en relation 13' détermine (étape F300) alors parmi les objets interactifs présents dans la scène SCN2 la liste LIST2-OBJ de ceux qui peuvent interagir avec l'ordinateur portable 6.
Dans l'exemple décrit ici, la liste LIST2-OBJ comprend seulement la télévision 11.
Suite à la sélection de l'ordinateur portable 6, le dispositif de mise en relation 13' lors d'une étape F400 efface le symbole particulier repérant les objets interactifs appartenant à la liste LIST1-OBJ et marque à la place les objets appartenant à la liste LIST2-OBJ.
Afin de sélectionner l'objet interactif, à savoir la télévision 11, à mettre en relation avec l'ordinateur portable 6, l'utilisateur U oriente de nouveau la caméra du terminal 2' de sorte à faire coïncider le viseur V avec la télévision 11.
Puis, lorsque le viseur V coïncide avec un objet interactif (réponse oui à l'étape F450) le dispositif de mise en relation 13' détermine (étape F460) si l'utilisateur sélectionne l'objet interactif coïncidant avec le viseur V en vérifiant qu'une condition de sélection est remplie.
Suite à la sélection des deux objets, le dispositif de mise en interaction 13' détermine (étape F500) la liste LIST-ACT des actions pouvant être mises en oeuvre entre l'ordinateur portable 6 et la télévision 11.
Le dispositif de mise en interaction 13' affiche (étape F600) sur l'écran du terminal 2' la liste des actions possibles entre l'ordinateur portable 6 et la télévision 11.
Sur sélection (réponse oui à l'étape F700) par l'utilisateur U d'une des actions affichées sur l'écran du terminal 2', le dispositif de mise en relation 13' déclenche (étape F800) l'action sélectionnée.

Claims (14)

  1. REVENDICATIONS
    1. Procédé de mise en interaction de deux objets interactifs (6, 11), ledit procédé comprenant : — une étape (E100, F100) d'obtention d'une première scène (SCN1) acquise à l'aide d'au moins un capteur (5) d'images vidéo ; — une étape (E200, F200) d'affichage sur un écran d'un terminal (2, 2') d'une deuxième scène (SCN2) obtenue à partir de la première scène (SCN1), ladite deuxième scène (SCN2) comportant des objets interactifs (6, 8, 11) ; — une étape (E260, F260) de sélection d'un premier objet interactif (6) et une étape (E460) de sélection d'un deuxième objet interactif (11), lesdites sélections étant obtenues lorsque une condition de sélection est vérifiée et en faisant coïncider l'objet à sélectionner (6, 11) avec un viseur (V) affiché à un emplacement fixe dudit écran ; et — une étape (E800, F800) de déclenchement d'une interaction entre ledit premier (6) et ledit deuxième objet (11).
  2. 2. Procédé selon la revendication 1 dans lequel une représentation dudit premier objet (6) sélectionné reste affichée dans ledit viseur (V).
  3. 3. Procédé selon la revendication 1 ou 2 comprenant en outre préalablement à ladite étape (F200) d'affichage, une étape (E150, E160, F150) de détection d'au moins un desdits objets interactifs dans ladite première scène.
  4. 4. Procédé selon l'une des revendications 1 à 3 dans lequel au moins un desdits objets interactifs est un objet virtuel (14) positionné dans ladite deuxième scène (SCN2) selon une logique de réalité augmentée.
  5. 5. Procédé selon l'une des revendications 3 à 4 dans lequel ladite étape de détection (E150, E160) comprend : — une étape (E150) d'envoi à un serveur distant (3) d'au moins une requête (RI) de demande d'identification desdits objets interactifs devant être affichés dans ladite deuxième scène (SCN2) ; et — une étape (E160) de réception d'au moins un message (Ml) de réponse du serveur distant (3) à ladite requête (RI), ledit message comprenant une liste d'objets interactifs (LIST1-OBJ) devant être affichés dans ladite deuxième scène (SCN2).
  6. 6. Procédé selon l'une des revendications 1 à 5 dans lequel ledit deuxième objet (11) est sélectionné parmi une liste d'objets interactifs (LIST2-OBJ) associée audit premier objet interactif (6).
  7. 7. Procédé selon l'une des revendications 1 à 6 dans lequel ladite condition de sélection est vérifiée lorsqu'un ledit viseur (V) fixe coïncide avec ledit premier (6) ou deuxième objet (11) interactif à sélectionner pendant un intervalle de temps prédéterminé.
  8. 8. Procédé selon l'une des revendications 1 à 7 dans lequel ladite condition de sélection est vérifiée lorsqu'un utilisateur (U) dudit terminal (2, 2') effectue une action prédéterminée.
  9. 9. Programme d'ordinateur comportant des instructions pour l'exécution des étapes du procédé de mise en interaction de deux objets interactifs selon l'une quelconque des revendications 1 à 8 lorsque ledit programme est exécuté par ordinateur.
  10. 10. Support d'enregistrement lisible par un ordinateur sur lequel est enregistré un programme d'ordinateur comprenant des instructions pour l'exécution des étapes du procédé de mise en interaction de deux objets interactifs selon l'une quelconque des revendications 1 à 8.
  11. 11. Dispositif de mise en interaction (13, 13') de deux objets interactifs (6, 11), ledit dispositif comprenant : — un module (13B1) d'obtention d'une première scène (SCN1) acquise à l'aide d'au moins un capteur (5) d'images vidéo ; — un module (13B2) d'affichage sur un écran d'un terminal (2, 2') d'une deuxième scène (SCN2) obtenue à partir de la première scène (SCN1), ladite deuxième scène (SCN1) comportant des objets interactifs (6, 8, 11) ; — un module (13B3) de sélection d'un premier objet interactif (6) et d'un deuxième objet interactif (11), ledit module (13B3) étant configuré pour sélectionner un desdits objets (6, 11) lorsque l'utilisateur fait coïncider l'objet à sélectionner (6, 11) avec un viseur (V) affiché à un emplacement fixe dudit écran et lorsque une condition de sélection est vérifiée ; et — un module (13B4) de déclenchement d'une interaction entre ledit premier (6) et ledit deuxième objet (11).
  12. 12. Dispositif selon la revendication 11 comprenant en outre un module de détection d'au moins un desdits objets interactifs (6, 8, 11) dans ladite première scène (SCN1).
  13. 13. Terminal (2) comprenant un dispositif de transmission (13, 130 selon la revendication 11 ou 12.
  14. 14. Système comprenant : — un terminal (2) comprenant un dispositif de mise en interaction (13) de deux objets interactifs (6, 11) selon la revendication 11; et — au moins un serveur informatique (3) apte, sur réception d'au moins une requête (RI) de demande d'identification desdits objets interactifs devant être affichés dans ladite deuxième scène (SCN2), à transmettre audit dispositif de mise en interaction (13) au moins un message (Ml) de réponse à ladite requête (RI), ledit au moins un message (Ml) comprenant une liste des objets interactifs (LIST1-OBJ) devant être affichés dans ladite deuxième scène (SCN2).
FR1556117A 2015-06-30 2015-06-30 Procede et dispositif de mise en interaction de deux objets interactifs Pending FR3038402A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1556117A FR3038402A1 (fr) 2015-06-30 2015-06-30 Procede et dispositif de mise en interaction de deux objets interactifs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1556117A FR3038402A1 (fr) 2015-06-30 2015-06-30 Procede et dispositif de mise en interaction de deux objets interactifs

Publications (1)

Publication Number Publication Date
FR3038402A1 true FR3038402A1 (fr) 2017-01-06

Family

ID=54199827

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1556117A Pending FR3038402A1 (fr) 2015-06-30 2015-06-30 Procede et dispositif de mise en interaction de deux objets interactifs

Country Status (1)

Country Link
FR (1) FR3038402A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021027954A1 (fr) * 2019-08-15 2021-02-18 纳恩博(常州)科技有限公司 Procédé de commande, terminal portatif et support de stockage

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999032960A1 (fr) * 1997-12-23 1999-07-01 Telefonaktiebolaget Lm Ericsson Dispositif d'affichage portatif et procede d'affichage de pages d'ecran
WO2013145566A1 (fr) * 2012-03-26 2013-10-03 Sony Corporation Appareil de traitement d'informations, procédé de traitement d'informations et programme

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999032960A1 (fr) * 1997-12-23 1999-07-01 Telefonaktiebolaget Lm Ericsson Dispositif d'affichage portatif et procede d'affichage de pages d'ecran
WO2013145566A1 (fr) * 2012-03-26 2013-10-03 Sony Corporation Appareil de traitement d'informations, procédé de traitement d'informations et programme

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021027954A1 (fr) * 2019-08-15 2021-02-18 纳恩博(常州)科技有限公司 Procédé de commande, terminal portatif et support de stockage

Similar Documents

Publication Publication Date Title
FR2975800A1 (fr) Partage automatique de contexte d'applications entre des dispositifs
FR2975802A1 (fr) Transfert d'etat d'application entre dispositifs
FR2975801A1 (fr) Transfert d'etat entre dispositifs a points de controle
EP3395077B1 (fr) Procédé de partage d'une image numérique entre un premier terminal d'utilisateur et au moins un second terminal d'utilisateur sur un réseau de communication
FR3039030A1 (fr) Procede et dispositif d'etablissement de communications webrtc
EP3455718B1 (fr) Système permettant la création et le déploiement d'applications multiplateformes
EP2879328A1 (fr) Procédé et serveur de réservation de ressources matérielles de conférence
FR3038402A1 (fr) Procede et dispositif de mise en interaction de deux objets interactifs
FR3074332B1 (fr) Procede de positionnement d'au moins un objet virtuel dans au moins une zone virtuelle de reception d'objets virtuels, terminal et systeme associes
FR2968497A1 (fr) Procede et systeme de diffusion de contenus informatiques vers un terminal mobile
EP3336709A1 (fr) Procédé d'utilisation d'un poste de travail étendu, et système d'utilisation d'un poste de travail étendu associé
US10659409B1 (en) Media access system
EP3021552B1 (fr) Procédés, dispositifs et programme d'ordinateur pour communiquer via un espace d'interaction partagé
EP2992657B1 (fr) Procédé et dispositif pour contrôler l'utilisation d'un flux de données d'une communication
EP3465476B1 (fr) Procédé d'invocation d'un service applicatif par un navigateur
EP3476110B1 (fr) Procédé et dispositif de traitement d'un objet multimédia
EP2950512A1 (fr) Procede et dispositif de controle de l'affichage d'un groupe de contacts
EP3035723A1 (fr) Procédé de transmission de données en relation avec une communication
FR3102874A1 (fr) Procédé de collecte d’information contenue dans des messages électroniques stockés dans un terminal
FR3019704A1 (fr) Procede de transmission d'informations via un canal video entre deux terminaux
FR3018027A1 (fr) Procede et dispositif de decouverte des capacites de communication relatives a un utilisateur d'un terminal
EP3942390A1 (fr) Dispositif, système et procédé de traitement de données de réalite virtuelle
FR2987535A1 (fr) Procede et dispositif de mise a disposition d'au moins une donnee de communication
FR3066037A1 (fr) Procede de commande d'une zone d'affichage d'un client web par un terminal portable distant de ladite zone d'affichage
WO2015166160A1 (fr) Procédé et dispositif d'établissement d'une communication

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170106