FR3083457A1 - Methodes et systemes de realite mixte appliquees aux evenements collectifs - Google Patents
Methodes et systemes de realite mixte appliquees aux evenements collectifs Download PDFInfo
- Publication number
- FR3083457A1 FR3083457A1 FR1856109A FR1856109A FR3083457A1 FR 3083457 A1 FR3083457 A1 FR 3083457A1 FR 1856109 A FR1856109 A FR 1856109A FR 1856109 A FR1856109 A FR 1856109A FR 3083457 A1 FR3083457 A1 FR 3083457A1
- Authority
- FR
- France
- Prior art keywords
- radio
- mixed reality
- controlled object
- control device
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H30/00—Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
- A63H30/02—Electrical arrangements
- A63H30/04—Electrical arrangements using wireless transmission
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H17/00—Toy vehicles, e.g. with self-drive; ; Cranes, winches or the like; Accessories therefor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H23/00—Toy boats; Floating toys; Other aquatic toy devices
- A63H23/02—Boats; Sailing boats
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H27/00—Toy aircraft; Other flying toys
- A63H27/12—Helicopters ; Flying tops
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Ocean & Marine Engineering (AREA)
- Processing Or Creating Images (AREA)
- Toys (AREA)
- Selective Calling Equipment (AREA)
Abstract
Système d'immersion pour la gestion d'un événement collectif se déroulant dans un environnement prédéfini et intégrant au moins un objet radiocommandé (1), ce système comprenant - un dispositif de commande (4) permettant de commander à distance l'objet radiocommandé, ce dispositif de commande étant mobile dans l'environnement de l'évènement collectif; - une pluralité de capteurs déployés dans ledit environnement et/ou dans l'objet radiocommandé; - un serveur de réalité mixte (2) configuré pour générer, à partir de données récupérées depuis ladite pluralité de capteurs et en fonction de la position du dispositif de commande dans l'environnement, une scène de réalité mixte intégrant l'objet radiocommandé et un objet virtuel (6) prédéfini.
Description
METHODES ET SYSTEMES DE REALITE MIXTE APPLIQUEES AUX EVENEMENTS COLLECTIFS [001] La présente invention se rapporte au domaine technique des méthodes et systèmes d’immersion, et plus particulièrement aux méthodes et systèmes de réalité mixte dans le contexte d’événements collectifs.
[002] La présente invention concerne plus particulièrement les compétitions de modèles réduits de véhicules nautiques, telles que par exemple les régates de voiliers radiocommandés.
[003] Un événement est indéniablement plus excitant si on le vit en direct ou on y participe réellement, dans la mesure où on peut interagir directement avec l’environnement où se déroule cet évènement. Cependant, pour diverses raisons, ce désir n’est toujours pas physiquement réalisable. Des technologies de Médias immersifs visent à remédier à cette limite. On cite ici, à titre d’exemples, la réalité augmentée, la réalité virtuelle ou, plus récemment, la réalité mixte.
[004] En intégrant en temps réel des éléments virtuels (générés par ordinateur) dans l’environnement réel de l’utilisateur, la réalité augmentée permet d’augmenter le sens de l’utilisateur.
[005] Par exemple, dans une compétition de véhicules nautiques radiocommandés, un parcours de régate marqué par une ligne de départ, des bouées et une ligne d’arrivée virtuels peuvent être superposés, dans une scène destinée à un utilisateur équipé d’un casque de réalité augmentée, sur le plan d’eau réel de la compétition. Un contenu textuel ou graphique peut également être superposé sur un véhicule nautique radiocommandé réel, de sorte que ce contenu semble, pour l’utilisateur, exister dans le monde réel. Pour que la scène augmentée soit cohérente, des capteurs sont généralement déployés dans l’environnement réel et/ou directement sur les véhicules nautiques, pour détecter en temps réel un changement dans la scène réelle et en aligner, en conséquence, les objets virtuels qui y sont intégrés.
[006] Le document W02008145980 (Sony) propose la création d’une réalité augmentée pour la commande à distance d’un jouet télécommandé, intégrant une caméra vidéo configurée pour acquérir des images vidéo de l’environnement réel. La scène affichée à l’utilisateur est augmentée par des entités d’image virtuelles, générées en fonction d’entités d’image détectées dans les images vidéo reçues de l’environnement réel.
[007] Par ailleurs, la réalité virtuelle permet de constituer un environnement virtuel immersif (un modèle 3D), correspondant à un environnement réel et avec lequel on peut interagir en temps réel, au moyen d’un objet virtuel télécommandable. Le pilotage d’un véhicule, tel qu’un drone virtuel, dans une reconstruction 3D d’une ville réelle par immersion dans un cockpit, en est un exemple.
[008] La réalité mixte, qui se situe à mi-chemin entre la réalité virtuelle et la réalité augmentée, combine de manière cohérente des éléments réels et des éléments virtuels avec lesquels l’utilisateur peut interagir simultanément.
[009] Le document US2006223637 (Ferraz) décrit un système pour la commande d’un véhicule jouet radiocommandé intégrant une caméra vidéo, et un dispositif de commande apte à commander ce véhicule jouet et comprenant un affichage visuel en temps réel du contenu vidéo capté par la caméra embarquée. Une application logicielle fonctionnant sur le dispositif de commande permet de superposer, sur l’affichage visuel des données de la caméra, des fonctions/moyens virtuels associés au véhicule jouet radiocommandé (un système d’arme simulé commandable depuis le dispositif de commande). Dans un scénario de jeu, deux utilisateurs pourvus, respectivement, d’un dispositif de commande et d’un véhicule jouet (les deux véhicules étant réels et disposés dans un même circuit) peuvent commander le déplacement de leurs véhicules respectifs, ainsi que de cibler et commander le système d’arme virtuel en direction du véhicule adverse.
[010] Cependant, un évènement collectif implique plusieurs intervenants (des joueurs, des arbitres) et nécessite le plus souvent des moyens coûteux en temps et en argent.
[011] Par exemple, la voile radiocommandée se pratique entre plusieurs compétiteurs, sur des parcours de régates, suivant des règles officielles strictes. Il en résulte que l’organisation d’un tel évènement nécessite au minimum, outre le matériel requis, deux ou trois arbitres qualifiés, un jaugeur et un mouilleur de bouées. Ces contraintes compliquent cette organisation et limitent, par conséquent, le nombre des rencontres et prive d’autres personnes de pouvoir y participer.
[012] Les techniques de médias immersifs existantes ne peuvent pallier ces contraintes, parce qu’elles permettent seulement de superposer dans un même affichage des objets du monde physique et des objets du monde numérique, en ajoutant un objet d’un des deux mondes dans l’autre monde, ces objets ne pouvant être manipulés que par les outils du monde dont ils sont, respectivement, issus. Ceci a pour inconvénient que, malgré le mixage apparent des deux mondes réel et virtuel, ces deux mondes demeurent parallèles, sans interaction possible entre un objet réel et un objet virtuel.
[013] L’absence, d’une part, d’interactions entre un objet virtuel et un objet réel, bien qu’ils soient tous deux présents dans une même scène affichée à l’utilisateur et, d’autre part, d’une assimilation des différents moyens de commande a pour effet de limiter l’expérience d’immersion.
[014] En effet, pour pouvoir interagir avec un objet qui lui est affiché, l’utilisateur doit en permanence distinguer si cet objet est réel ou simulé, afin de sélectionner le moyen de commande correspondant lui permettant d’interagir avec cet objet.
[015] Un objet de la présente invention est d’améliorer l’effet d’immersion de la réalité mixte appliquée aux événements collectifs.
[016] Un autre objet de la présente invention est de proposer des méthodes et systèmes permettant de réduire les ressources requises pour l’organisation d’un événement collectif (ou collaboratif).
[017] Un autre objet de la présente invention est de fournir en temps réel à un utilisateur des scènes 3D intégrant des objets virtuels et des objets réels avec lesquels il peut interagir indistinctement.
[018] Un autre objet de la présente invention est d’améliorer l’expérience d’immersion d’un utilisateur participant à distance à un environnement collectif.
[019] Un autre objet de la présente invention est d’enrichir l’interactivité entre l’utilisateur et des objets qui lui sont affichés dans une scène immersive.
[020] Un autre objet de la présente invention est de permettre une coexistence cohérente d’objets réels et d’objets virtuels dans une scène immersive d’un évènement collectif.
[021] A cet effet, il est proposé, selon un premier aspect, un système d’immersion pour la gestion d’un événement collectif se déroulant dans un environnement prédéfini et intégrant au moins un objet radiocommandé, ce système comprenant un dispositif de commande et/ou un équipement utilisateur de réalité augmentée, le dispositif de commande permettant de commander à distance l’objet radiocommandé, l’équipement utilisateur de réalité augmentée et le dispositif de commande étant mobiles dans l’environnement de l’évènement collectif;
une pluralité de capteurs, déployés dans ledit environnement et/ou dans l’objet radiocommandé ;
un serveur de réalité mixte configuré pour générer, à partir d’une première pluralité de données récupérées depuis ladite pluralité de capteurs, une première scène de réalité mixte intégrant l’objet radiocommandé et un objet virtuel prédéfini, ladite première pluralité de données récupérées étant associée à une première position, dans l’environnement de l’évènement collectif, du dispositif de commande ;
le dispositif de commande ou l’équipement utilisateur de réalité augmentée comprenant un capteur de positionnement destiné à déterminer une deuxième position, dans l’environnement de l’événement collectif, dudit dispositif de commande ou dudit équipement utilisateur de réalité augmentée ;
le serveur de réalité mixte étant, en outre, configuré pour générer, à partir d’une deuxième pluralité de données récupérées depuis ladite pluralité de capteurs, une deuxième scène de réalité mixte intégrant l’objet radiocommandé et l’objet virtuel prédéfini, la deuxième pluralité de données récupérées étant associée à la deuxième position.
[022] Diverses caractéristiques supplémentaires peuvent être prévues, seules ou en combinaison :
le système d’immersion comprend un casque de réalité augmentée, ce casque comprenant une boussole permettant de déterminer une première orientation dudit casque, le serveur de réalité mixte étant, en outre, configuré pour générer, à partir d’une troisième pluralité de données récupérées depuis ladite pluralité de capteurs, une troisième scène de réalité mixte intégrant l’objet radiocommandé et l’objet virtuel prédéfini, la troisième pluralité de données récupérées étant associée à la première orientation ;le serveur de réalité mixte est, en outre, configuré pour changer la destination d’une commande destinée à l’objet radiocommandé ; le serveur de réalité mixte est, en outre, configuré pour changer la destination d’une commande destinée à l’objet virtuel ;
le capteur de positionnement est centimétrique ;
le dispositif de commande communique avec l’objet radiocommandé par l’intermédiaire du serveur de réalité mixte ; l’objet radiocommandé comprend un capteur inertiel et/ou un capteur de positionnement ;
le système d’immersion comprend, en outre, un terminal utilisateur connecté au serveur de réalité mixte et configuré pour commander l’objet virtuel ;
l’objet radiocommandé est un véhicule nautique ; l’évènement collectif est une compétition nautique.
[023] D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement et de manière concrète à la lecture de la description ciaprès de modes de réalisation, laquelle est faite en référence aux dessins annexés dans lesquels :
- la figure 1 illustre schématiquement un objet mobile radiocommandé ;
- la figure 2 illustre schématiquement un événement collectif comprenant une pluralité d’objets virtuels et réels, selon divers modes de réalisation.
[024] Il est représenté sur la figure 1 un objet radiocommandé 1. Dans cet exemple, l’objet mobile radiocommandé 1 est un véhicule nautique tel qu’un voilier. Ce voilier est, par exemple, de type modélisme naval radiocommandé.
[025] Bien entendu, l’exemple d’un véhicule nautique n’est en aucun cas limitatif de l’objet radiocommandé 1 qui peut être tout autre dispositif réel radiocommandé en modèle réduit ou en grandeur nature tel qu’un jouet radiocommandé, ou un véhicule radiocommandé. Par exemple, l’objet radiocommandé 1 est, dans un mode de réalisation, un véhicule terrestre tel qu’une voiture radiocommandée ou un véhicule aérien tel qu’un drone radiocommandé.
[026] Le véhicule nautique comprend deux actionneurs (treuil ou servomoteur de préférence), servant à la direction et à la propulsion (écoute de la ou des voile(s)). Le véhicule nautique peut comprendre une machine à fumée, des ballasts, un moteur à hélice et un système de foils rétractable dans la coque du véhicule nautique.
[027] Le véhicule nautique comprend, en outre, une pluralité de capteurs inertiels, tel qu’un accéléromètre, un gyroscope, un magnétomètre, ou une boussole. En variante, le véhicule nautique comprend une centrale inertielle à neuf axes.
[028] L’objet radiocommandé 1 comprend une pluralité de capteurs tels que des caméras, des microphones, des capteurs de contact, un ou plusieurs capteurs de positionnement (notamment, un récepteur GPS), une girouette, un compte-tours, ou un anémomètre. Le capteur de positionnement est, dans un mode de réalisation, centimétrique de type « Rover » (ex : UBLOX NEO-M8P).
[029] Le véhicule nautique comprend aussi un module de communication sans fil de type Bluetooth, Wi-Fi, HiperLAN, LPWAN ou ZigBee. Ce module de communication sans fil est logé dans un boîtier étanche, ou un système similaire le protégeant de l’eau (couche de silicone, coffrage empêchant l’eau de rentrer en contact avec le système embarqué, même si le véhicule nautique se retourne).
[030] Ce module de communication sans fil est configuré pour communiquer, sur requête ou non, des données mesurées par des capteurs embarqués dans l’objet radiocommandé 1.
[031] Ce module de communication sans fil est apte à recevoir (depuis un dispositif de commande ou autre) et transférer des instructions ou des données de configuration destinées à un ou plusieurs capteurs embarqués dans l’objet radiocommandé 1.
[032] L’objet radiocommandé 1 peut être utilisé dans un événement collectif, notamment une compétition telle qu’une régate.
[033] En se référant à la figure 2, il est représenté, à titre illustratif, un environnement au sein duquel se déroule un évènement collectif, à savoir une compétition nautique.
[034] L’objet radiocommandé 1 est connecté, via son module de communication sans fil, à un serveur de réalité mixte 2. Le serveur de réalité mixte 2 dispose ainsi des données collectées par les capteurs embarqués dans l’objet radiocommandé 1.
[035] Le serveur de réalité mixte 2 dispose, en outre, de données captées par des capteurs 3 déployés dans l’environnement de l’événement collectif.
[036] Ces capteurs 3 comprennent, par exemples, des caméras, des capteurs de contact, un ou plusieurs capteurs de positionnement, un anémomètre, une girouette.
[037] L’anémomètre et la girouette sont, dans un mode de réalisation, disposés à minima à 1,50m de hauteur par rapport au niveau du plan d’eau.
[038] Un utilisateur (le skippeur), présent sur le lieu de l’événement collectif, est pourvu d’un dispositif de commande 4 permettant de commander à distance l’objet radiocommandé 1. Le dispositif de commande 4 est mobile dans l’environnement de l’évènement collectif. L’utilisateur équipé du dispositif de commande 4 peut, ainsi, se déplacer librement au moins dans une partie de l’environnement de l’événement collectif.
[039] Le terminal de commande 4 est un ordinateur fixe/mobile, une télécommande, un smartphone, ou une tablette tactile par exemple.
[040] Dans un mode de réalisation, le dispositif de commande 4 communique avec l’objet radiocommandé 1 directement (en mode « entrainement » par exemple) ou par l’intermédiaire du serveur de réalité mixte 2 (en mode « compétition »).
[041] Dans un mode de réalisation, le dispositif de commande 4 est, en outre, apte à recevoir et à afficher un flux vidéo reçu depuis le serveur de réalité mixte 2.
[042] En variante ou en combinaison, l’utilisateur est pourvu d’un équipement utilisateur de réalité augmentée, tel qu’un casque 5 ou des lunettes de réalité augmentée. Cet équipement est un dispositif que l’utilisateur porte sur la tête (sous la forme d’un casque ou des lunettes) ou dans les mains (smartphone, phablette, ou tablette). L’équipement utilisateur de réalité augmentée est connecté au serveur de réalité mixte 2. Le casque 5 de réalité augmentée comprend, dans un mode de réalisation, un capteur de positionnement (notamment, un récepteur GPS) permettant de localiser, au moins dans l’environnement de l’évènement collectif, ce casque 5 de réalité augmentée.
[043] Le serveur de réalité mixte 2 est apte à intégrer un ou plusieurs objets virtuels 6 prédéfinis à un contenu vidéo reçu depuis une caméra. Plus généralement, le serveur de réalité mixte 2 est configuré pour générer, à partir des données récupérées depuis les capteurs déployés dans l’environnement de l’évènement collectif et/ou dans l’objet radiocommandé 1, des scènes de réalité mixte intégrant l’objet radiocommandé 1 et/ou un ou plusieurs objets virtuels 6.
[044] Dans un mode de réalisation, le serveur de réalité mixte 2 est connecté à une base de données d’objets virtuels.
[045] Le dispositif de commande 4 et/ou l’équipement utilisateur de réalité augmentée (notamment, le casque 5 de réalité augmentée) comprennent un capteur de positionnement tel qu’un récepteur GPS. Ce capteur de positionnement est, dans un mode de réalisation, centimétrique. Ce capteur de positionnement permet de fournir les coordonnées précises du porteur (joueur, arbitre, ou spectateur par exemples) lorsqu’il se déplace dans l’environnement de l’évènement collectif.
[046] Le serveur de réalité mixte 2 est configuré pour générer (ou régénérer) une scène à l’intention du porteur (joueur, arbitre, spectateur ou, plus généralement, l’utilisateur) du dispositif de commande 4 et/ou de l’équipement utilisateur de réalité augmentée, en fonction des données de position du dispositif de commande et/ou celles de l’équipement utilisateur de réalité augmentée.
[047] L’équipement utilisateur de réalité augmentée, notamment le casque 5 ou des lunettes de réalité augmentée, comprend une boussole trois axes, permettant de fournir l’orientation de cet équipement dans un système de coordonnées (par exemple, en XYZ). Cette orientation permet de déterminer le champ de vision de l’utilisateur de l’équipement utilisateur de réalité augmentée. Le serveur de réalité mixte 2 est configuré pour générer une scène de réalité mixte à l’intention de l’utilisateur, en fonction de son champ de vision.
[048] Plus généralement, le serveur de réalité mixte 2 génère, à partir de données récupérées depuis les capteurs déployés dans l’environnement et/ou dans l’objet radiocommandé 1, une scène multimédia de réalité mixte, en fonction de la position du dispositif de commande 4 et/ou de la position et/ou de l’orientation de l’équipement utilisateur de réalité augmentée. Par exemple, le contenu multimédia de la scène générée est obtenu à partir des caméras et des microphones les plus proches de la position de l’utilisateur et/ou ceux couvrant son champ de vision et des faces des objets virtuels visibles depuis cette position et/ou sous l’orientation de l’utilisateur.
[049] Il en résulte, avantageusement, que le serveur de réalité mixte 2 permet de coordonner l’affichage simultané d’objets virtuels à l’intention de différents utilisateurs (qu’ils soient spectateurs, joueurs, ou arbitres par exemples), même quand ils se replacent et/ou changent de champ de vision.
[050] Le serveur de réalité mixte 2 est accessible via un réseau de communications 7 (communément, celui d’Internet), de sorte qu’un utilisateur distant pourvu d’un terminal utilisateur 8 (tel qu’un smartphone, une tablette ou un ordinateur portable/fixe) peut se connecter au serveur de réalité mixte 2 et prendre part à l’événement collectif en cours.
[051] Dans un mode de réalisation, l’utilisateur distant peut choisir, parmi une liste prédéfinie (de voiliers par exemple), un objet virtuel 6 avec lequel il souhaite participer à l’évènement collectif. Le serveur de réalité mixte 2 se charge d’intégrer un tel objet dans la scène de réalité mixte à diffuser de l’évènement collectif. En variante ou en combinaison, l’utilisateur distant participe à l’évènement collectif avec un objet radiocommandé 1 mis à sa disposition (par exemple, un voilier réel radiocommandé de location mis à l’eau par un utilisateur ou un spectateur présent sur l’événement).
[052] Le serveur de réalité mixte permet, en effet, de superposer de manière cohérente l’objet virtuel 6 à la perception que les utilisateurs ont de l’environnement réel et qui leur est affiché (sur l’écran du terminal utilisateur 8 distant, l’écran du terminal de commande 4 ou l’équipement utilisateur de réalité augmentée).
[053] L’objet radiocommandé 1 a, en effet, une existence concrète et objective et qui peut être observée directement, alors que l’objet virtuel 6 est un objet numérique qui existe par essence ou effet, et est simulé dans la scène de réalité mixte affichée à l’intention des utilisateurs.
[054] Cette scène de réalité mixte comprend, par exemple, l’environnement réel de l’événement (donc, y compris l’objet radiocommandé 1) qui est augmentée avec l’objet virtuel 6, un parcours de régate et, éventuellement, une ambiance.
[055] Grâce, d’une part, aux données collectées depuis les capteurs 3 déployés dans l’environnement de l’événement et, d’autre part, des commandes adressées à l’objet virtuel 6, le serveur de réalité mixte 2 combine les objets réels, y compris l’objet radiocommandé 1, et l’objet virtuel 6 dans l’environnement réel de compétition nautique. Dans cette combinaison, les objets virtuels coïncident avec les objets réels et inversement.
[056] Dans un mode de réalisation, des incidents imperceptibles (contact entre un véhicule nautique virtuel et un obstacle virtuel ou un obstacle réel tel que véhicule nautique réel) sont transformés par le serveur de réalité mixte 2 en des phénomènes perceptibles (visibles et/ou audibles aux utilisateurs).
[057] Par ailleurs, le serveur de réalité mixte 2 par lequel transitent les commandes destinées à l’objet radiocommandé 1 et l’objet virtuel 6 permet une interaction en temps réel avec ces objets 1, 6, soit au moyen du dispositif de commande 4 ou via le terminal utilisateur 8 distant.
[058] Le serveur de réalité mixte 2 sert de pont de communication sans fil entre les objets radiocommandés 1, les objets virtuels 6, les dispositifs de commande 4 et les terminaux utilisateur 8 distants.
[059] Le serveur de réalité mixte 2 interprète les commandes destinées aux objets 1, 6 et, sur requête ou non, permet de changer la destination (router) d’une commande.
[060] Il est, ainsi, possible de radiocommander au moyen du dispositif de commande 4 le véhicule nautique virtuel 6 et, inversement, de manipuler le véhicule nautique réel 1 depuis le terminal utilisateur 8 distant.
[061] Il en résulte une combinaison cohérente du monde physique avec des objets virtuels.
[062] L’interprétation en temps réel des interactions utilisateurs et des données renvoyées par les capteurs permet d’animer en temps réel l’objet virtuel 6 d’une manière cohérente avec l’environnement.
[063] L’animation de l’objet virtuel 6 peut être effectuée en temps réel à l’aide de tout moteur de simulation dynamique (moteur de jeu physique) tels que haVoKTM, Newton Game Dynamics, ou Dynamo.
[064] En temps réel, le serveur de réalité mixte 2 interprète les interactions des utilisateurs et les données collectées depuis les capteurs 3 et génère un contenu immersif (vidéo, audio, texte) qu’il transmet au terminal utilisateur 8 distant, au dispositif de commande 4 et/ou à l’équipement utilisateur de réalité augmentée.
[065] Ce contenu immersif comprend, par exemple, le plan d’eau sur lequel naviguent les véhicules nautiques (virtuels et réels), ainsi que d’autres informations telles que le cap, la gîte, la vitesse, le tangage, la force du signal de communication, le niveau d’autonomie en énergie d’un véhicule nautique, la distance entre un utilisateur et le véhicule nautique.
[066] Ce contenu immersif comprend, également, des informations concernant la régate telles que, par exemples, la position des balises, la position des bouées 9 virtuelles du parcours, des véhicules nautiques d’autres utilisateurs, le classement des utilisateurs, les instructions de course.
[067] Dans un mode de réalisation, le serveur de réalité mixte 2 diffuse à l’attention des utilisateurs des instructions/informations de courses (à la place du comité), au moyen de haut-parleurs ou au moyen de notifications intégrées au contenu visuel affiché par les équipements utilisateur de réalité mixte. Ces informations sont utiles pour certaines manœuvres en régates (passage de bouées éloignées, ou navigation en meute, par exemples) ainsi que pour informer les spectateurs sur l’événement.
[068] Le serveur de réalité mixte 2 est, dans un mode de réalisation, configuré pour commander un ou plusieurs véhicules nautiques radiocommandés (ceux de location par exemple), pour les faire retourner à un point précis du plan d’eau lorsqu’un délai d’utilisation est terminé.
[069] Le serveur de réalité mixte 2 est, dans un mode de réalisation, configuré pour adapter le parcours de régate automatiquement et en temps réel, en fonction des changements d’orientation et de force du vent, ces données étant collectées depuis des capteurs 3 déployés dans l’environnement de l’évènement.
[070] Plusieurs vues de la scène sont mises à disposition des utilisateurs par le serveur de réalité mixte 2, telles qu’une vue objective (ou « vue à la troisième personne »), une vue subjective (ou « vue à la première personne » provenant d’une caméra embarquée dans le véhicule nautique ou sur drone volant, par exemple).
[071] Le serveur de réalité mixte 2 permet de créer une réalité mixte à l’utilisateur présent sur le lieu de la régate ainsi qu’à un utilisateur (skippeur ou téléspectateur) distant du lieu de la régate. Il en résulte, avantageusement, une simplification de l’organisation d’une compétition nautique intégrant à la fois des voiliers réels radiocommandés et des voiliers virtuels.
[072] Le serveur de réalité mixte 2 communique en temps réel des informations concernant l’événement en diffusion à un serveur distant. Des informations concernant, par exemple, une régate en cours sont ainsi disponibles, via ce serveur distant.
[073] Dans un mode de réalisation, le serveur distant stocke dans une base de données accessible en ligne des informations reçues depuis le serveur de réalité mixte 2. Cette base de données comprend, par exemple, les résultats des compétitions, ou aussi des informations relatives aux régates ou aux participants. Ces données stockées permettent de rejouer (en mode différé) ou répondre à une requête concernant une séquence ou la totalité d’un contenu immersif préalablement diffusé.
[074] Dans un mode de réalisation, le système décrit ci-dessus est utilisé pour tout autre événement collectif tel qu’un jeu ou loisir nautique incluant des véhicules nautiques radiocommandés (par exemple, des combats navals mêlant plusieurs voiliers devant s’affronter avec des armes virtuelles sur des plans d’eau réels).
[075] Une caméra embarquée, positionnée sur un support rotatif dans les trois directions de l’espace, peut s’apparenter à la vue d’un canon pour les scénarios de combats navals. Cette vue est retranscrite sur l’écran d’affichage du dispositif de commande ou via l’équipement utilisateur de réalité augmentée. Dans ce cas, le skippeur peut soit manœuvrer le voilier et le canon, ou déléguer l’usage de “l’arme virtuelle” à un canonnier (joueur additionnel), depuis un second dispositif de commande. Des navigations en équipage sont, ainsi, possibles.
[076] Les méthodes et systèmes décrits ci-dessus trouvent, notamment, application dans l’organisation d’un événement collectif impliquant un ou plusieurs participants distants en plus d’au moins un participant présent sur le lieu de l’événement.
Claims (10)
- Revendications1. Système d’immersion pour la gestion d’un événement collectif se déroulant dans un environnement prédéfini et intégrant au moins un objet radiocommandé (1), ce système comprenant un dispositif de commande (4) et/ou un équipement utilisateur de réalité augmentée, le dispositif de commande (4) permettant de commander à distance l’objet radiocommandé (1), l’équipement utilisateur de réalité augmentée et le dispositif de commande (4) étant mobiles dans l’environnement de l’évènement collectif;une pluralité de capteurs, déployés dans ledit environnement et/ou dans l’objet radiocommandé (1);un serveur de réalité mixte (2), configuré pour générer, à partir d’une première pluralité de données récupérées depuis ladite pluralité de capteurs, une première scène de réalité mixte intégrant l’objet radiocommandé (1) et un objet virtuel (6) prédéfini, ladite première pluralité de données récupérées étant associée à une première position, dans l’environnement de l’évènement collectif, du dispositif de commande (4), ce système étant caractérisé en ce que le dispositif de commande (4) ou l’équipement utilisateur de réalité augmentée comprend un capteur de positionnement destiné à déterminer une deuxième position, dans l’environnement de l’événement collectif, dudit dispositif de commande (4) ou dudit équipement utilisateur de réalité augmentée ;le serveur de réalité mixte (2) est, en outre, configuré pour générer, à partir d’une deuxième pluralité de données récupérées depuis ladite pluralité de capteurs (3), une deuxième scène de réalité mixte intégrant l’objet radiocommandé (1) et l’objet virtuel (6) prédéfini, la deuxième pluralité de données récupérées étant associée à la deuxième position.
- 2. Système selon la revendication précédente, caractérisé en ce qu’il comprend un casque (5) de réalité augmentée, ce casque comprenant une boussole permettant de déterminer une première orientation dudit casque (5), le serveur de réalité mixte (2) étant, en outre, configuré pour générer, à partir d’une troisième pluralité de données récupérées depuis ladite pluralité de capteurs (3), une troisième scène de réalité mixte intégrant l’objet radiocommandé (1) et l’objet virtuel (6) prédéfini, la troisième pluralité de données récupérées étant associée à la première orientation.
- 3. Système selon la revendication 1 ou 2, caractérisé en ce que le serveur de réalité mixte (2) est, en outre, configuré pour changer la destination d’une commande destinée à l’objet radiocommandé (1).
- 4. Système selon la revendication 1 ou 2, caractérisé en ce que le serveur de réalité mixte (2) est, en outre, configuré pour changer la destination d’une commande destinée à l’objet virtuel (6).
- 5. Système selon l’une quelconque des revendications précédentes, caractérisé en ce que le capteur de positionnement est centimétrique.
- 6. Système selon l’une quelconque des revendications précédentes, caractérisé en ce que le dispositif de commande (4) communique avec l’objet radiocommandé (1) par l’intermédiaire du serveur de réalité mixte (2).
- 7. Système selon l’une quelconque des revendications précédentes, caractérisé en ce que l’objet radiocommandé (1) comprend un capteur inertiel et/ou un capteur de positionnement.
- 8. Système selon l’une quelconque des revendications précédentes, caractérisé en ce qu’il comprend, en outre, un terminal utilisateur (8) connecté au serveur de réalité mixte (2) et configuré pour commander l’objet virtuel (6) ou l’objet radiocommandé (1).
- 9. Système selon l’une quelconque des revendications précédentes, caractérisé en ce que l’objet radiocommandé (1) est un véhicule nautique, un véhicule terrestre ou un véhicule aérien.
- 10. Système selon l’une quelconque des revendications précédentes, caractérisé en ce que l’évènement collectif est une compétition nautique, une compétition automobile ou une compétition aérienne.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1856109A FR3083457B1 (fr) | 2018-07-03 | 2018-07-03 | Methodes et systemes de realite mixte appliquees aux evenements collectifs |
EP19182428.3A EP3590587A1 (fr) | 2018-07-03 | 2019-06-25 | Methodes et systemes de realite mixte appliquees aux evenements collectifs |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1856109A FR3083457B1 (fr) | 2018-07-03 | 2018-07-03 | Methodes et systemes de realite mixte appliquees aux evenements collectifs |
FR1856109 | 2018-07-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3083457A1 true FR3083457A1 (fr) | 2020-01-10 |
FR3083457B1 FR3083457B1 (fr) | 2020-07-17 |
Family
ID=65031359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1856109A Expired - Fee Related FR3083457B1 (fr) | 2018-07-03 | 2018-07-03 | Methodes et systemes de realite mixte appliquees aux evenements collectifs |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP3590587A1 (fr) |
FR (1) | FR3083457B1 (fr) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060223637A1 (en) | 2005-03-31 | 2006-10-05 | Outland Research, Llc | Video game system combining gaming simulation with remote robot control and remote robot feedback |
WO2008145980A1 (fr) | 2007-05-31 | 2008-12-04 | Sony Computer Entertainment Europe Limited | Système et procédé de divertissement |
US20160129358A1 (en) * | 2014-11-07 | 2016-05-12 | Meeper Technology, LLC | Smart Phone Controllable Construction Brick Vehicle |
US20180095461A1 (en) * | 2016-09-30 | 2018-04-05 | Sony Interactive Entertainment Inc. | Uav positional anchors |
-
2018
- 2018-07-03 FR FR1856109A patent/FR3083457B1/fr not_active Expired - Fee Related
-
2019
- 2019-06-25 EP EP19182428.3A patent/EP3590587A1/fr not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060223637A1 (en) | 2005-03-31 | 2006-10-05 | Outland Research, Llc | Video game system combining gaming simulation with remote robot control and remote robot feedback |
WO2008145980A1 (fr) | 2007-05-31 | 2008-12-04 | Sony Computer Entertainment Europe Limited | Système et procédé de divertissement |
US20160129358A1 (en) * | 2014-11-07 | 2016-05-12 | Meeper Technology, LLC | Smart Phone Controllable Construction Brick Vehicle |
US20180095461A1 (en) * | 2016-09-30 | 2018-04-05 | Sony Interactive Entertainment Inc. | Uav positional anchors |
Also Published As
Publication number | Publication date |
---|---|
EP3590587A1 (fr) | 2020-01-08 |
FR3083457B1 (fr) | 2020-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200254353A1 (en) | Synchronized motion simulation for virtual reality | |
US10692174B2 (en) | Course profiling and sharing | |
US10977865B2 (en) | Augmented reality in vehicle platforms | |
US10377484B2 (en) | UAV positional anchors | |
Cheng | Aerial photography and videography using drones | |
Gunning | The Whole World Within Reach | |
KR101748401B1 (ko) | 가상현실 어트랙션 제어 방법 및 시스템 | |
KR101736477B1 (ko) | 저장된 콘텐츠 및 ar 통신의 로컬 센서 증강 | |
CN111228804B (zh) | 在虚拟环境中驾驶载具的方法、装置、终端及存储介质 | |
EP2099541A1 (fr) | Procede de definition de zone de jeux pour un systeme de jeux video | |
FR3058238A1 (fr) | Systeme autonome de prise de vues animees par un drone avec poursuite de cible et maintien de l'angle de prise de vue de la cible. | |
FR2908324A1 (fr) | Procede d'ajustement d'affichage pour un systeme de jeux video | |
US11328489B2 (en) | Augmented reality user interface including dual representation of physical location | |
FR2957266A1 (fr) | Procede et appareil de telecommande d'un drone, notamment d'un drone a voilure tournante. | |
KR20100137413A (ko) | 이동체 경쟁 구현 시스템 | |
JP2008059587A (ja) | Gps探索装置 | |
FR3054336A1 (fr) | Systeme autonome de prise de vues animees par un drone avec poursuite de cible et localisation amelioree de la cible. | |
FR3056921A1 (fr) | Systeme autonome de prise de vues animees par un drone avec poursuite de cible et maintien de l'angle de prise de vue de la cible. | |
FR3054334A1 (fr) | Systeme autonome de prise de vues animees comprenant un drone et une station au sol, et procede associe. | |
EP3397919B2 (fr) | Procédé et dispositif de simulation de tourelle | |
US20210192851A1 (en) | Remote camera augmented reality system | |
KR101778199B1 (ko) | 가상 현실 어트랙션 장치 | |
US20220368958A1 (en) | Live video distribution method using unmanned moving device, video distribution device used in live video distribution method, and video archive device for storing video data file generated by video distribution device | |
BELL et al. | ‘I was here’: pixilated evidence | |
Smith | The photographer's guide to drones |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20200110 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
ST | Notification of lapse |
Effective date: 20230305 |