EP3590587A1 - Methodes et systemes de realite mixte appliquees aux evenements collectifs - Google Patents

Methodes et systemes de realite mixte appliquees aux evenements collectifs Download PDF

Info

Publication number
EP3590587A1
EP3590587A1 EP19182428.3A EP19182428A EP3590587A1 EP 3590587 A1 EP3590587 A1 EP 3590587A1 EP 19182428 A EP19182428 A EP 19182428A EP 3590587 A1 EP3590587 A1 EP 3590587A1
Authority
EP
European Patent Office
Prior art keywords
radio
mixed reality
controlled object
control device
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP19182428.3A
Other languages
German (de)
English (en)
Inventor
Paul-Henri DECAMP
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dws Dyna Wing Sail
Original Assignee
Dws Dyna Wing Sail
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dws Dyna Wing Sail filed Critical Dws Dyna Wing Sail
Publication of EP3590587A1 publication Critical patent/EP3590587A1/fr
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H17/00Toy vehicles, e.g. with self-drive; ; Cranes, winches or the like; Accessories therefor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H23/00Toy boats; Floating toys; Other aquatic toy devices
    • A63H23/02Boats; Sailing boats
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H27/00Toy aircraft; Other flying toys
    • A63H27/12Helicopters ; Flying tops

Definitions

  • the present invention relates to the technical field of immersion methods and systems, and more particularly to mixed reality methods and systems in the context of collective events.
  • the present invention relates more particularly to competitions of scale models of nautical vehicles, such as for example regattas of radio-controlled sailboats.
  • augmented reality makes it possible to increase the user's sense.
  • a regatta course marked by a starting line, virtual buoys and a finishing line can be superimposed, in a scene intended for a user equipped with an augmented reality helmet. , on the real water level of the competition. Textual or graphic content can also be overlaid on a real radio-controlled nautical vehicle, so that this content seems to the user to exist in the real world.
  • sensors are generally deployed in the real environment and / or directly on nautical vehicles, to detect in real time a change in the real scene and to align, consequently, the virtual objects which are there are integrated.
  • WO2008145980 proposes the creation of an augmented reality for the remote control of a remote-controlled toy, integrating a video camera configured to acquire video images of the real environment.
  • the scene displayed at the user is augmented by virtual image entities, generated as a function of image entities detected in the video images received from the real environment.
  • virtual reality makes it possible to constitute an immersive virtual environment (a 3D model), corresponding to a real environment and with which one can interact in real time, by means of a remote-controllable virtual object. Piloting a vehicle, such as a virtual drone, in a 3D reconstruction of a real city by immersion in a cockpit, is one example.
  • the document US2006223637 (Ferraz ) describes a system for controlling a radio-controlled toy vehicle incorporating a video camera, and a control device capable of controlling this toy vehicle and comprising a real-time visual display of the video content captured by the on-board camera.
  • a software application operating on the control device makes it possible to superimpose, on the visual display of the camera data, virtual functions / means associated with the radio-controlled toy vehicle (a simulated weapon system controllable from the control device).
  • two users provided, respectively, with a control device and a toy vehicle (the two vehicles being real and arranged in the same circuit) can control the movement of their respective vehicles, as well as target and control the virtual weapon system in the direction of the opposing vehicle.
  • An object of the present invention is to improve the immersion effect of mixed reality applied to collective events.
  • Another object of the present invention is to propose methods and systems making it possible to reduce the resources required for the organization of a collective (or collaborative) event.
  • Another object of the present invention is to provide a user in real time with 3D scenes integrating virtual objects and real objects with which he can interact without distinction.
  • Another object of the present invention is to improve the immersion experience of a user participating remotely in a collective environment.
  • Another object of the present invention is to enrich the interactivity between the user and objects which are displayed to him in an immersive scene.
  • Another object of the present invention is to allow a coherent coexistence of real objects and virtual objects in an immersive scene of a collective event.
  • the radio-controlled mobile object 1 is a nautical vehicle such as a sailboat.
  • This sailboat is, for example, of radio-controlled naval model making type.
  • the example of a nautical vehicle is in no way limiting of the radio-controlled object 1 which can be any other real radio-controlled device in reduced model or in full size such as a radio-controlled toy, or a radio-controlled vehicle .
  • the radio-controlled object 1 is, in one embodiment, a land vehicle such as a radio-controlled car or an air vehicle such as a radio-controlled drone.
  • the watercraft includes two actuators (winch or servomotor preferably), used for steering and propulsion (listening to the sail (s)).
  • the watercraft may include a smoke machine, ballasts, a propeller motor and a system foils retractable in the hull of the watercraft.
  • the watercraft further comprises a plurality of inertial sensors, such as an accelerometer, a gyroscope, a magnetometer, or a compass.
  • the water vehicle includes a nine-axis inertial unit.
  • the radio-controlled object 1 comprises a plurality of sensors such as cameras, microphones, contact sensors, one or more positioning sensors (in particular, a GPS receiver), a wind vane, a tachometer, or an anemometer.
  • the positioning sensor is, in one embodiment, centimeter of the “Rover” type (eg: UBLOX NEO-M8P).
  • the watercraft also includes a wireless communication module such as Bluetooth, Wi-Fi, HiperLAN, LPWAN or ZigBee.
  • This wireless communication module is housed in a waterproof case, or a similar system protecting it from water (silicone layer, formwork preventing water from coming into contact with the on-board system, even if the nautical vehicle overturns) .
  • This wireless communication module is configured to communicate, on request or not, data measured by sensors on board the radio-controlled object 1 .
  • This wireless communication module is capable of receiving (from a control device or the like) and transferring instructions or configuration data intended for one or more sensors on board the radio-controlled object 1 .
  • the radio-controlled object 1 can be used in a collective event, in particular a competition such as a regatta.
  • FIG. 2 there is shown, by way of illustration, an environment in which a collective event takes place, namely a nautical competition.
  • the radio-controlled object 1 is connected, via its wireless communication module, to a mixed reality server 2 .
  • the mixed reality server 2 thus has data collected by the sensors on board the radio-controlled object 1 .
  • the mixed reality server 2 also has data captured by sensors 3 deployed in the environment of the collective event.
  • These sensors 3 include, for example, cameras, contact sensors, one or more positioning sensors, an anemometer, a wind vane.
  • the anemometer and the wind vane are, in one embodiment, arranged at least 1.50 m in height relative to the level of the water body.
  • a user (the skipper), present at the site of the collective event, is provided with a control device 4 making it possible to control the radio-controlled object 1 remotely.
  • the control device 4 is mobile in the environment of the collective event. The user equipped with the control device 4 can thus move freely at least in part of the environment of the collective event.
  • the control terminal 4 is a fixed / mobile computer, a remote control, a smartphone, or a touch pad for example.
  • control device 4 communicates with the radio-controlled object 1 directly (in “training” mode for example) or via the mixed reality server 2 (in “competition” mode).
  • control device 4 is also able to receive and display a video stream received from the mixed reality server 2 .
  • the user is provided with an augmented reality user equipment, such as a headset 5 or augmented reality glasses.
  • This equipment is a device that the user wears on the head (in the form of a helmet or glasses) or in the hands (smartphone, phablet, or tablet).
  • the augmented reality user equipment is connected to the mixed reality server 2 .
  • the augmented reality helmet 5 comprises, in one embodiment, a positioning sensor (in particular, a GPS receiver) making it possible to locate, at least in the environment of the collective event, this augmented reality helmet 5 .
  • the mixed reality server 2 is able to integrate one or more predefined virtual objects 6 into video content received from a camera. More generally, the mixed reality server 2 is configured to generate, from the data recovered from the sensors deployed in the environment of the collective event and / or in the radio-controlled object 1 , mixed reality scenes integrating the object radio-controlled 1 and / or one or more virtual objects 6 .
  • the mixed reality server 2 is connected to a database of virtual objects.
  • the control device 4 and / or the augmented reality user equipment comprises a positioning sensor such as a GPS receiver.
  • This positioning sensor is, in one embodiment, centimetric. This positioning sensor makes it possible to provide the precise coordinates of the wearer (player, referee, or spectator for example) when he moves in the environment of the collective event.
  • the mixed reality server 2 is configured to generate (or regenerate) a scene for the wearer (player, referee, spectator or, more generally, the user) of the control device 4 and / or of the user equipment.
  • augmented reality based on position data from the control device and / or that of the augmented reality user equipment.
  • the augmented reality user equipment in particular the helmet 5 or augmented reality glasses, comprises a three-axis compass, making it possible to provide the orientation of this equipment in a coordinate system (for example, in XYZ). This orientation makes it possible to determine the field of vision of the user of the augmented reality user equipment.
  • the mixed reality server 2 is configured to generate a mixed reality scene for the user, according to his field of vision.
  • the mixed reality server 2 generates, from data retrieved from the sensors deployed in the environment and / or in the radio-controlled object 1 , a multimedia scene of mixed reality, as a function of the position of the control device. 4 and / or the position and / or the orientation of the augmented reality user equipment.
  • the multimedia content of the generated scene is obtained from the cameras and microphones closest to the position of the user and / or those covering his field of vision and the faces of the virtual objects visible from this position and / or under the guidance of the user.
  • the mixed reality server 2 makes it possible to coordinate the simultaneous display of virtual objects to the intention of different users (whether spectators, players, or referees for example), even when they replace themselves and / or change their field of vision.
  • the mixed reality server 2 is accessible via a communications network 7 (commonly that of the Internet), so that a remote user provided with a user terminal 8 (such as a smartphone, a tablet or a laptop) / fixed) can connect to the mixed reality server 2 and take part in the current collective event.
  • a communications network 7 commonly that of the Internet
  • the remote user can choose, from a predefined list (of sailboats for example), a virtual object 6 with which he wishes to participate in the collective event.
  • the mixed reality server 2 is responsible for integrating such an object into the mixed reality scene to be broadcast from the collective event.
  • the remote user participates in the collective event with a radio-controlled object 1 made available to him (for example, a real radio-controlled rental sailboat launched by a user or a spectator present on the event).
  • the mixed reality server makes it possible, in fact, to coherently superimpose the virtual object 6 on the perception that users have of the real environment and which is displayed to them (on the screen of the remote user terminal 8 , the screen of the control terminal 4 or the augmented reality user equipment).
  • the radio-controlled object 1 has, in fact, a concrete and objective existence which can be observed directly, whereas the virtual object 6 is a digital object which exists by essence or effect, and is simulated in the scene of mixed reality displayed for users.
  • This mixed reality scene includes, for example, the actual environment of the event (therefore, including the radio-controlled object 1 ) which is augmented with the virtual object 6 , a regatta course and, possibly, an atmosphere.
  • the mixed reality server 2 combines the real objects , including the radio-controlled object 1 , and the virtual object 6 in the real nautical competition environment.
  • the virtual objects coincide with the real objects and Conversely.
  • imperceptible incidents contact between a virtual nautical vehicle and a virtual obstacle or a real obstacle such as a real nautical vehicle
  • perceptible phenomena visible and / or audible to users
  • the mixed reality server 2 through which the commands for the radio-controlled object 1 and the virtual object 6 pass allows real-time interaction with these objects 1 , 6 , either by means of the control device 4 or via the remote user terminal 8 .
  • the mixed reality server 2 serves as a wireless communication bridge between the radio-controlled objects 1 , the virtual objects 6 , the control devices 4 and the remote user terminals 8 .
  • the mixed reality server 2 interprets the commands intended for objects 1 , 6 and, on request or not, allows the destination (router) of a command to be changed.
  • the result is a coherent combination of the physical world with virtual objects.
  • the real-time interpretation of user interactions and the data returned by the sensors makes it possible to animate virtual object 6 in real time in a manner consistent with the environment.
  • the animation of the virtual object 6 can be performed in real time using any dynamic simulation engine (physical game engine) such as haVoKTM, Newton Game Dynamics, or Dynamo.
  • dynamic simulation engine physical game engine
  • haVoKTM Newton Game Dynamics
  • Dynamo Dynamo.
  • the mixed reality server 2 interprets user interactions and the data collected from the sensors 3 and generates immersive content (video, audio, text) which it transmits to the remote user terminal 8 , to the control device 4 and / or the augmented reality user equipment.
  • This immersive content includes, for example, the body of water on which the nautical vehicles sail (virtual and real), as well as other information such as the course, the list, the speed, the pitch, the strength of the communication signal, the level of energy autonomy of a nautical vehicle, the distance between a user and the nautical vehicle.
  • This immersive content also includes information concerning the regatta such as, for example, the position of the beacons, the position of the virtual buoys 9 of the course, other users' nautical vehicles, the classification of the users, the sailing instructions.
  • the mixed reality server 2 broadcasts racing instructions / information (in place of the committee) to the users, by means of speakers or by means of notifications integrated into the visual content displayed by mixed reality user equipment. This information is useful for certain maneuvers in regattas (passage of distant buoys, or navigation in packs, for example) as well as to inform spectators about the event.
  • the mixed reality server 2 is, in one embodiment, configured to control one or more radio-controlled nautical vehicles (those for rental for example), to make them return to a specific point in the water when a delay of use is complete.
  • the mixed reality server 2 is, in one embodiment, configured to adapt the regatta course automatically and in real time, as a function of changes in orientation and wind strength, this data being collected from sensors 3 deployed in the environment of the event.
  • Several views of the scene are made available to users by the mixed reality server 2 , such as an objective view (or “third-person view”), a subjective view (or “first-person view” from '' a camera on board a nautical vehicle or on a flying drone, for example).
  • an objective view or “third-person view”
  • a subjective view or “first-person view” from '' a camera on board a nautical vehicle or on a flying drone, for example.
  • the mixed reality server 2 makes it possible to create a mixed reality for the user present at the regatta location as well as for a user (skipper or viewer) distant from the regatta location. This results, advantageously, in a simplification of the organization of a nautical competition integrating both real radio-controlled sailboats and virtual sailboats.
  • the mixed reality server 2 communicates in real time information concerning the event being broadcast to a remote server. Information concerning, for example, a regatta in progress is thus available, via this remote server.
  • the remote server stores information received from the mixed reality server 2 in a database accessible online.
  • This database includes, for example, the results of competitions, or also information relating to regattas or participants. This stored data makes it possible to replay (in deferred mode) or respond to a request concerning a sequence or all of the immersive content previously broadcast.
  • the system described above is used for any other group event like a game or recreational boating including water vehicles radio controlled (eg, naval battles combining several sailboats in front compete with virtual weapons on real water bodies).
  • group event like a game or recreational boating including water vehicles radio controlled (eg, naval battles combining several sailboats in front compete with virtual weapons on real water bodies).
  • An on-board camera positioned on a rotating support in the three directions of space, can be compared to the sight of a cannon for naval combat scenarios.
  • This view is transcribed on the display screen of the control device or via the augmented reality user equipment.
  • the skipper can either maneuver the sailboat and the cannon, or delegate the use of the "virtual weapon" to a gunner (additional player), from a second control device. Crew navigation is thus possible.
  • the methods and systems described above find, in particular, application in the organization of a collective event involving one or more distant participants in addition to at least one participant present at the place of the event.

Landscapes

  • Engineering & Computer Science (AREA)
  • Ocean & Marine Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)
  • Toys (AREA)
  • Selective Calling Equipment (AREA)

Abstract

Système d'immersion pour la gestion d'un événement collectif se déroulant dans un environnement prédéfini et intégrant au moins un objet radiocommandé (1), ce système comprenant- un dispositif de commande (4) permettant de commander à distance l'objet radiocommandé, ce dispositif de commande étant mobile dans l'environnement de l'événement collectif;- une pluralité de capteurs déployés dans ledit environnement et/ou dans l'objet radiocommandé;- un serveur de réalité mixte (2) configuré pour générer, à partir de données récupérées depuis ladite pluralité de capteurs et en fonction de la position du dispositif de commande dans l'environnement, une scène de réalité mixte intégrant l'objet radiocommandé et un objet virtuel (6) prédéfini.

Description

  • La présente invention se rapporte au domaine technique des méthodes et systèmes d'immersion, et plus particulièrement aux méthodes et systèmes de réalité mixte dans le contexte d'événements collectifs.
  • La présente invention concerne plus particulièrement les compétitions de modèles réduits de véhicules nautiques, telles que par exemple les régates de voiliers radiocommandés.
  • Un événement est indéniablement plus excitant si on le vit en direct ou on y participe réellement, dans la mesure où on peut interagir directement avec l'environnement où se déroule cet événement. Cependant, pour diverses raisons, ce désir n'est toujours pas physiquement réalisable. Des technologies de Médias immersifs visent à remédier à cette limite. On cite ici, à titre d'exemples, la réalité augmentée, la réalité virtuelle ou, plus récemment, la réalité mixte.
  • En intégrant en temps réel des éléments virtuels (générés par ordinateur) dans l'environnement réel de l'utilisateur, la réalité augmentée permet d'augmenter le sens de l'utilisateur.
  • Par exemple, dans une compétition de véhicules nautiques radiocommandés, un parcours de régate marqué par une ligne de départ, des bouées et une ligne d'arrivée virtuels peuvent être superposés, dans une scène destinée à un utilisateur équipé d'un casque de réalité augmentée, sur le plan d'eau réel de la compétition. Un contenu textuel ou graphique peut également être superposé sur un véhicule nautique radiocommandé réel, de sorte que ce contenu semble, pour l'utilisateur, exister dans le monde réel. Pour que la scène augmentée soit cohérente, des capteurs sont généralement déployés dans l'environnement réel et/ou directement sur les véhicules nautiques, pour détecter en temps réel un changement dans la scène réelle et en aligner, en conséquence, les objets virtuels qui y sont intégrés.
  • Le document WO2008145980 (Sony ) propose la création d'une réalité augmentée pour la commande à distance d'un jouet télécommandé, intégrant une caméra vidéo configurée pour acquérir des images vidéo de l'environnement réel. La scène affichée à l'utilisateur est augmentée par des entités d'image virtuelles, générées en fonction d'entités d'image détectées dans les images vidéo reçues de l'environnement réel.
  • Par ailleurs, la réalité virtuelle permet de constituer un environnement virtuel immersif (un modèle 3D), correspondant à un environnement réel et avec lequel on peut interagir en temps réel, au moyen d'un objet virtuel télécommandable. Le pilotage d'un véhicule, tel qu'un drone virtuel, dans une reconstruction 3D d'une ville réelle par immersion dans un cockpit, en est un exemple.
  • La réalité mixte, qui se situe à mi-chemin entre la réalité virtuelle et la réalité augmentée, combine de manière cohérente des éléments réels et des éléments virtuels avec lesquels l'utilisateur peut interagir simultanément.
  • Le document US2006223637 (Ferraz ) décrit un système pour la commande d'un véhicule jouet radiocommandé intégrant une caméra vidéo, et un dispositif de commande apte à commander ce véhicule jouet et comprenant un affichage visuel en temps réel du contenu vidéo capté par la caméra embarquée. Une application logicielle fonctionnant sur le dispositif de commande permet de superposer, sur l'affichage visuel des données de la caméra, des fonctions/moyens virtuels associés au véhicule jouet radiocommandé (un système d'arme simulé commandable depuis le dispositif de commande). Dans un scénario de jeu, deux utilisateurs pourvus, respectivement, d'un dispositif de commande et d'un véhicule jouet (les deux véhicules étant réels et disposés dans un même circuit) peuvent commander le déplacement de leurs véhicules respectifs, ainsi que de cibler et commander le système d'arme virtuel en direction du véhicule adverse.
  • Cependant, un événement collectif implique plusieurs intervenants (des joueurs, des arbitres) et nécessite le plus souvent des moyens coûteux en temps et en argent.
  • Par exemple, la voile radiocommandée se pratique entre plusieurs compétiteurs, sur des parcours de régates, suivant des règles officielles strictes. Il en résulte que l'organisation d'un tel événement nécessite au minimum, outre le matériel requis, deux ou trois arbitres qualifiés, un jaugeur et un mouilleur de bouées. Ces contraintes compliquent cette organisation et limitent, par conséquent, le nombre des rencontres et prive d'autres personnes de pouvoir y participer.
  • Les techniques de médias immersifs existantes ne peuvent pallier ces contraintes, parce qu'elles permettent seulement de superposer dans un même affichage des objets du monde physique et des objets du monde numérique, en ajoutant un objet d'un des deux mondes dans l'autre monde, ces objets ne pouvant être manipulés que par les outils du monde dont ils sont, respectivement, issus. Ceci a pour inconvénient que, malgré le mixage apparent des deux mondes réel et virtuel, ces deux mondes demeurent parallèles, sans interaction possible entre un objet réel et un objet virtuel.
  • L'absence, d'une part, d'interactions entre un objet virtuel et un objet réel, bien qu'ils soient tous deux présents dans une même scène affichée à l'utilisateur et, d'autre part, d'une assimilation des différents moyens de commande a pour effet de limiter l'expérience d'immersion.
  • En effet, pour pouvoir interagir avec un objet qui lui est affiché, l'utilisateur doit en permanence distinguer si cet objet est réel ou simulé, afin de sélectionner le moyen de commande correspondant lui permettant d'interagir avec cet objet.
  • Un objet de la présente invention est d'améliorer l'effet d'immersion de la réalité mixte appliquée aux événements collectifs.
  • Un autre objet de la présente invention est de proposer des méthodes et systèmes permettant de réduire les ressources requises pour l'organisation d'un événement collectif (ou collaboratif).
  • Un autre objet de la présente invention est de fournir en temps réel à un utilisateur des scènes 3D intégrant des objets virtuels et des objets réels avec lesquels il peut interagir indistinctement.
  • Un autre objet de la présente invention est d'améliorer l'expérience d'immersion d'un utilisateur participant à distance à un environnement collectif.
  • Un autre objet de la présente invention est d'enrichir l'interactivité entre l'utilisateur et des objets qui lui sont affichés dans une scène immersive.
  • Un autre objet de la présente invention est de permettre une coexistence cohérente d'objets réels et d'objets virtuels dans une scène immersive d'un événement collectif.
  • A cet effet, il est proposé, selon un premier aspect, un système d'immersion pour la gestion d'un événement collectif se déroulant dans un environnement prédéfini et intégrant au moins un objet radiocommandé, ce système comprenant
    • un dispositif de commande et/ou un équipement utilisateur de réalité augmentée, le dispositif de commande permettant de commander à distance l'objet radiocommandé, l'équipement utilisateur de réalité augmentée et le dispositif de commande étant mobiles dans l'environnement de l'événement collectif;
    • une pluralité de capteurs, déployés dans ledit environnement et/ou dans l'objet radiocommandé ;
    • un serveur de réalité mixte configuré pour générer, à partir d'une première pluralité de données récupérées depuis ladite pluralité de capteurs, une première scène de réalité mixte intégrant l'objet radiocommandé et un objet virtuel prédéfini, ladite première pluralité de données récupérées étant associée à une première position, dans l'environnement de l'événement collectif, du dispositif de commande ;
    • le dispositif de commande ou l'équipement utilisateur de réalité augmentée comprenant un capteur de positionnement destiné à déterminer une deuxième position, dans l'environnement de l'événement collectif, dudit dispositif de commande ou dudit équipement utilisateur de réalité augmentée ;
    • le serveur de réalité mixte étant, en outre, configuré pour générer, à partir d'une deuxième pluralité de données récupérées depuis ladite pluralité de capteurs, une deuxième scène de réalité mixte intégrant l'objet radiocommandé et l'objet virtuel prédéfini, la deuxième pluralité de données récupérées étant associée à la deuxième position.
  • Diverses caractéristiques supplémentaires peuvent être prévues, seules ou en combinaison :
    • le système d'immersion comprend un casque de réalité augmentée, ce casque comprenant une boussole permettant de déterminer une première orientation dudit casque, le serveur de réalité mixte étant, en outre, configuré pour générer, à partir d'une troisième pluralité de données récupérées depuis ladite pluralité de capteurs, une troisième scène de réalité mixte intégrant l'objet radiocommandé et l'objet virtuel prédéfini, la troisième pluralité de données récupérées étant associée à la première orientation ;le serveur de réalité mixte est, en outre, configuré pour changer la destination d'une commande destinée à l'objet radiocommandé ;
    • le serveur de réalité mixte est, en outre, configuré pour changer la destination d'une commande destinée à l'objet virtuel ;
    • le capteur de positionnement est centimétrique ;
    • le dispositif de commande communique avec l'objet radiocommandé par l'intermédiaire du serveur de réalité mixte ;
    • l'objet radiocommandé comprend un capteur inertiel et/ou un capteur de positionnement ;
    • le système d'immersion comprend, en outre, un terminal utilisateur connecté au serveur de réalité mixte et configuré pour commander l'objet virtuel ;
    • l'objet radiocommandé est un véhicule nautique ;
    • l'événement collectif est une compétition nautique.
  • D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement et de manière concrète à la lecture de la description ci-après de modes de réalisation, laquelle est faite en référence aux dessins annexés dans lesquels :
    • la figure 1 illustre schématiquement un objet mobile radiocommandé ;
    • la figure 2 illustre schématiquement un événement collectif comprenant une pluralité d'objets virtuels et réels, selon divers modes de réalisation.
  • Il est représenté sur la figure 1 un objet radiocommandé 1. Dans cet exemple, l'objet mobile radiocommandé 1 est un véhicule nautique tel qu'un voilier. Ce voilier est, par exemple, de type modélisme naval radiocommandé.
  • Bien entendu, l'exemple d'un véhicule nautique n'est en aucun cas limitatif de l'objet radiocommandé 1 qui peut être tout autre dispositif réel radiocommandé en modèle réduit ou en grandeur nature tel qu'un jouet radiocommandé, ou un véhicule radiocommandé. Par exemple, l'objet radiocommandé 1 est, dans un mode de réalisation, un véhicule terrestre tel qu'une voiture radiocommandée ou un véhicule aérien tel qu'un drone radiocommandé.
  • Le véhicule nautique comprend deux actionneurs (treuil ou servomoteur de préférence), servant à la direction et à la propulsion (écoute de la ou des voile(s)). Le véhicule nautique peut comprendre une machine à fumée, des ballasts, un moteur à hélice et un système de foils rétractable dans la coque du véhicule nautique.
  • Le véhicule nautique comprend, en outre, une pluralité de capteurs inertiels, tel qu'un accéléromètre, un gyroscope, un magnétomètre, ou une boussole. En variante, le véhicule nautique comprend une centrale inertielle à neuf axes.
  • L'objet radiocommandé 1 comprend une pluralité de capteurs tels que des caméras, des microphones, des capteurs de contact, un ou plusieurs capteurs de positionnement (notamment, un récepteur GPS), une girouette, un compte-tours, ou un anémomètre. Le capteur de positionnement est, dans un mode de réalisation, centimétrique de type « Rover » (ex : UBLOX NEO-M8P).
  • Le véhicule nautique comprend aussi un module de communication sans fil de type Bluetooth, Wi-Fi, HiperLAN, LPWAN ou ZigBee. Ce module de communication sans fil est logé dans un boîtier étanche, ou un système similaire le protégeant de l'eau (couche de silicone, coffrage empêchant l'eau de rentrer en contact avec le système embarqué, même si le véhicule nautique se retourne).
  • Ce module de communication sans fil est configuré pour communiquer, sur requête ou non, des données mesurées par des capteurs embarqués dans l'objet radiocommandé 1.
  • Ce module de communication sans fil est apte à recevoir (depuis un dispositif de commande ou autre) et transférer des instructions ou des données de configuration destinées à un ou plusieurs capteurs embarqués dans l'objet radiocommandé 1.
  • L'objet radiocommandé 1 peut être utilisé dans un événement collectif, notamment une compétition telle qu'une régate.
  • En se référant à la figure 2, il est représenté, à titre illustratif, un environnement au sein duquel se déroule un événement collectif, à savoir une compétition nautique.
  • L'objet radiocommandé 1 est connecté, via son module de communication sans fil, à un serveur de réalité mixte 2. Le serveur de réalité mixte 2 dispose ainsi des données collectées par les capteurs embarqués dans l'objet radiocommandé 1.
  • Le serveur de réalité mixte 2 dispose, en outre, de données captées par des capteurs 3 déployés dans l'environnement de l'événement collectif.
  • Ces capteurs 3 comprennent, par exemples, des caméras, des capteurs de contact, un ou plusieurs capteurs de positionnement, un anémomètre, une girouette.
  • L'anémomètre et la girouette sont, dans un mode de réalisation, disposés à minima à 1,50m de hauteur par rapport au niveau du plan d'eau.
  • Un utilisateur (le skippeur), présent sur le lieu de l'événement collectif, est pourvu d'un dispositif de commande 4 permettant de commander à distance l'objet radiocommandé 1. Le dispositif de commande 4 est mobile dans l'environnement de l'événement collectif. L'utilisateur équipé du dispositif de commande 4 peut, ainsi, se déplacer librement au moins dans une partie de l'environnement de l'événement collectif.
  • Le terminal de commande 4 est un ordinateur fixe/mobile, une télécommande, un smartphone, ou une tablette tactile par exemple.
  • Dans un mode de réalisation, le dispositif de commande 4 communique avec l'objet radiocommandé 1 directement (en mode « entrainement » par exemple) ou par l'intermédiaire du serveur de réalité mixte 2 (en mode « compétition »).
  • Dans un mode de réalisation, le dispositif de commande 4 est, en outre, apte à recevoir et à afficher un flux vidéo reçu depuis le serveur de réalité mixte 2.
  • En variante ou en combinaison, l'utilisateur est pourvu d'un équipement utilisateur de réalité augmentée, tel qu'un casque 5 ou des lunettes de réalité augmentée. Cet équipement est un dispositif que l'utilisateur porte sur la tête (sous la forme d'un casque ou des lunettes) ou dans les mains (smartphone, phablette, ou tablette). L'équipement utilisateur de réalité augmentée est connecté au serveur de réalité mixte 2. Le casque 5 de réalité augmentée comprend, dans un mode de réalisation, un capteur de positionnement (notamment, un récepteur GPS) permettant de localiser, au moins dans l'environnement de l'évènement collectif, ce casque 5 de réalité augmentée.
  • Le serveur de réalité mixte 2 est apte à intégrer un ou plusieurs objets virtuels 6 prédéfinis à un contenu vidéo reçu depuis une caméra. Plus généralement, le serveur de réalité mixte 2 est configuré pour générer, à partir des données récupérées depuis les capteurs déployés dans l'environnement de l'évènement collectif et/ou dans l'objet radiocommandé 1, des scènes de réalité mixte intégrant l'objet radiocommandé 1 et/ou un ou plusieurs objets virtuels 6.
  • Dans un mode de réalisation, le serveur de réalité mixte 2 est connecté à une base de données d'objets virtuels.
  • Le dispositif de commande 4 et/ou l'équipement utilisateur de réalité augmentée (notamment, le casque 5 de réalité augmentée) comprennent un capteur de positionnement tel qu'un récepteur GPS. Ce capteur de positionnement est, dans un mode de réalisation, centimétrique. Ce capteur de positionnement permet de fournir les coordonnées précises du porteur (joueur, arbitre, ou spectateur par exemples) lorsqu'il se déplace dans l'environnement de l'événement collectif.
  • Le serveur de réalité mixte 2 est configuré pour générer (ou régénérer) une scène à l'intention du porteur (joueur, arbitre, spectateur ou, plus généralement, l'utilisateur) du dispositif de commande 4 et/ou de l'équipement utilisateur de réalité augmentée, en fonction des données de position du dispositif de commande et/ou celles de l'équipement utilisateur de réalité augmentée.
  • L'équipement utilisateur de réalité augmentée, notamment le casque 5 ou des lunettes de réalité augmentée, comprend une boussole trois axes, permettant de fournir l'orientation de cet équipement dans un système de coordonnées (par exemple, en XYZ). Cette orientation permet de déterminer le champ de vision de l'utilisateur de l'équipement utilisateur de réalité augmentée. Le serveur de réalité mixte 2 est configuré pour générer une scène de réalité mixte à l'intention de l'utilisateur, en fonction de son champ de vision.
  • Plus généralement, le serveur de réalité mixte 2 génère, à partir de données récupérées depuis les capteurs déployés dans l'environnement et/ou dans l'objet radiocommandé 1, une scène multimédia de réalité mixte, en fonction de la position du dispositif de commande 4 et/ou de la position et/ou de l'orientation de l'équipement utilisateur de réalité augmentée. Par exemple, le contenu multimédia de la scène générée est obtenu à partir des caméras et des microphones les plus proches de la position de l'utilisateur et/ou ceux couvrant son champ de vision et des faces des objets virtuels visibles depuis cette position et/ou sous l'orientation de l'utilisateur.
  • Il en résulte, avantageusement, que le serveur de réalité mixte 2 permet de coordonner l'affichage simultané d'objets virtuels à l'intention de différents utilisateurs (qu'ils soient spectateurs, joueurs, ou arbitres par exemples), même quand ils se replacent et/ou changent de champ de vision.
  • Le serveur de réalité mixte 2 est accessible via un réseau de communications 7 (communément, celui d'Internet), de sorte qu'un utilisateur distant pourvu d'un terminal utilisateur 8 (tel qu'un smartphone, une tablette ou un ordinateur portable/fixe) peut se connecter au serveur de réalité mixte 2 et prendre part à l'événement collectif en cours.
  • Dans un mode de réalisation, l'utilisateur distant peut choisir, parmi une liste prédéfinie (de voiliers par exemple), un objet virtuel 6 avec lequel il souhaite participer à l'événement collectif. Le serveur de réalité mixte 2 se charge d'intégrer un tel objet dans la scène de réalité mixte à diffuser de l'événement collectif. En variante ou en combinaison, l'utilisateur distant participe à l'événement collectif avec un objet radiocommandé 1 mis à sa disposition (par exemple, un voilier réel radiocommandé de location mis à l'eau par un utilisateur ou un spectateur présent sur l'événement).
  • Le serveur de réalité mixte permet, en effet, de superposer de manière cohérente l'objet virtuel 6 à la perception que les utilisateurs ont de l'environnement réel et qui leur est affiché (sur l'écran du terminal utilisateur 8 distant, l'écran du terminal de commande 4 ou l'équipement utilisateur de réalité augmentée).
  • L'objet radiocommandé 1 a, en effet, une existence concrète et objective et qui peut être observée directement, alors que l'objet virtuel 6 est un objet numérique qui existe par essence ou effet, et est simulé dans la scène de réalité mixte affichée à l'intention des utilisateurs.
  • Cette scène de réalité mixte comprend, par exemple, l'environnement réel de l'événement (donc, y compris l'objet radiocommandé 1) qui est augmentée avec l'objet virtuel 6, un parcours de régate et, éventuellement, une ambiance.
  • Grâce, d'une part, aux données collectées depuis les capteurs 3 déployés dans l'environnement de l'événement et, d'autre part, des commandes adressées à l'objet virtuel 6, le serveur de réalité mixte 2 combine les objets réels, y compris l'objet radiocommandé 1, et l'objet virtuel 6 dans l'environnement réel de compétition nautique. Dans cette combinaison, les objets virtuels coïncident avec les objets réels et inversement.
  • Dans un mode de réalisation, des incidents imperceptibles (contact entre un véhicule nautique virtuel et un obstacle virtuel ou un obstacle réel tel que véhicule nautique réel) sont transformés par le serveur de réalité mixte 2 en des phénomènes perceptibles (visibles et/ou audibles aux utilisateurs).
  • Par ailleurs, le serveur de réalité mixte 2 par lequel transitent les commandes destinées à l'objet radiocommandé 1 et l'objet virtuel 6 permet une interaction en temps réel avec ces objets 1, 6, soit au moyen du dispositif de commande 4 ou via le terminal utilisateur 8 distant.
  • Le serveur de réalité mixte 2 sert de pont de communication sans fil entre les objets radiocommandés 1, les objets virtuels 6, les dispositifs de commande 4 et les terminaux utilisateur 8 distants.
  • Le serveur de réalité mixte 2 interprète les commandes destinées aux objets 1, 6 et, sur requête ou non, permet de changer la destination (router) d'une commande.
  • Il est, ainsi, possible de radiocommander au moyen du dispositif de commande 4 le véhicule nautique virtuel 6 et, inversement, de manipuler le véhicule nautique réel 1 depuis le terminal utilisateur 8 distant.
  • Il en résulte une combinaison cohérente du monde physique avec des objets virtuels.
  • L'interprétation en temps réel des interactions utilisateurs et des données renvoyées par les capteurs permet d'animer en temps réel l'objet virtuel 6 d'une manière cohérente avec l'environnement.
  • L'animation de l'objet virtuel 6 peut être effectuée en temps réel à l'aide de tout moteur de simulation dynamique (moteur de jeu physique) tels que haVoKTM, Newton Game Dynamics, ou Dynamo.
  • En temps réel, le serveur de réalité mixte 2 interprète les interactions des utilisateurs et les données collectées depuis les capteurs 3 et génère un contenu immersif (vidéo, audio, texte) qu'il transmet au terminal utilisateur 8 distant, au dispositif de commande 4 et/ou à l'équipement utilisateur de réalité augmentée.
  • Ce contenu immersif comprend, par exemple, le plan d'eau sur lequel naviguent les véhicules nautiques (virtuels et réels), ainsi que d'autres informations telles que le cap, la gîte, la vitesse, le tangage, la force du signal de communication, le niveau d'autonomie en énergie d'un véhicule nautique, la distance entre un utilisateur et le véhicule nautique.
  • Ce contenu immersif comprend, également, des informations concernant la régate telles que, par exemples, la position des balises, la position des bouées 9 virtuelles du parcours, des véhicules nautiques d'autres utilisateurs, le classement des utilisateurs, les instructions de course.
  • Dans un mode de réalisation, le serveur de réalité mixte 2 diffuse à l'attention des utilisateurs des instructions/informations de courses (à la place du comité), au moyen de haut-parleurs ou au moyen de notifications intégrées au contenu visuel affiché par les équipements utilisateur de réalité mixte. Ces informations sont utiles pour certaines manoeuvres en régates (passage de bouées éloignées, ou navigation en meute, par exemples) ainsi que pour informer les spectateurs sur l'événement.
  • Le serveur de réalité mixte 2 est, dans un mode de réalisation, configuré pour commander un ou plusieurs véhicules nautiques radiocommandés (ceux de location par exemple), pour les faire retourner à un point précis du plan d'eau lorsqu'un délai d'utilisation est terminé.
  • Le serveur de réalité mixte 2 est, dans un mode de réalisation, configuré pour adapter le parcours de régate automatiquement et en temps réel, en fonction des changements d'orientation et de force du vent, ces données étant collectées depuis des capteurs 3 déployés dans l'environnement de l'événement.
  • Plusieurs vues de la scène sont mises à disposition des utilisateurs par le serveur de réalité mixte 2, telles qu'une vue objective (ou « vue à la troisième personne »), une vue subjective (ou « vue à la première personne » provenant d'une caméra embarquée dans le véhicule nautique ou sur drone volant, par exemple).
  • Le serveur de réalité mixte 2 permet de créer une réalité mixte à l'utilisateur présent sur le lieu de la régate ainsi qu'à un utilisateur (skippeur ou téléspectateur) distant du lieu de la régate. Il en résulte, avantageusement, une simplification de l'organisation d'une compétition nautique intégrant à la fois des voiliers réels radiocommandés et des voiliers virtuels.
  • Le serveur de réalité mixte 2 communique en temps réel des informations concernant l'événement en diffusion à un serveur distant. Des informations concernant, par exemple, une régate en cours sont ainsi disponibles, via ce serveur distant.
  • Dans un mode de réalisation, le serveur distant stocke dans une base de données accessible en ligne des informations reçues depuis le serveur de réalité mixte 2. Cette base de données comprend, par exemple, les résultats des compétitions, ou aussi des informations relatives aux régates ou aux participants. Ces données stockées permettent de rejouer (en mode différé) ou répondre à une requête concernant une séquence ou la totalité d'un contenu immersif préalablement diffusé.
  • Dans un mode de réalisation, le système décrit ci-dessus est utilisé pour tout autre événement collectif tel qu'un jeu ou loisir nautique incluant des véhicules nautiques radiocommandés (par exemple, des combats navals mêlant plusieurs voiliers devant s'affronter avec des armes virtuelles sur des plans d'eau réels).
  • Une caméra embarquée, positionnée sur un support rotatif dans les trois directions de l'espace, peut s'apparenter à la vue d'un canon pour les scénarios de combats navals. Cette vue est retranscrite sur l'écran d'affichage du dispositif de commande ou via l'équipement utilisateur de réalité augmentée. Dans ce cas, le skippeur peut soit manoeuvrer le voilier et le canon, ou déléguer l'usage de "l'arme virtuelle" à un canonnier (joueur additionnel), depuis un second dispositif de commande. Des navigations en équipage sont, ainsi, possibles.
  • Les méthodes et systèmes décrits ci-dessus trouvent, notamment, application dans l'organisation d'un événement collectif impliquant un ou plusieurs participants distants en plus d'au moins un participant présent sur le lieu de l'événement.

Claims (10)

  1. Système d'immersion pour la gestion d'un événement collectif se déroulant dans un environnement prédéfini et intégrant au moins un objet radiocommandé (1), ce système comprenant
    - un dispositif de commande (4) et/ou un équipement utilisateur de réalité augmentée, le dispositif de commande (4) permettant de commander à distance l'objet radiocommandé (1), l'équipement utilisateur de réalité augmentée et le dispositif de commande (4) étant mobiles dans l'environnement de l'événement collectif;
    - une pluralité de capteurs, déployés dans ledit environnement et/ou dans l'objet radiocommandé (1);
    - un serveur de réalité mixte (2), configuré pour générer, à partir d'une première pluralité de données récupérées depuis ladite pluralité de capteurs, une première scène de réalité mixte intégrant l'objet radiocommandé (1) et un objet virtuel (6) prédéfini, ladite première pluralité de données récupérées étant associée à une première position, dans l'environnement de l'événement collectif, du dispositif de commande (4),
    ce système étant caractérisé en ce que
    - le dispositif de commande (4) ou l'équipement utilisateur de réalité augmentée comprend un capteur de positionnement destiné à déterminer une deuxième position, dans l'environnement de l'événement collectif, dudit dispositif de commande (4) ou dudit équipement utilisateur de réalité augmentée ;
    - le serveur de réalité mixte (2) est, en outre, configuré pour générer, à partir d'une deuxième pluralité de données récupérées depuis ladite pluralité de capteurs (3), une deuxième scène de réalité mixte intégrant l'objet radiocommandé (1) et l'objet virtuel (6) prédéfini, la deuxième pluralité de données récupérées étant associée à la deuxième position.
  2. Système selon la revendication précédente, caractérisé en ce qu'il comprend un casque (5) de réalité augmentée, ce casque comprenant une boussole permettant de déterminer une première orientation dudit casque (5), le serveur de réalité mixte (2) étant, en outre, configuré pour générer, à partir d'une troisième pluralité de données récupérées depuis ladite pluralité de capteurs (3), une troisième scène de réalité mixte intégrant l'objet radiocommandé (1) et l'objet virtuel (6) prédéfini, la troisième pluralité de données récupérées étant associée à la première orientation.
  3. Système selon la revendication 1 ou 2, caractérisé en ce que le serveur de réalité mixte (2) est, en outre, configuré pour changer la destination d'une commande destinée à l'objet radiocommandé (1).
  4. Système selon la revendication 1 ou 2, caractérisé en ce que le serveur de réalité mixte (2) est, en outre, configuré pour changer la destination d'une commande destinée à l'objet virtuel (6).
  5. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que le capteur de positionnement est centimétrique.
  6. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif de commande (4) communique avec l'objet radiocommandé (1) par l'intermédiaire du serveur de réalité mixte (2).
  7. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que l'objet radiocommandé (1) comprend un capteur inertiel et/ou un capteur de positionnement.
  8. Système selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend, en outre, un terminal utilisateur (8) connecté au serveur de réalité mixte (2) et configuré pour commander l'objet virtuel (6) ou l'objet radiocommandé (1).
  9. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que l'objet radiocommandé (1) est un véhicule nautique, un véhicule terrestre ou un véhicule aérien.
  10. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que l'événement collectif est une compétition nautique, une compétition automobile ou une compétition aérienne.
EP19182428.3A 2018-07-03 2019-06-25 Methodes et systemes de realite mixte appliquees aux evenements collectifs Withdrawn EP3590587A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1856109A FR3083457B1 (fr) 2018-07-03 2018-07-03 Methodes et systemes de realite mixte appliquees aux evenements collectifs

Publications (1)

Publication Number Publication Date
EP3590587A1 true EP3590587A1 (fr) 2020-01-08

Family

ID=65031359

Family Applications (1)

Application Number Title Priority Date Filing Date
EP19182428.3A Withdrawn EP3590587A1 (fr) 2018-07-03 2019-06-25 Methodes et systemes de realite mixte appliquees aux evenements collectifs

Country Status (2)

Country Link
EP (1) EP3590587A1 (fr)
FR (1) FR3083457B1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060223637A1 (en) 2005-03-31 2006-10-05 Outland Research, Llc Video game system combining gaming simulation with remote robot control and remote robot feedback
WO2008145980A1 (fr) 2007-05-31 2008-12-04 Sony Computer Entertainment Europe Limited Système et procédé de divertissement
US20160129358A1 (en) * 2014-11-07 2016-05-12 Meeper Technology, LLC Smart Phone Controllable Construction Brick Vehicle
US20180095461A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Uav positional anchors

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060223637A1 (en) 2005-03-31 2006-10-05 Outland Research, Llc Video game system combining gaming simulation with remote robot control and remote robot feedback
WO2008145980A1 (fr) 2007-05-31 2008-12-04 Sony Computer Entertainment Europe Limited Système et procédé de divertissement
US20160129358A1 (en) * 2014-11-07 2016-05-12 Meeper Technology, LLC Smart Phone Controllable Construction Brick Vehicle
US20180095461A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Uav positional anchors

Also Published As

Publication number Publication date
FR3083457A1 (fr) 2020-01-10
FR3083457B1 (fr) 2020-07-17

Similar Documents

Publication Publication Date Title
US20200254353A1 (en) Synchronized motion simulation for virtual reality
US10377484B2 (en) UAV positional anchors
US9886033B2 (en) System for piloting a drone in immersion
US20200394754A1 (en) Course profiling and sharing
CN111228804B (zh) 在虚拟环境中驾驶载具的方法、装置、终端及存储介质
KR101748401B1 (ko) 가상현실 어트랙션 제어 방법 및 시스템
KR101736477B1 (ko) 저장된 콘텐츠 및 ar 통신의 로컬 센서 증강
US20180225875A1 (en) Augmented reality in vehicle platforms
US10486060B2 (en) Tracking core for providing input to peripherals in mixed reality environments
FR2908322A1 (fr) Procede de definition de zone de jeux pour un systeme de jeux video
FR2908324A1 (fr) Procede d'ajustement d'affichage pour un systeme de jeux video
FR3058238A1 (fr) Systeme autonome de prise de vues animees par un drone avec poursuite de cible et maintien de l'angle de prise de vue de la cible.
CN104781873A (zh) 图像显示装置、图像显示方法、移动装置、图像显示系统、以及计算机程序
FR2957266A1 (fr) Procede et appareil de telecommande d'un drone, notamment d'un drone a voilure tournante.
KR20100137413A (ko) 이동체 경쟁 구현 시스템
KR101790592B1 (ko) 관광드론을 이용한 증강현실 관광 시스템 및 방법
JP2011517979A (ja) 実環境におけるイベントをシミュレートするためのシステム
FR3056921A1 (fr) Systeme autonome de prise de vues animees par un drone avec poursuite de cible et maintien de l'angle de prise de vue de la cible.
US20220368958A1 (en) Live video distribution method using unmanned moving device, video distribution device used in live video distribution method, and video archive device for storing video data file generated by video distribution device
US20220351472A1 (en) Remote camera augmented reality system
Smith The photographer's guide to drones
EP3590587A1 (fr) Methodes et systemes de realite mixte appliquees aux evenements collectifs
WO2021110538A1 (fr) Jumelles de visee de simulation, et systeme et procedes de simulation
US20220184506A1 (en) Method and apparatus for driving vehicle in virtual environment, terminal, and storage medium
Avery et al. Outdoor augmented reality gaming on five dollars a day

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20200612

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20201001

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20211019

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20220301