FR2912318A1 - Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes - Google Patents

Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes Download PDF

Info

Publication number
FR2912318A1
FR2912318A1 FR0700998A FR0700998A FR2912318A1 FR 2912318 A1 FR2912318 A1 FR 2912318A1 FR 0700998 A FR0700998 A FR 0700998A FR 0700998 A FR0700998 A FR 0700998A FR 2912318 A1 FR2912318 A1 FR 2912318A1
Authority
FR
France
Prior art keywords
vehicle
recognition
virtual
video
video image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0700998A
Other languages
English (en)
Other versions
FR2912318B1 (fr
Inventor
Henri Seydoux
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Parrot Drones SAS
Original Assignee
Parrot SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Parrot SA filed Critical Parrot SA
Priority to FR0700998A priority Critical patent/FR2912318B1/fr
Priority to EP08761879A priority patent/EP2125127A2/fr
Priority to JP2009549841A priority patent/JP2010518354A/ja
Priority to US12/526,933 priority patent/US20100178966A1/en
Priority to PCT/FR2008/000180 priority patent/WO2008116982A2/fr
Publication of FR2912318A1 publication Critical patent/FR2912318A1/fr
Application granted granted Critical
Publication of FR2912318B1 publication Critical patent/FR2912318B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • A63F2300/306Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying a marker associated to an object or location in the game field
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Toys (AREA)
  • Selective Calling Equipment (AREA)

Abstract

L'invention concerne un procédé de reconnaissance d'objets pour un système de jeux vidéo de tir, le système comprenant un premier véhicule télécommandé (51) comprenant une caméra vidéo embarquée (25), un deuxième véhicule télécommandé (53) ; et une entité électronique à affichage vidéo servant à télécommander le premier véhicule (51).

Description

1
L'invention concerne un procédé de reconnaissance d'objets pour un système de jeu vidéo. Un tel système est connu du document WO 01/95988 Al. Ce document décrit un jeu vidéo de chasse impliquant deux véhicules téléguidés avec des caméras vidéo embarquées. L'un des deux véhicules téléguidés est le chasseur et l'autre est la proie. Les images vidéo de la caméra vidéo du véhicule chasseur sont transmises à une unité de contrôle et y sont affichées. Les images vidéo délivrées par le véhicule chasseur sont scannées pour détecter l'image du véhicule adverse. Si le véhicule adverse est détecté dans l'image vidéo, le véhicule adverse dans l'image est remplacé par un personnage de jeu virtuel. Ainsi, le joueur pilotant le véhicule chasseur à l'aide de l'unité de contrôle voit sur son image vidéo non l'image du véhicule adverse mais celui d'un personnage de jeu virtuel qu'il doit poursuivre avec son véhicule.
Le procédé de reconnaissance d'objet connu du document WO 01/95988 Al n'est cependant pas applicable à un jeu de tir. Le but de la présente invention est donc de proposer un procédé de reconnaissance d'objet pour un jeu de vidéo de tir. Ce but est atteint selon l'invention par un procédé de reconnaissance 20 d'objets pour un système de jeux vidéo de tir, le système comprenant : - un premier véhicule télécommandé comprenant une caméra vidéo embarquée ; - un deuxième véhicule télécommandé ; et une entité électronique à affichage vidéo servant à télécommander 25 le premier véhicule, le procédé comprenant les étapes suivantes : - affichage de l'image délivrée par la caméra vidéo embarquée sur l'affichage vidéo de l'entité électronique ; - affichage d'un réticule virtuel déplaçable dans l'image vidéo ; - détection d'une commande de tir virtuel entrée dans l'entité 30 électronique ; - acquisition de la position A du réticule virtuel dans l'image vidéo ; - reconnaissance du deuxième véhicule télécommandé dans l'image vidéo ; - en cas de reconnaissance échouée, invalidation du tir virtuel ; 35 - en cas de reconnaissance réussie :
2
a) acquisition de la position B du deuxième véhicule dans l'image vidéo ; b) comparaison de la position A à la position B ; c) en cas d'identité entre A et B, validation du tir virtuel ; d) en cas de différence entre A et B, invalidation du tir virtuel. L'entité électronique du système est de préférence une console portable avec un écran vidéo. Grâce au procédé de l'invention, il est possible de réaliser un jeu vidéo de tir avec une pluralité de jouets réels télécommandés. Les 10 participants pilotant chacun un véhicule télécommandé peuvent utiliser un environnement ou décor réel dans lequel évoluent les véhicules télécommandés. En particulier, les joueurs peuvent utiliser des obstacles réels pour tenter de protéger leur véhicule télécommandé des tirs des autres 15 joueurs. Selon l'invention, les tirs lancés par les véhicules sont uniquement fictifs et simulés par le système de jeu. L'invention permet donc une combinaison innovatrice entre les aspects d'un jeu vidéo de tir classique entièrement virtuel et un jeu à véhicules télécommandés classique entièrement réel. 20 Grâce à l'invention, les joueurs pilotant les véhicules télécommandés peuvent utiliser les éléments du décor réel comme éléments du jeu. De préférence, la reconnaissance du deuxième véhicule s'effectue par reconnaissance d'éléments distinctifs agencés sur le deuxième véhicule, à savoir des diodes électroluminescentes. 25 Dans une application préférée, les diodes électroluminescentes sont agencées sous forme d'une géométrie spécifique. Les diodes électroluminescentes peuvent aussi clignoter à une fréquence déterminée, avoir des couleurs spécifiques, et/ou avoir des couleurs variables dans le temps, afin de faciliter la reconnaissance du deuxième 30 véhicule. La reconnaissance des diodes électroluminescentes peut aussi inclure la mesure de leur luminosité totale afin de permettre d'estimer la partie visible du deuxième véhicule en fonction de la valeur de la luminosité mesurée. 35 Grâce à une telle mesure de la luminosité, il devient possible
3
d'estimer si un véhicule télécommandé est partiellement caché par un obstacle du décor réel. Une telle reconnaissance partielle peut alors influencer la décision de validation ou d'invalidation d'un tir fictif. En particulier, la quantité de dommages fictifs causés par le tir fictif peut être une fonction de la taille de la partie détectée du deuxième véhicule. De préférence le procédé de l'invention utilise en outre des capteurs de vitesse et/ou d'accélération et/ou de position sur le véhicule cible et/ou sur le véhicule tireur. Les capteurs permettent aux deux engins de connaître en temps réel leurs coordonnées dans l'espace. Celles-ci peuvent alors être transmises par des moyens radio. De préférence, le procédé selon l'invention comprend en outre une étape de prédiction du déplacement du deuxième véhicule dans l'image vidéo sur la base : d'une mesure du déplacement du premier véhicule, et/ou du déplacement antérieur du deuxième véhicule dans l'image vidéo.
Les deux caractéristiques précédentes, à savoir l'utilisation de capteurs embarqués sur les véhicules et la prédiction du déplacement du deuxième véhicule dans l'image vidéo, peuvent être couplées. Un logiciel fusionne les informations de positions pour avoir une information pertinente s'affranchissant de dérives qui peuvent être le résultat de centrales inertielles embarquées sur chacun des deux véhicules. Dans la version préférée de l'invention les véhicules estiment d'une manière fine leur position. Le fait qu'un véhicule ennemi disparaisse soudainement de la position estimée indique qu'il s'est très probablement caché derrière un obstacle réel.
La particularité de prendre en compte dans un jeu de tirs virtuels des obstacles réels est l'aspect préféré de l'invention.
0 On va maintenant décrire des exemples de mise en oeuvre de l'invention, en référence aux dessins annexés. La figure la montre le fonctionnement d'un premier système de simulation d'événements fictifs selon l'invention ; La figure lb montre un second système permettant l'ajout d'objets imaginaires, par exemple des obstacles ;
4
La figure 1c montre des éléments imaginaires ajoutés par le jeu sur l'affichage de la console de jeu ; La figure 1d montre un troisième système selon l'invention avec un pilotage automatique embarqué ; La figure 2a montre le fonctionnement d'un deuxième système de stimulation selon l'invention complété par un pilote automatique ; La figure 2b montre le système complet : événements fictifs, objets imaginaires et pilote automatique interagissent dans un jeu très complet. La figure 3 montre deux véhicules télécommandés et leurs télécommandes associées ; Les figures 4a et 4b montrent l'affichage vidéo d'un premier jeu de tir selon l'invention ; La figure 5 montre l'environnement réel d'un deuxième jeu de tir selon l'invention ; Les figures 6, 6a, 6b et 6c montrent différentes images vidéo tirées du second jeu de tir selon l'invention ; Les figures 7a et 7b montrent l'image vidéo du second jeu de tir lors de l'exécution d'un tir fictif par un joueur ; La figure 8 est un organigramme du procédé de reconnaissance 20 d'objets pour la validation ou l'invalidation des tirs fictifs effectués au cours des jeux de tir ; et La figure 9 est un organigramme de validation ou d'invalidation de tir parabolique lorsque la cible est cachée par un obstacle réel. La figure 1 a visualise le concept de l'invention qui est celui d'un jeu 25 vidéo "en boucle ouverte". Un simulateur 1 supervise le fonctionnement d'un jouet radiocommandé 3. Le simulateur 1 du jeu vidéo modifie les instructions 5, qui visent à piloter le jouet 3, du joueur 7. Le jouet 3 reçoit des consignes de pilotage 9 du simulateur 1. Ces consignes 9 sont générées par le 30 simulateur 1 en tenant compte des instructions de pilotage 5. Le jouet 3 est non seulement tributaire des consignes 9 reçues mais aussi des événements physiques externes au jeu. Des capteurs 13 agencés sur le jouet 3 transmettent des informations sur l'environnement du jouet 3 à des moyens de visualisation 15 du jeu 35 vidéo. Les informations provenant des capteurs 13 permettent au système de jeux vidéo d'estimer les changements d'état du jouet 3 dans son environnement réel. Les moyens de visualisation 15 utilisent les informations des capteurs 13 pour générer un affichage sur un écran 21 d'une unité de contrôle 23 manipulée par le joueur 7. 5 Les capteurs 13 comprennent en particulier une caméra vidéo 25 qui est embarquée sur le jouet télécommandé 3. Cette caméra vidéo 25 délivre des images vidéo qui sont affichées par les moyens de visualisation 15 sur l'écran 21 du joueur 7. La caméra vidéo 25 donne donc au joueur 7 une perspective telle que "perçue" par le véhicule télécommandé 3. Le jouet peut aussi être muni d'autres capteurs supplémentaires. II peut s'agir de capteurs très simples comme des accéléromètres ou des capteurs extrêmement sophistiqués comme par exemple une centrale inertielle. Grâce aux capteurs 13, le jeu vidéo constitue une visualisation.
Par exemple, avec un gyroscope et/ou des accéléromètres et un logiciel de visualisation, le jeu vidéo peut reconstituer un horizon artificiel si le véhicule télécommandé est un avion téléguidé. On va maintenant décrire en détail le rôle et fonctionnement du simulateur 1. Le simulateur 1 est situé entre le joueur 7 et le jouet radiocommandé 3. Il reçoit les instructions de pilotage 5 issues du joueur 7. Ces actions ou commandes de pilotage 5 représentent les modifications que le joueur 7 désire impartir aux éléments de propulsion (tel que le moteur du jouet 3) et/ou de guidage (telles que les gouvernes du jouet 3) pour, par exemple, diriger le jouet 3 dans une certaine direction. Or, ces actions de pilotage 5 ne sont pas directement transmises telles quelles au jouet télécommandé. En effet, le jouet 3 est découplé du pilotage du joueur 7 à travers le simulateur 1. C'est le simulateur 1 qui contrôle directement le jouet 3 en émettant les consignes 9. Ces consignes 9 sont crées par le simulateur 1 en tenant compte des instructions 5. L'aspect particulièrement intéressant est que le simulateur 1 génère les consignes 9 non seulement à l'aide des instructions 5, mais surtout aussi à travers des caractéristiques de pilotage qui sont auto-35 générées par le simulateur 1. Ces caractéristiques de pilotage sont crées
6
en fonction du jeu vidéo choisi par le joueur 7. En effet, en fonction du jeu vidéo choisi, le simulateur 1 simule des événements nouveaux absents du monde physique qui ont un impact sur le jouet 3. Ces événements fictifs sont traduits en des caractéristiques de pilotage qui modifient les consignes 9 envoyées au jouet 3, de telle façon que le comportement du jouet 3 se trouve modifié. Par exemple, le simulateur 1 peut simuler une panne de moteur du jouet 3. Si le jouet 3 est un avion, le simulateur 1 peut rendre l'avion artificiellement plus lourd en créant des caractéristiques de pilotage qui donne au joueur 7 l'impression que l'avion 3 réagit plus lentement à ses commandes 5 que d'habitude. Le simulateur 1 peut aussi créer des scénarios fictifs complets comme la traversée d'un orage par l'avion 3. Dans cet exemple, le simulateur 1 génère des caractéristiques de pilotage qui mènent à des consignes 9 qui ont l'effet de faire trembler l'avion télécommandé 3 comme s'il subissait des rafales de vent. Ainsi, le simulateur 1 intervient de façon complexe et en temps réel dans le pilotage du jouet 3 pour procurer au joueur 7 une expérience de jeu très riche. Il ne s'agit pas simplement de surveiller le pilotage du joueur pour intervenir en cas d'erreurs ou de danger. Le simulateur 1 exerce une influence active et volontariste sur le pilotage du jouet 3 pour lui donner un comportement plus varié et plus divertissant. La différence principale avec un jeu vidéo classique se déroulant entièrement sur un ordinateur sans véhicule réel télécommandé est que le changement d'état n'est pas conduit uniquement par la simulation, mais qu'il est le résultat du changement de la boucle ouverte et que ce changement d'état est mesuré par des capteurs. La figure 1 b est une version plus complète du système de l'invention. Pour enrichir encore les scénarios de jeu le simulateur ajoute aux instructions des éléments imaginaires en plus des événements combinés.
Ces éléments imaginaires peuvent par exemple être des obstacles ou, plus intéressant, des objets virtuels douées d'un comportement, par exemple des ennemis virtuels. Les éléments imaginaires peuvent aussi êtres des éléments virtuels du jouet radiocommandé lui-même, comme un système d'arme doté d'un viseur et d'une arme virtuelle qui envoie des projectiles virtuels.
7
Dans ce cas deux boucles de rétroactions supplémentaires sont ajoutées dans le système. Dans la première, les informations issues des capteurs du jouet sont utilisées par le simulateur de manière à estimer la position du jouet radiocommandé pour par exemple déterminer si le tir d'un ennemi virtuel a touché le jouet. La seconde boucle de rétroaction est définie entre le simulateur et le logiciel d'affichage. Le logiciel d'affichage est informé du déplacement des objets virtuels de manière à pouvoir réaliser un affichage composite. Par exemple, en ajoutant sur l'image vidéo des éléments virtuels : des obstacles, des ennemis virtuels ou bien des éléments du système de tir comme l'élément 43 de la figure 4a. La figure 1c est un exemple de réalité augmentée. On ajoute des éléments virtuels, à savoir un ennemi, des projectiles et une zone d'atterrissage. L'image est composée du réel augmenté des objets 15 imaginaires. La figure 1d montre une boucle lorsqu'il y a un pilotage automatique embarqué. Une boucle de rétroaction est effectuée sur le drone lui-même. On utilise les mêmes capteurs que ceux utilisés pour la boucle d'affichage. 20 La figure 2a est une version encore plus complète du système de l'invention. On ajoute un pilote automatique 27 au système. Il permet d'asservir le fonctionnement de l'avion 3. Grâce au pilote automatique 27, l'avion 3 peu être rendu plus stable et prédictible dans son comportement. Ainsi, les 25 sources d'interaction entre le jeu vidéo 29 et le jouet 3 sont plus nombreuses. Dans le cas d'un système avec un pilote automatique 27, le jouet 3 peut être qualifié de drone puisqu'il a la capacité de se déplacer de façon autonome dans le décor réel sans nécessité de pilotage de la part du joueur 7. 30 Le pilote automatique 27 dispose d'une enveloppe de commande. Si le véhicule 3 est un char, l'enveloppe peut par exemple définir sa vitesse maximale, son accélération maximale, la vitesse de rotation en virage, etc. Si l'engin 3 est un quadricoptère, l'enveloppe de commande du pilote automatique 27 peut définir sa vitesse ascensionnelle maximale, ses 35 vitesses angulaires maximales ainsi que la description et la transition
8 principale entre le vol stationnaire et la marche en avant. L'enveloppe de commande du pilote automatique 27 est donc un ensemble de données définissant des contraintes de mouvement dont le véhicule 3 est capable. L'enveloppe de commande du pilote automatique 27 limite donc les capacités du véhicule 3. En manipulant l'enveloppe du pilote automatique, le jeu vidéo peut simuler plusieurs grandeurs physiques. Par exemple, en changeant les données de l'enveloppe, il est possible de simuler un véhicule plus lourd, en simulant une inertie plus grande par la limitation de l'accélération de l'engin. Une telle enveloppe a pour effet de délivrer une puissance moindre au moteur du véhicule 3. Ceci est sous contrôle du simulateur 1. Ainsi, le simulateur 1 peut créer des scénarios fictifs très variés. Par exemple, en début de séquence de jeu, le simulateur 1 peut simuler un véhicule 3 plus lourd car rempli de carburant. Au fur et à mesure du développement du jeu, le simulateur 1 va simuler un allégement du véhicule 3. Ou bien, le simulateur 1 peut simuler une mission qui consiste à déposer des équipements fictifs que le véhicule 3 transporte. Là encore, le simulateur 1 va générer des caractéristiques de pilotage menant à des consignes 9 donnant au joueur 7 l'impression que le poids du véhicule 3 se modifie au cours du jeu au fur et à mesure du dépôt des équipements fictifs. La consigne entre le simulateur et le pilote est dans notre exemple de modifier virtuellement le poids du drone. Dans cet exemple, au début du jeu, les caractéristiques de pilotage peuvent imposer une vitesse maximale et une accélération peu élevées au jouet 3. Le joueur 7 ne pourra donc pas amener son jouet 3 à une grande vitesse, même si ces commandes de pilotage 5 le demandent. Au fil du jeu, les caractéristiques de pilotage évoluent, ce qui augmente progressivement les limites de vitesse et d'accélération dont le jouet 3 est capable. Dans un stade avancé du jeu, le joueur pourra donc atteindre des vitesses plus élevées avec son jouet 3. De telle façon, le joueur a réellement l'impression de piloter un jouet qui s'allège au fil du temps, même s'il s'agit uniquement d'une simulation. En théorie, les contrôles du pilote automatique peuvent être réalisés directement par le simulateur dans un mode pilote automatique déporté . Il est beaucoup plus efficace en terme de conception du
9
système d'embarquer le pilote automatique à bord du jouet 3. Grâce au contrôle du pilote automatique 27, la quantité d'informations et leur criticité en matière de temps réel sont moindres. Le simulateur envoie des consignes de plus haut niveau au pilote automatique comme par exemple des avaries fictives, la modification du poids de l'engin, ou l'instruction d'atterrir d'urgence suite à des événements virtuels issus du jeu vidéo. Le simulateur 1 peut modifier les instructions 5 du joueur 7 d'une certaine façon, en particulier en y superposant des événements nouveaux de la même classe que les instructions. Cette superposition peut être une addition, une soustraction, une division, une multiplication, la mise de bornes, etc. En effet, la superposition peut s'effectuer par n'importe quelle combinaison d'opérations arithrnétiques et/ou logiques. Une telle superposition, par exemple par addition ou soustraction de signaux générés par le simulateur 1 aux signaux de commande 5 donnés par le joueur 7, est très utile pour la simulation d'événements visant à biaiser le pilotage du véhicule 3. Par exemple, si le véhicule 3 est un char, grâce à la superposition, il est possible de simuler que le char a reçu un coup d'un adversaire. Le coup au but est simulé comme non fatal mais comme endommageant le char. Le simulateur 1 va ainsi superposer des signaux aux actions 5 du joueur qui simulent une tendance du char à tourner lentement sur lui-même. Le joueur 7 doit alors adapter son pilotage pour compenser ce biais superposé. Dans le cas de figure, le joueur 7 devra donc commander le char en sens inverse pour compenser le biais créé par le simulateur 1. Avec un jouet 3 sous forme d'un quadricoptère, on peut rendre le pilotage plus complexe en simulant du vent en ajoutant une composante de dérive. On peut simuler de manière encore plus complexe et simuler des rafales de vent. Le joueur doit alors compenser ces événements qui 30 s'enchaînent. Dans un autre mode d'interaction, le jeu vidéo prend entièrement contrôle du jouet 3, soit temporairement soit définitivement. Par exemple, si le véhicule 3 est un char, on peut simuler que celui-ci a pris un coup. Le simulateur 1 prend alors les commandes de manière exclusive et fait 35 tourner l'engin sur lui-même et le secoue. Ensuite, les commandes sont rendues au joueur. Un autre exemple : le véhicule reçoit un coup fatal, ce qui est simulé de telle façon que le véhicule effectue une dernière embardée avant de s'arrêter définitivement. Le jeu est alors fini.
La figure 2b montre un système complet de simulation où les boucles de rétroactions se combinent à trois niveaux différents pour créer un jeu de réalité augmentée complet. Le premier dispositif est celui qui transforme les instructions du joueur en consignes pour par exemple ajouter des évènements 10 imaginaires. La première boucle de rétroaction est celle où des objets virtuels sont ajoutés dans le système par le simulateur. Le logiciel d'affichage combine alors les mesures des capteurs et les informations issues du simulateur pour produire un affichage composite de l'image réel augmentée des 15 objets virtuels. La seconde boucle de rétroaction est celle où les mesures des capteurs du jouet radiocommandé sont utilisées par le simulateur. Elles lui permettent de réaliser la simulation des objets virtuels, par exemple, de vérifier si le jouet percute un obstacle virtuel, ou d'informer un ennemi 20 virtuel qui voudrait poursuivre le jouet radiocommandé. La troisième boucle est celle du pilote automatique, elle permet d'asservir l'enveloppe du comportement de l'engin à des consignes de haut niveau issues du simulateur, comme par exemple alourdir virtuellement l'engin pour qu'il paraisse différent. 25 La figure 3 montre une implémentation du système de la figure 1 ou 2 sous la forme d'un premier véhicule télécommandé 31 et d'un deuxième véhicule télécommandé 33 avec leurs télécommandes associées 35 et 37. Les véhicules télécommandés 31 et 33 sont des jouets en forme de 30 char. Les télécommandes 35 et 37 se présentent sous forme de consoles portables avec un affichage vidéo 39 et des boutons de commande 41. Chacun des chars 31 et 33 dispose d'une caméra vidéo embarquée. L'image vidéo délivrée par la carnéra embarquée est envoyée à la console portable correspondante 35, 37 et est visualisée sur l'écran 39. Un 35 utilisateur contrôle son char 31, 33 à l'aide des commandes 41 de la
11
console de jeu 35, 37. La communication entre les consoles de jeu et les chars ainsi qu'une communication entre les chars eux-mêmes s'effectue de préférence par protocole Bluetooth ou Wifi (marques déposées). Les chars 31 et 33 ainsi que les consoles 35 et 37 peuvent être utilisés par deux joueurs pour se livrer un jeu de tir dont des représentations se trouvent aux figures 4a et 4b. Les joueurs jouent l'un contre l'autre, chacun avec sa console de jeu 35, 37 et son jouet vidéo 31, 33. Le jeu consiste principalement à déplacer son char 31, 33, diriger les mouvements de la tourelle et du canon du char, déplacer un réticule virtuel 43 sur l'écran 39 de la console de jeu 35, 37, de superposer le réticule virtuel 43 à l'image de l'adversaire 45 et de déclencher un tir virtuel pour atteindre l'adversaire. Ces différentes étapes sont montrées aux figures 4a et 4b. La figure 4a est un exemple d'une image vidéo délivrée par l'une des deux caméras vidéo d'un des chars. L'image vidéo 47 est retransmise du char et présentée au pilote du char sur l'écran 39 de sa console de jeu. Différents éléments virtuels sont incrustés sur l'image vidéo tels que le réticule du viseur virtuel 43 et une échelle virtuelle 49 donnant une indication de la hausse du canon du char.
Avec les contrôles 41 de sa console, le joueur déplace le réticule virtuel 43 sur l'image vidéo 47 jusqu'à ce qu'il soit en superposition avec l'image 45 de l'adversaire comme cela est montré à la figure 4b. Le joueur ayant ainsi visé son adversaire, il lui suffit de déclencher un tir. Le jeu vidéo simule alors le trajet d'un obus fictif, en particulier sa vitesse, sa trajectoire parabolique, l'angle d'impact, des paramètres qui sont tous estimés par le jeu vidéo. On peut aussi simuler des dégâts sur le char adverse. Dans ce cas, on retransmet au char adverse (ou à la console de jeu de l'adversaire) les informations représentant l'étendue des dégâts. Ces informations sont utilisées pour simuler un endommagement du char adverse. Pour cela, les possibilités de déplacement du char sont modifiées artificiellement par le simulateur 1 (cf. figures 1 et 2). Si le coup n'est pas considéré comme mortel, le système de jeu vidéo limite artificiellement la vitesse du char ou modifie les commandes de pilotage de telle façon que la tourelle du char ne puisse plus que tourner dans un seul sens. Si le coup est considéré comme fatal, le système immobilise le
12
char et la partie est terminée. Les figures 5 à 7 montrent une deuxième variante d'un jeu de tir selon l'invention. Dans cette variante, le jeu s'effectue non pas entre deux chars télécommandés mais entre un jouet sous la forme d'un véhicule antiaérien 51 avec une caméra vidéo embarquée 25 et un jouet sous la forme d'un quadricoptère 53. La figure 5 montre une vue d'ensemble d'un environnement réel 55 avec par exemple comme obstacle un arbre réel 57. Le véhicule 51 et le quadricoptère 53 se déplacent dans le décor réel 55 en fonction des consignes de pilotage. Un joueur pilote le véhicule antiaérien 51 et l'autre joueur le quadricoptère 53. Dans le cadre du jeu, le pilote du véhicule anti-aérien 51 va tenter d'abattre de façon virtuelle le quadricoptère 53 dirigé par l'autre joueur. Les figures 6a à 6c montrent le point de vue délivré au pilote du véhicule 51 par la caméra vidéo 25 embarquée sur ce véhicule. Les figures 6a à 6c montrent un décor réel différent de celui de la figure 5. Ici, l'environnement réel comprend deux maisons et plusieurs arbres. Dans la première image vidéo à la figure 6a, le quadricoptère 53 est parfaitement visible. Dans la seconde image vidéo à la figure 6b, postérieure à l'image de la figure 6a, le quadricoptère 53 s'est déplacé et est partiellement masqué par la végétation. Dans la troisième image vidéo à la figure 6c, postérieure à l'image de la figure 6b, le quadricoptère a fait demi-tour et est en train de se dissimuler derrière l'une des maisons. Le système de jeu selon l'invention est capable d'estimer si le quadricoptère 53 est visible, partiellement visible ou caché dans les images vidéo telles que montrées aux figures 6a à 6c. Cette procédure de reconnaissance est reproduite en détail par l'organigramme de la figure 8. Grâce à cette reconnaissance d'objets dans l'image, le système de jeu est capable de valider un tir fictif en direction du quadricoptère 53 si celui-ci est reconnu comme visible dans l'image vidéo (et correctement visé). Si le quadricoptère 53 est reconnu comme caché, le tir dans sa direction est invalidé. De cette façon, les joueurs du jeu vidéo peuvent utiliser des éléments du décor réel comme éléments du jeu.
Les figures 7a et 7b présentent deux images vidéo telles que délivrées par la caméra 25 embarquée sur le véhicule anti-aérien 51 de la figure 5. En particulier, les figures 7a et 7b détaillent la procédure de reconnaissance du quadricoptère 53 dans l'image vidéo et le positionnement d'un réticule virtuel 43 pour effectuer le tir fictif. Le pilote du véhicule 51 déplace un réticule virtuel 43 représentant son arme sur l'image vidéo pour viser son adversaire, le quadricoptère 53. Le joueur déplace son réticule virtuel 43 jusqu'à ce qu'il soit en superposition avec l'image du quadricoptère 53 tel que montré à la figure 7b. Le joueur déclenche ensuite son tir. Mais, puisque le quadricoptère 53 est caché par l'arbre 57, même si le réticule est bien placé par le tireur, le tir va être invalidé par le jeu. La figure 8 reproduit en détail la procédure de reconnaissance d'objets et de validation du tir utilisé par le système de jeu vidéo. La procédure débute, étape 100, par l'affichage de l'image vidéo délivrée par la caméra vidéo 25 sur l'écran de la console de jeu dutireur. A l'étape 101, le système de jeu vidéo incruste un réticule virtuel 43 dans l'image vidéo affichée. Le tireur peut maintenant déplacer ce réticule virtuel 43 pour viser et ensuite déclencher le tir. Le déclenchement du tir est détecté à l'étape 102. Dès qu'un tir a été détecté, le système effectue l'acquisition de la position instantanée A du réticule virtuel 43 sur l'image vidéo, étape 103 Une fois que la position A du réticule virtuel lors du tir est connue, un logiciel de reconnaissance d'image scanne l'image vidéo afin de reconnaître la présence du véhicule adverse 53 dans l'image vidéo, étape 25 104. La reconnaissance de l'adversaire dans l'image peut s'effectuer de différentes façons. Par exemple, le logiciel de reconnaissance peut tout simplement scanner l'image vidéo en essayant de retrouver la forme connue du véhicule adverse 53. Cependant, pour faciliter la 30 reconnaissance, il est préférable que le véhicule adverse 53 dispose d'éléments de reconnaissance disposés sur sa surface. Il peut par exemple s'agir d'éléments réfléchissants. Dans le mode préféré d'exécution de l'invention, le véhicule adverse 53 dispose de nombreuses diodes électroluminescentes (LED) qui 35 clignotent autour de lui. Ces diodes électroluminescentes ont une
14
géométrie connue, clignotent à une fréquence connue et ont des couleurs connues. Le logiciel de reconnaissance peut ainsi détecter le véhicule adverse 53 plus facilement dans l'image vidéo. Il est aussi envisageable d'utiliser des électrodes luminescentes de couleurs multiples qui passent du vert, au rouge et à l'orange pour faciliter la reconnaissance. Les diodes peuvent aussi émettre dans l'infrarouge. De cette manière, il n'y a plus d 'éléments visibles par l'oeil humain dans le système de jeu. Le logiciel de reconnaissance d'image peut être embarqué soit dans le véhicule télécommandé 51, soit dans l'unité de contrôle, c'est-à-dire la console de jeu. Afin d'améliorer davantage la reconnaissance, le logiciel de reconnaissance peut comprendre un algorithme de suivi des éléments de reconnaissance du véhicule adverse 53. Image après image, cet algorithme mesure le déplacement des éléments de reconnaissance. Pour faire cela, il peut s'appuyer sur le déplacement de son propre véhicule 51, ce qui lui permet de prédire où dans l'image devrait se trouver le véhicule adverse 53, en ajoutant le déplacement précédent constaté du véhicule adverse 53 afin de permettre au logiciel de prédire sa position.
Affin d'améliorer encore la reconnaissance de la position des jouets radiocommandés entre eux, les capteurs 13 sur chacun des jouets radiocommandés sont utilisés. Les informations sont envoyées non seulement à la console de jeux servant à piloter l'engin mais aussi à toutes les autres consoles de jeux. De cette manière le simulateur connaît l'estimé de la position du véhicule ennemi. Les moyens de reconnaissance vidéo permettent non plus de trouver le véhicule ennemi dans l'image mais de vérifier si il n'y a pas un objet réel entre les deux véhicules. Ce principe est très intéressant dans le cadre de jeux vidéo. II permet de prendre en compte facilement les obstacles réels. De cette manière les joueurs peuvent, comme indiqué dans la figure 7b, se cacher derrière un arbre. Pour en revenir à la figure 8, l'étape de reconnaissance 104 ayant été effectuée tel que décrit, la procédure continue en fonction du résultat de la reconnaissance.
Si la reconnaissance est négative, le tir est invalidé, étape 105. En
15
revanche, si le logiciel de reconnaissance a reconnu le véhicule adverse 53 dans l'image vidéo, l'étape prochaine 106 consiste à procéder à l'acquisition de la position B instantanée du véhicule adverse 53 dans l'image vidéo. Ensuite, la position B du véhicule adverse 53 est comparée à la position A du réticule virtuel 43 lors du déclenchement du tir, étape 107. Si les positions sont identiques, le tir est validé, étape 108, c'est-à-dire que le tir fictif a atteint son but. Si les positions sont différentes, le tir est invalidé, étape 109. Pour rendre la reconnaissance d'objets encore plus efficace, le 10 véhicule adverse 53 peut de plus transmettre sa position instantanée au véhicule tireur 51. Comme décrit précédemment, les véhicules disposent de capteurs et en particulier d'une centrale inertielle. Pendant toute la durée du jeu les véhicules se transmettent leur position. Lorsque le véhicule entre dans le 15 champ de vision de la caméra vidéo sa position transmise par radio est connue. Elle est utilisée comme position initiale par les algorithmes de détection. Ceci permet de les faire converger plus facilement et plus rapidement.
20 Les deux procédés capteurs et prédiction de déplacement vidéo peuvent être couplés. Un logiciel fusionne les informations de positions pour avoir une information pertinente s'affranchissant des dérives de la centrale inertielle. Ainsi, dans la version préférée de l'invention, les véhicules estiment 25 d'une manière fine leur position. Le fait que l'algorithme de détection indique que le véhicule disparaît soudainement de la position estimée signifie qu'il y a très probablement un obstacle réel entre les deux véhicules.
30 En résumé, grâce au logiciel d'analyse d'image et aux capteurs de position, le système de jeu connaît la position du véhicule adverse 53 dans l'image. II peut déterminer si le véhicule adverse 53 est masqué ou hors de vue. II s'attend à détecter les diodes électroluminescentes à une position précise de l'image et n'y détecte rien et en conclut que le véhicule 35 adverse 53 est masqué.
16
On peut aussi imaginer une phase de jeu où le tireur, par un tir indirecte, pointe un véhicule adverse caché. Le tir fictif est néanmoins validé grâce à la position connue par la centrale inertielle et en supposant qu'il s'agit dans le jeu d'un tir parabolique contournant l'obstacle derrière lequel se trouve caché le véhicule adverse. On peut aussi imaginer une phase de jeu encore plus réaliste de tir indirect où le tireur pointe le réticule devant le véhicule adverse, Le logiciel de simulation défini pas à pas la position du projectile virtuel. Le logiciel de reconnaissance et de prédiction de mouvement suit le mouvement de l'adversaire jusqu'au point d'impact virtuel. Le logiciel de simulation peut simuler des paramètres de tir complexes : par exemple, la vitesse initiale d'un obus peut être très rapide lors du tir et décroître rapidement. Le logiciel peut aussi simuler des comportement complexes des munitions comme l'explosion du projectile à proximité de la cible ou bien des missiles guidés et auto guidés. Ce type de simulation du projectile rend le jeu encore plus intéressant, un adversaire peut voir le départ d'un projectile adverse et dans un temps très court manoeuvrer son engin pour l'éviter. Cela permet aussi de simuler les situations extrêmement complexes d'un jeu de tir entre avions de chasse dans lequel la trajectoire des projectiles dépend de celle de l'avion tireur, et la position du point d'impact dépend de la position de l'avion adverse plusieurs secondes après le déclenchement du tir. La figure 9 montre l'organigramme du tir indirecte. La position C est la position virtuelle calculée par le simulateur du projectile. L'objet de l'algorithme est de vérifier que la position du projectile virtuel est identique à celle de l'engin adverse à la position B. La position A est celle du réticule ne servant qu'à définir les conditions initiales de tir du projectile. La position C du projectile évolue au fil du temps, la durée de simulation est limitée par le logiciel.
Finalement, la procédure de reconnaissance d'objets peut aussi procéder à une reconnaissance partielle, c'est-à-dire une estimation si l'objet est partiellement caché. Cette reconnaissance partielle peut s'effectuer en mesurant la variation de la luminosité des diodes électroluminescentes d'une image à l'autre. Pour que cette reconnaissance partielle soit efficace, il est préférable de placer de nombreuses diodes électroluminescentes sur les surfaces du véhicule télécommandé en question. Le système peut par exemple supposer que lorsque la luminosité diminue de moitié, la moitié des diodes électroluminescentes est masquée, ce qui signifie que le véhicule adverse est à moitié caché. Bien entendu, même si les jeux vidéo décrits ici n'impliquent qu'un ou deux véhicules télécommandés, l'invention ne se limite pas à un jeu à un ou deux. En effet, les jeux décrits peuvent s'effectuer avec plus de deux joueurs et plus de deux jouets télécommandés.10

Claims (7)

REVENDICATIONS
1 Procédé de validation de tir pour un système de jeux vidéo, le système comprenant : - un premier véhicule télécommandé (51) comprenant une caméra vidéo embarquée (25) ; - un deuxième véhicule télécommandé (53) ; et - une entité électronique à affichage vidéo (35, 37) servant à télécommander le premier véhicule (51) ; caractérisé en ce que le procédé comprend les étapes suivantes : - affichage de l'image délivrée par la caméra vidéo embarquée 10 sur l'affichage vidéo de l'entité électronique (100) ; -affichage d'un réticule virtuel (43) déplaçable dans l'image vidéo (101) ; - détection d'une commande de tir virtuel entrée dans l'entité électronique (102) ; 15 - acquisition de la position A du réticule virtuel (43) dans l'image vidéo (103) ; reconnaissance du deuxième véhicule télécommandé (53) dans l'image vidéo (104) ; - en cas de reconnaissance échouée, invalidation du tir virtuel 20 (105) ; en cas de reconnaissance réussie : a) acquisition de la position B du deuxième véhicule (53) dans l'image vidéo (106) ; b) comparaison de la position A à la position B (107) ; 25 c) en cas d'identité entre A et B, validation du tir virtuel (108) ; d) en cas de différence entre A et B, invalidation du tir virtuel (109). 30
2. Procédé selon la revendication 1, la reconnaissance du deuxième véhicule (53) s'effectuant par reconnaissance d'éléments distinctifs agencés sur le deuxième véhicule, à savoir des diodes électroluminescentes. 19
3. Procédé selon la revendication 2, les diodes électroluminescentes : -étant agencées sous forme d'une géométrie spécifique, - clignotant à une fréquence déterminée, - ayant des couleurs spécifiques, et/ou - ayant des couleurs variables dans le temps, afin de faciliter la reconnaissance du deuxième véhicule (53).
4. Procédé selon la revendication 2 ou 3, la reconnaissance des diodes électroluminescentes incluant la mesure de leur luminosité totale afin de permettre la reconnaissance d'une partie visible du deuxième véhicule (53) en fonction de la valeur de la luminosité mesurée.
5. Procédé selon l'une des revendications précédentes, comprenant en outre une étape de prédiction du déplacement du deuxième véhicule (53) dans l'image vidéo sur la base : - d'une mesure du déplacement du premier véhicule (51), et/ou du déplacement antérieur du deuxième véhicule (53) dans l'image vidéo.
6. Procédé selon l'une des revendications précédentes, les véhicules (51, 53) disposant de capteurs, en particulier de capteurs de position, pour suivre leurs déplacements et de moyens de télécommunication pour transmettre lesdits déplacements, la reconnaissance de la position B du deuxième véhicule (53) dans l'image vidéo (106) se faisant grâce aux informations des capteurs transmises par les véhicules (51, 53).
7 Procédé selon la revendication précédente, les positions mesurées par les capteurs étant utilisées comme conditions initiales pour les algorithmes de reconnaissance dans l'image vidéo (106).8. Procédé selon l'une des revendications 2 à 4, comprenant une étape d'analyse consistant à considérer que le deuxième véhicule (53) passe derrière un obstacle réel lorsque la reconnaissance d'éléments distinctifs dans l'image vidéo (106) indique une disparition soudaine du deuxième véhicule (53). 9. Procédé selon l'une des revendications précédentes, comprenant une étape alternative de validation de tir, en cas de tir indirect, le tir étant validé par la simulation de la trajectoire d'un projectile virtuel et son impact à la position B du véhicule cible (53) dans l'image vidéo (106).
FR0700998A 2007-02-13 2007-02-13 Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes Expired - Fee Related FR2912318B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR0700998A FR2912318B1 (fr) 2007-02-13 2007-02-13 Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes
EP08761879A EP2125127A2 (fr) 2007-02-13 2008-02-13 Procédé de reconnaissance d'objets dans un jeu de tir pour jouets télécommandés
JP2009549841A JP2010518354A (ja) 2007-02-13 2008-02-13 遠隔操作玩具用のシューティング・ゲームにおいて対象を認識するための方法
US12/526,933 US20100178966A1 (en) 2007-02-13 2008-02-13 A method of recognizing objects in a shooter game for remote-controlled toys
PCT/FR2008/000180 WO2008116982A2 (fr) 2007-02-13 2008-02-13 Procédé de reconnaissance d'objets dans un jeu de tir pour jouets télécommandés

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0700998A FR2912318B1 (fr) 2007-02-13 2007-02-13 Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes

Publications (2)

Publication Number Publication Date
FR2912318A1 true FR2912318A1 (fr) 2008-08-15
FR2912318B1 FR2912318B1 (fr) 2016-12-30

Family

ID=38038896

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0700998A Expired - Fee Related FR2912318B1 (fr) 2007-02-13 2007-02-13 Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes

Country Status (5)

Country Link
US (1) US20100178966A1 (fr)
EP (1) EP2125127A2 (fr)
JP (1) JP2010518354A (fr)
FR (1) FR2912318B1 (fr)
WO (1) WO2008116982A2 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010063916A1 (fr) * 2008-12-04 2010-06-10 Parrot Jeu de drones munis de balises de reconnaissance
FR2957266A1 (fr) * 2010-03-11 2011-09-16 Parrot Procede et appareil de telecommande d'un drone, notamment d'un drone a voilure tournante.
CN101905087B (zh) * 2009-06-05 2012-07-11 牟善钶 遥控玩具与电子游戏机的整合接口

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2023812T3 (pl) 2006-05-19 2017-07-31 The Queen's Medical Center Układ śledzenia ruchu dla adaptacyjnego obrazowania w czasie rzeczywistym i spektroskopii
JP5124351B2 (ja) * 2008-06-04 2013-01-23 三洋電機株式会社 車両操作システム
JP5558730B2 (ja) * 2009-03-24 2014-07-23 株式会社バンダイナムコゲームス プログラム及びゲーム装置
US10188958B2 (en) 2009-05-28 2019-01-29 Anki, Inc. Automated detection of surface layout
US8882560B2 (en) 2009-05-28 2014-11-11 Anki, Inc. Integration of a robotic system with one or more mobile computing devices
US8353737B2 (en) 2009-05-28 2013-01-15 Anki, Inc. Distributed system of autonomously controlled toy vehicles
US9155961B2 (en) 2009-05-28 2015-10-13 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components
US20110025542A1 (en) * 2009-08-03 2011-02-03 Shanker Mo Integration Interface of a Remote Control Toy and an Electronic Game
FR2953014B1 (fr) 2009-11-24 2011-12-09 Parrot Balise de jalonnement pour l'orientation et la navigation a vue d'un drone
US20110151955A1 (en) * 2009-12-23 2011-06-23 Exent Technologies, Ltd. Multi-player augmented reality combat
GB2482119B (en) 2010-07-19 2013-01-23 China Ind Ltd Racing vehicle game
KR101299910B1 (ko) * 2010-08-18 2013-08-23 주식회사 팬택 증강 현실 서비스의 공유 방법 및 그를 위한 사용자 단말기와 원격자 단말기
WO2013032933A2 (fr) 2011-08-26 2013-03-07 Kinecticor, Inc. Procédés, systèmes et dispositifs pour correction de mouvements intra-balayage
WO2013033954A1 (fr) 2011-09-09 2013-03-14 深圳市大疆创新科技有限公司 Rotule à équilibrage automatique dynamique et gyroscopique
US9737808B2 (en) 2012-06-05 2017-08-22 Sony Corporation Information processing apparatus, information processing method, program, and toy system
TWI630505B (zh) * 2012-08-28 2018-07-21 仁寶電腦工業股份有限公司 互動式擴增實境系統及其可攜式通訊裝置與互動方法
US9011250B2 (en) 2012-10-05 2015-04-21 Qfo Labs, Inc. Wireless communication system for game play with multiple remote-control flying craft
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
KR101298030B1 (ko) * 2013-03-12 2013-08-26 주식회사 네시삼십삼분 슈팅 게임이 기록된 컴퓨터 판독 가능한 기록매체
EP2778819A1 (fr) * 2013-03-12 2014-09-17 Thomson Licensing Procédé de prise de vue d'une interprétation cinématographique utilisant un véhicule aérien sans pilote
CN104134070B (zh) * 2013-05-03 2018-05-29 仁宝电脑工业股份有限公司 交互式对象追踪系统及其交互式对象与追踪方法
US8903568B1 (en) 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal
JP2016541026A (ja) 2013-10-08 2016-12-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 安定化と振動低減のための装置および方法
EP3157422A4 (fr) 2014-03-24 2018-01-24 The University of Hawaii Systèmes, procédés et dispositifs pour supprimer une correction de mouvement prospective à partir de balayages d'imagerie médicale
WO2016014718A1 (fr) 2014-07-23 2016-01-28 Kineticor, Inc. Systèmes, dispositifs et procédés de suivi et de compensation de mouvement de patient pendant une imagerie médicale par balayage
US9861882B2 (en) 2014-09-05 2018-01-09 Trigger Global Inc. Augmented reality gaming systems and methods
WO2016111809A1 (fr) 2015-01-05 2016-07-14 Anki, Inc. Service de traitement analytique adaptatif de données
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10258888B2 (en) * 2015-11-23 2019-04-16 Qfo Labs, Inc. Method and system for integrated real and virtual game play for multiple remotely-controlled aircraft
US10716515B2 (en) 2015-11-23 2020-07-21 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10197998B2 (en) 2015-12-27 2019-02-05 Spin Master Ltd. Remotely controlled motile device system
US10238962B2 (en) * 2015-12-27 2019-03-26 Spin Master Ltd. System and method for recharging battery in augmented reality game system
US9996978B2 (en) 2016-02-08 2018-06-12 Disney Enterprises, Inc. System and method of simulating first-person control of remote-controlled vehicles
US9922465B2 (en) 2016-05-17 2018-03-20 Disney Enterprises, Inc. Systems and methods for changing a perceived speed of motion associated with a user
WO2018112695A1 (fr) * 2016-12-19 2018-06-28 深圳市阳日电子有限公司 Procédé d'affichage d'image et terminal mobile

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030232649A1 (en) * 2002-06-18 2003-12-18 Gizis Alexander C.M. Gaming system and method
US20040092208A1 (en) * 2002-11-01 2004-05-13 Weiss Stephen N. Remotely controlled toy vehicles with light(s)
US20050186884A1 (en) * 2004-02-19 2005-08-25 Evans Janet E. Remote control game system with selective component disablement

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63277081A (ja) * 1987-05-08 1988-11-15 株式会社 アスキ− ゲ−ム装置
JP3424959B2 (ja) * 1993-06-16 2003-07-07 株式会社ナムコ ゲーム装置及びゲームを行うための装置の制御方法
JPH11309269A (ja) * 1998-04-27 1999-11-09 Sony Corp ゲーム装置、シミュレーション装置及びゲーム画像表示方法
US6752720B1 (en) * 2000-06-15 2004-06-22 Intel Corporation Mobile remote control video gaming system
JP3686919B2 (ja) * 2000-12-06 2005-08-24 株式会社ニコン技術工房 ゲーム装置、ゲーム処理方法及び可読記憶媒体
JP4507884B2 (ja) * 2005-01-11 2010-07-21 トヨタ自動車株式会社 遠隔制御システム及び遠隔制御装置を備える車両
US7317406B2 (en) * 2005-02-03 2008-01-08 Toyota Technical Center Usa, Inc. Infrastructure-based collision warning using artificial intelligence
US20080217472A1 (en) * 2005-10-03 2008-09-11 Rocket Racing, Inc. Rocket-powered vehicle racing reality system
US7211980B1 (en) * 2006-07-05 2007-05-01 Battelle Energy Alliance, Llc Robotic follow system and method
US8682502B2 (en) * 2007-03-28 2014-03-25 Irobot Corporation Remote vehicle control system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030232649A1 (en) * 2002-06-18 2003-12-18 Gizis Alexander C.M. Gaming system and method
US20040092208A1 (en) * 2002-11-01 2004-05-13 Weiss Stephen N. Remotely controlled toy vehicles with light(s)
US20050186884A1 (en) * 2004-02-19 2005-08-25 Evans Janet E. Remote control game system with selective component disablement

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010063916A1 (fr) * 2008-12-04 2010-06-10 Parrot Jeu de drones munis de balises de reconnaissance
FR2939325A1 (fr) * 2008-12-04 2010-06-11 Parrot Systeme de drones munis de balises de reconnaissance
CN102238986B (zh) * 2008-12-04 2014-04-09 鹦鹉股份有限公司 配有识别信标的无人驾驶飞机套件
US8818083B2 (en) 2008-12-04 2014-08-26 Parrot System of drones provided with recognition beacons
CN101905087B (zh) * 2009-06-05 2012-07-11 牟善钶 遥控玩具与电子游戏机的整合接口
FR2957266A1 (fr) * 2010-03-11 2011-09-16 Parrot Procede et appareil de telecommande d'un drone, notamment d'un drone a voilure tournante.
US8958928B2 (en) 2010-03-11 2015-02-17 Parrot Method and an appliance for remotely controlling a drone, in particular a rotary wing drone

Also Published As

Publication number Publication date
FR2912318B1 (fr) 2016-12-30
JP2010518354A (ja) 2010-05-27
WO2008116982A3 (fr) 2008-12-24
WO2008116982A2 (fr) 2008-10-02
EP2125127A2 (fr) 2009-12-02
US20100178966A1 (en) 2010-07-15

Similar Documents

Publication Publication Date Title
FR2912318A1 (fr) Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes
EP0961913B1 (fr) Simulateur de tir de missiles avec immersion du tireur dans un espace virtuel
US8210943B1 (en) Target interface
Singer Wired for war: The robotics revolution and conflict in the 21st century
US9884254B2 (en) Augmented reality gaming systems and methods
FR2908323A1 (fr) Procede de definition d'un referentiel commun pour un systeme de jeux video
FR2908324A1 (fr) Procede d'ajustement d'affichage pour un systeme de jeux video
US20160067608A1 (en) Augmented reality gaming systems and methods
EP2099541A1 (fr) Procede de definition de zone de jeux pour un systeme de jeux video
EP3304522B1 (fr) Système de création d'un environnement
CN110876849B (zh) 虚拟载具的控制方法、装置、设备及存储介质
US9836984B2 (en) Storytelling environment: story and playgroup creation
CN111408133A (zh) 互动道具显示方法、装置、终端及存储介质
CN110507990B (zh) 基于虚拟飞行器的互动方法、装置、终端及存储介质
CN111659116A (zh) 虚拟载具的控制方法、装置、设备及介质
JP2019097978A (ja) ゲームシステム及びプログラム
CN114432701A (zh) 基于虚拟场景的射线显示方法、装置、设备以及存储介质
CN112121433A (zh) 虚拟道具的处理方法、装置、设备及计算机可读存储介质
CN112891930B (zh) 虚拟场景中的信息展示方法、装置、设备及存储介质
EP2643830A2 (fr) Procede de simulation de tirs au-dela de la vue directe et simulateur de tirs apte a mettre en oeuvre le procede
Martell Framing Ludens: Pawn Swapping and Game Mode Alteration in an Unreal Engine Game Level
WO2020144418A1 (fr) Titre de l'invention : fusil permettant une simulation précise d'une séquence de tir avec calcul du point d'impact du ou des projectiles
Conger Prototype development of low-cost, augmented reality trainer for crew service weapons
FR2554619A1 (fr) Systeme simulateur pour la formation d'une personne operatrice devant apprendre a manoeuvrer un dispositif dans ou par rapport a un environnement

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 10

TP Transmission of property

Owner name: PARROT DRONES, FR

Effective date: 20161010

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

ST Notification of lapse

Effective date: 20201006