FR2912318A1 - Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes - Google Patents
Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes Download PDFInfo
- Publication number
- FR2912318A1 FR2912318A1 FR0700998A FR0700998A FR2912318A1 FR 2912318 A1 FR2912318 A1 FR 2912318A1 FR 0700998 A FR0700998 A FR 0700998A FR 0700998 A FR0700998 A FR 0700998A FR 2912318 A1 FR2912318 A1 FR 2912318A1
- Authority
- FR
- France
- Prior art keywords
- vehicle
- recognition
- virtual
- video
- video image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A63F13/10—
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- A63F13/12—
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/803—Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H30/00—Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
- A63H30/02—Electrical arrangements
- A63H30/04—Electrical arrangements using wireless transmission
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
- A63F13/573—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/30—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
- A63F2300/303—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
- A63F2300/306—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display for displaying a marker associated to an object or location in the game field
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8017—Driving on land or water; Flying
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8076—Shooting
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Toys (AREA)
- Selective Calling Equipment (AREA)
Abstract
L'invention concerne un procédé de reconnaissance d'objets pour un système de jeux vidéo de tir, le système comprenant un premier véhicule télécommandé (51) comprenant une caméra vidéo embarquée (25), un deuxième véhicule télécommandé (53) ; et une entité électronique à affichage vidéo servant à télécommander le premier véhicule (51).
Description
1
L'invention concerne un procédé de reconnaissance d'objets pour un système de jeu vidéo. Un tel système est connu du document WO 01/95988 Al. Ce document décrit un jeu vidéo de chasse impliquant deux véhicules téléguidés avec des caméras vidéo embarquées. L'un des deux véhicules téléguidés est le chasseur et l'autre est la proie. Les images vidéo de la caméra vidéo du véhicule chasseur sont transmises à une unité de contrôle et y sont affichées. Les images vidéo délivrées par le véhicule chasseur sont scannées pour détecter l'image du véhicule adverse. Si le véhicule adverse est détecté dans l'image vidéo, le véhicule adverse dans l'image est remplacé par un personnage de jeu virtuel. Ainsi, le joueur pilotant le véhicule chasseur à l'aide de l'unité de contrôle voit sur son image vidéo non l'image du véhicule adverse mais celui d'un personnage de jeu virtuel qu'il doit poursuivre avec son véhicule.
Le procédé de reconnaissance d'objet connu du document WO 01/95988 Al n'est cependant pas applicable à un jeu de tir. Le but de la présente invention est donc de proposer un procédé de reconnaissance d'objet pour un jeu de vidéo de tir. Ce but est atteint selon l'invention par un procédé de reconnaissance 20 d'objets pour un système de jeux vidéo de tir, le système comprenant : - un premier véhicule télécommandé comprenant une caméra vidéo embarquée ; - un deuxième véhicule télécommandé ; et une entité électronique à affichage vidéo servant à télécommander 25 le premier véhicule, le procédé comprenant les étapes suivantes : - affichage de l'image délivrée par la caméra vidéo embarquée sur l'affichage vidéo de l'entité électronique ; - affichage d'un réticule virtuel déplaçable dans l'image vidéo ; - détection d'une commande de tir virtuel entrée dans l'entité 30 électronique ; - acquisition de la position A du réticule virtuel dans l'image vidéo ; - reconnaissance du deuxième véhicule télécommandé dans l'image vidéo ; - en cas de reconnaissance échouée, invalidation du tir virtuel ; 35 - en cas de reconnaissance réussie :
2
a) acquisition de la position B du deuxième véhicule dans l'image vidéo ; b) comparaison de la position A à la position B ; c) en cas d'identité entre A et B, validation du tir virtuel ; d) en cas de différence entre A et B, invalidation du tir virtuel. L'entité électronique du système est de préférence une console portable avec un écran vidéo. Grâce au procédé de l'invention, il est possible de réaliser un jeu vidéo de tir avec une pluralité de jouets réels télécommandés. Les 10 participants pilotant chacun un véhicule télécommandé peuvent utiliser un environnement ou décor réel dans lequel évoluent les véhicules télécommandés. En particulier, les joueurs peuvent utiliser des obstacles réels pour tenter de protéger leur véhicule télécommandé des tirs des autres 15 joueurs. Selon l'invention, les tirs lancés par les véhicules sont uniquement fictifs et simulés par le système de jeu. L'invention permet donc une combinaison innovatrice entre les aspects d'un jeu vidéo de tir classique entièrement virtuel et un jeu à véhicules télécommandés classique entièrement réel. 20 Grâce à l'invention, les joueurs pilotant les véhicules télécommandés peuvent utiliser les éléments du décor réel comme éléments du jeu. De préférence, la reconnaissance du deuxième véhicule s'effectue par reconnaissance d'éléments distinctifs agencés sur le deuxième véhicule, à savoir des diodes électroluminescentes. 25 Dans une application préférée, les diodes électroluminescentes sont agencées sous forme d'une géométrie spécifique. Les diodes électroluminescentes peuvent aussi clignoter à une fréquence déterminée, avoir des couleurs spécifiques, et/ou avoir des couleurs variables dans le temps, afin de faciliter la reconnaissance du deuxième 30 véhicule. La reconnaissance des diodes électroluminescentes peut aussi inclure la mesure de leur luminosité totale afin de permettre d'estimer la partie visible du deuxième véhicule en fonction de la valeur de la luminosité mesurée. 35 Grâce à une telle mesure de la luminosité, il devient possible
3
d'estimer si un véhicule télécommandé est partiellement caché par un obstacle du décor réel. Une telle reconnaissance partielle peut alors influencer la décision de validation ou d'invalidation d'un tir fictif. En particulier, la quantité de dommages fictifs causés par le tir fictif peut être une fonction de la taille de la partie détectée du deuxième véhicule. De préférence le procédé de l'invention utilise en outre des capteurs de vitesse et/ou d'accélération et/ou de position sur le véhicule cible et/ou sur le véhicule tireur. Les capteurs permettent aux deux engins de connaître en temps réel leurs coordonnées dans l'espace. Celles-ci peuvent alors être transmises par des moyens radio. De préférence, le procédé selon l'invention comprend en outre une étape de prédiction du déplacement du deuxième véhicule dans l'image vidéo sur la base : d'une mesure du déplacement du premier véhicule, et/ou du déplacement antérieur du deuxième véhicule dans l'image vidéo.
Les deux caractéristiques précédentes, à savoir l'utilisation de capteurs embarqués sur les véhicules et la prédiction du déplacement du deuxième véhicule dans l'image vidéo, peuvent être couplées. Un logiciel fusionne les informations de positions pour avoir une information pertinente s'affranchissant de dérives qui peuvent être le résultat de centrales inertielles embarquées sur chacun des deux véhicules. Dans la version préférée de l'invention les véhicules estiment d'une manière fine leur position. Le fait qu'un véhicule ennemi disparaisse soudainement de la position estimée indique qu'il s'est très probablement caché derrière un obstacle réel.
La particularité de prendre en compte dans un jeu de tirs virtuels des obstacles réels est l'aspect préféré de l'invention.
0 On va maintenant décrire des exemples de mise en oeuvre de l'invention, en référence aux dessins annexés. La figure la montre le fonctionnement d'un premier système de simulation d'événements fictifs selon l'invention ; La figure lb montre un second système permettant l'ajout d'objets imaginaires, par exemple des obstacles ;
4
La figure 1c montre des éléments imaginaires ajoutés par le jeu sur l'affichage de la console de jeu ; La figure 1d montre un troisième système selon l'invention avec un pilotage automatique embarqué ; La figure 2a montre le fonctionnement d'un deuxième système de stimulation selon l'invention complété par un pilote automatique ; La figure 2b montre le système complet : événements fictifs, objets imaginaires et pilote automatique interagissent dans un jeu très complet. La figure 3 montre deux véhicules télécommandés et leurs télécommandes associées ; Les figures 4a et 4b montrent l'affichage vidéo d'un premier jeu de tir selon l'invention ; La figure 5 montre l'environnement réel d'un deuxième jeu de tir selon l'invention ; Les figures 6, 6a, 6b et 6c montrent différentes images vidéo tirées du second jeu de tir selon l'invention ; Les figures 7a et 7b montrent l'image vidéo du second jeu de tir lors de l'exécution d'un tir fictif par un joueur ; La figure 8 est un organigramme du procédé de reconnaissance 20 d'objets pour la validation ou l'invalidation des tirs fictifs effectués au cours des jeux de tir ; et La figure 9 est un organigramme de validation ou d'invalidation de tir parabolique lorsque la cible est cachée par un obstacle réel. La figure 1 a visualise le concept de l'invention qui est celui d'un jeu 25 vidéo "en boucle ouverte". Un simulateur 1 supervise le fonctionnement d'un jouet radiocommandé 3. Le simulateur 1 du jeu vidéo modifie les instructions 5, qui visent à piloter le jouet 3, du joueur 7. Le jouet 3 reçoit des consignes de pilotage 9 du simulateur 1. Ces consignes 9 sont générées par le 30 simulateur 1 en tenant compte des instructions de pilotage 5. Le jouet 3 est non seulement tributaire des consignes 9 reçues mais aussi des événements physiques externes au jeu. Des capteurs 13 agencés sur le jouet 3 transmettent des informations sur l'environnement du jouet 3 à des moyens de visualisation 15 du jeu 35 vidéo. Les informations provenant des capteurs 13 permettent au système de jeux vidéo d'estimer les changements d'état du jouet 3 dans son environnement réel. Les moyens de visualisation 15 utilisent les informations des capteurs 13 pour générer un affichage sur un écran 21 d'une unité de contrôle 23 manipulée par le joueur 7. 5 Les capteurs 13 comprennent en particulier une caméra vidéo 25 qui est embarquée sur le jouet télécommandé 3. Cette caméra vidéo 25 délivre des images vidéo qui sont affichées par les moyens de visualisation 15 sur l'écran 21 du joueur 7. La caméra vidéo 25 donne donc au joueur 7 une perspective telle que "perçue" par le véhicule télécommandé 3. Le jouet peut aussi être muni d'autres capteurs supplémentaires. II peut s'agir de capteurs très simples comme des accéléromètres ou des capteurs extrêmement sophistiqués comme par exemple une centrale inertielle. Grâce aux capteurs 13, le jeu vidéo constitue une visualisation.
Par exemple, avec un gyroscope et/ou des accéléromètres et un logiciel de visualisation, le jeu vidéo peut reconstituer un horizon artificiel si le véhicule télécommandé est un avion téléguidé. On va maintenant décrire en détail le rôle et fonctionnement du simulateur 1. Le simulateur 1 est situé entre le joueur 7 et le jouet radiocommandé 3. Il reçoit les instructions de pilotage 5 issues du joueur 7. Ces actions ou commandes de pilotage 5 représentent les modifications que le joueur 7 désire impartir aux éléments de propulsion (tel que le moteur du jouet 3) et/ou de guidage (telles que les gouvernes du jouet 3) pour, par exemple, diriger le jouet 3 dans une certaine direction. Or, ces actions de pilotage 5 ne sont pas directement transmises telles quelles au jouet télécommandé. En effet, le jouet 3 est découplé du pilotage du joueur 7 à travers le simulateur 1. C'est le simulateur 1 qui contrôle directement le jouet 3 en émettant les consignes 9. Ces consignes 9 sont crées par le simulateur 1 en tenant compte des instructions 5. L'aspect particulièrement intéressant est que le simulateur 1 génère les consignes 9 non seulement à l'aide des instructions 5, mais surtout aussi à travers des caractéristiques de pilotage qui sont auto-35 générées par le simulateur 1. Ces caractéristiques de pilotage sont crées
6
en fonction du jeu vidéo choisi par le joueur 7. En effet, en fonction du jeu vidéo choisi, le simulateur 1 simule des événements nouveaux absents du monde physique qui ont un impact sur le jouet 3. Ces événements fictifs sont traduits en des caractéristiques de pilotage qui modifient les consignes 9 envoyées au jouet 3, de telle façon que le comportement du jouet 3 se trouve modifié. Par exemple, le simulateur 1 peut simuler une panne de moteur du jouet 3. Si le jouet 3 est un avion, le simulateur 1 peut rendre l'avion artificiellement plus lourd en créant des caractéristiques de pilotage qui donne au joueur 7 l'impression que l'avion 3 réagit plus lentement à ses commandes 5 que d'habitude. Le simulateur 1 peut aussi créer des scénarios fictifs complets comme la traversée d'un orage par l'avion 3. Dans cet exemple, le simulateur 1 génère des caractéristiques de pilotage qui mènent à des consignes 9 qui ont l'effet de faire trembler l'avion télécommandé 3 comme s'il subissait des rafales de vent. Ainsi, le simulateur 1 intervient de façon complexe et en temps réel dans le pilotage du jouet 3 pour procurer au joueur 7 une expérience de jeu très riche. Il ne s'agit pas simplement de surveiller le pilotage du joueur pour intervenir en cas d'erreurs ou de danger. Le simulateur 1 exerce une influence active et volontariste sur le pilotage du jouet 3 pour lui donner un comportement plus varié et plus divertissant. La différence principale avec un jeu vidéo classique se déroulant entièrement sur un ordinateur sans véhicule réel télécommandé est que le changement d'état n'est pas conduit uniquement par la simulation, mais qu'il est le résultat du changement de la boucle ouverte et que ce changement d'état est mesuré par des capteurs. La figure 1 b est une version plus complète du système de l'invention. Pour enrichir encore les scénarios de jeu le simulateur ajoute aux instructions des éléments imaginaires en plus des événements combinés.
Ces éléments imaginaires peuvent par exemple être des obstacles ou, plus intéressant, des objets virtuels douées d'un comportement, par exemple des ennemis virtuels. Les éléments imaginaires peuvent aussi êtres des éléments virtuels du jouet radiocommandé lui-même, comme un système d'arme doté d'un viseur et d'une arme virtuelle qui envoie des projectiles virtuels.
7
Dans ce cas deux boucles de rétroactions supplémentaires sont ajoutées dans le système. Dans la première, les informations issues des capteurs du jouet sont utilisées par le simulateur de manière à estimer la position du jouet radiocommandé pour par exemple déterminer si le tir d'un ennemi virtuel a touché le jouet. La seconde boucle de rétroaction est définie entre le simulateur et le logiciel d'affichage. Le logiciel d'affichage est informé du déplacement des objets virtuels de manière à pouvoir réaliser un affichage composite. Par exemple, en ajoutant sur l'image vidéo des éléments virtuels : des obstacles, des ennemis virtuels ou bien des éléments du système de tir comme l'élément 43 de la figure 4a. La figure 1c est un exemple de réalité augmentée. On ajoute des éléments virtuels, à savoir un ennemi, des projectiles et une zone d'atterrissage. L'image est composée du réel augmenté des objets 15 imaginaires. La figure 1d montre une boucle lorsqu'il y a un pilotage automatique embarqué. Une boucle de rétroaction est effectuée sur le drone lui-même. On utilise les mêmes capteurs que ceux utilisés pour la boucle d'affichage. 20 La figure 2a est une version encore plus complète du système de l'invention. On ajoute un pilote automatique 27 au système. Il permet d'asservir le fonctionnement de l'avion 3. Grâce au pilote automatique 27, l'avion 3 peu être rendu plus stable et prédictible dans son comportement. Ainsi, les 25 sources d'interaction entre le jeu vidéo 29 et le jouet 3 sont plus nombreuses. Dans le cas d'un système avec un pilote automatique 27, le jouet 3 peut être qualifié de drone puisqu'il a la capacité de se déplacer de façon autonome dans le décor réel sans nécessité de pilotage de la part du joueur 7. 30 Le pilote automatique 27 dispose d'une enveloppe de commande. Si le véhicule 3 est un char, l'enveloppe peut par exemple définir sa vitesse maximale, son accélération maximale, la vitesse de rotation en virage, etc. Si l'engin 3 est un quadricoptère, l'enveloppe de commande du pilote automatique 27 peut définir sa vitesse ascensionnelle maximale, ses 35 vitesses angulaires maximales ainsi que la description et la transition
8 principale entre le vol stationnaire et la marche en avant. L'enveloppe de commande du pilote automatique 27 est donc un ensemble de données définissant des contraintes de mouvement dont le véhicule 3 est capable. L'enveloppe de commande du pilote automatique 27 limite donc les capacités du véhicule 3. En manipulant l'enveloppe du pilote automatique, le jeu vidéo peut simuler plusieurs grandeurs physiques. Par exemple, en changeant les données de l'enveloppe, il est possible de simuler un véhicule plus lourd, en simulant une inertie plus grande par la limitation de l'accélération de l'engin. Une telle enveloppe a pour effet de délivrer une puissance moindre au moteur du véhicule 3. Ceci est sous contrôle du simulateur 1. Ainsi, le simulateur 1 peut créer des scénarios fictifs très variés. Par exemple, en début de séquence de jeu, le simulateur 1 peut simuler un véhicule 3 plus lourd car rempli de carburant. Au fur et à mesure du développement du jeu, le simulateur 1 va simuler un allégement du véhicule 3. Ou bien, le simulateur 1 peut simuler une mission qui consiste à déposer des équipements fictifs que le véhicule 3 transporte. Là encore, le simulateur 1 va générer des caractéristiques de pilotage menant à des consignes 9 donnant au joueur 7 l'impression que le poids du véhicule 3 se modifie au cours du jeu au fur et à mesure du dépôt des équipements fictifs. La consigne entre le simulateur et le pilote est dans notre exemple de modifier virtuellement le poids du drone. Dans cet exemple, au début du jeu, les caractéristiques de pilotage peuvent imposer une vitesse maximale et une accélération peu élevées au jouet 3. Le joueur 7 ne pourra donc pas amener son jouet 3 à une grande vitesse, même si ces commandes de pilotage 5 le demandent. Au fil du jeu, les caractéristiques de pilotage évoluent, ce qui augmente progressivement les limites de vitesse et d'accélération dont le jouet 3 est capable. Dans un stade avancé du jeu, le joueur pourra donc atteindre des vitesses plus élevées avec son jouet 3. De telle façon, le joueur a réellement l'impression de piloter un jouet qui s'allège au fil du temps, même s'il s'agit uniquement d'une simulation. En théorie, les contrôles du pilote automatique peuvent être réalisés directement par le simulateur dans un mode pilote automatique déporté . Il est beaucoup plus efficace en terme de conception du
9
système d'embarquer le pilote automatique à bord du jouet 3. Grâce au contrôle du pilote automatique 27, la quantité d'informations et leur criticité en matière de temps réel sont moindres. Le simulateur envoie des consignes de plus haut niveau au pilote automatique comme par exemple des avaries fictives, la modification du poids de l'engin, ou l'instruction d'atterrir d'urgence suite à des événements virtuels issus du jeu vidéo. Le simulateur 1 peut modifier les instructions 5 du joueur 7 d'une certaine façon, en particulier en y superposant des événements nouveaux de la même classe que les instructions. Cette superposition peut être une addition, une soustraction, une division, une multiplication, la mise de bornes, etc. En effet, la superposition peut s'effectuer par n'importe quelle combinaison d'opérations arithrnétiques et/ou logiques. Une telle superposition, par exemple par addition ou soustraction de signaux générés par le simulateur 1 aux signaux de commande 5 donnés par le joueur 7, est très utile pour la simulation d'événements visant à biaiser le pilotage du véhicule 3. Par exemple, si le véhicule 3 est un char, grâce à la superposition, il est possible de simuler que le char a reçu un coup d'un adversaire. Le coup au but est simulé comme non fatal mais comme endommageant le char. Le simulateur 1 va ainsi superposer des signaux aux actions 5 du joueur qui simulent une tendance du char à tourner lentement sur lui-même. Le joueur 7 doit alors adapter son pilotage pour compenser ce biais superposé. Dans le cas de figure, le joueur 7 devra donc commander le char en sens inverse pour compenser le biais créé par le simulateur 1. Avec un jouet 3 sous forme d'un quadricoptère, on peut rendre le pilotage plus complexe en simulant du vent en ajoutant une composante de dérive. On peut simuler de manière encore plus complexe et simuler des rafales de vent. Le joueur doit alors compenser ces événements qui 30 s'enchaînent. Dans un autre mode d'interaction, le jeu vidéo prend entièrement contrôle du jouet 3, soit temporairement soit définitivement. Par exemple, si le véhicule 3 est un char, on peut simuler que celui-ci a pris un coup. Le simulateur 1 prend alors les commandes de manière exclusive et fait 35 tourner l'engin sur lui-même et le secoue. Ensuite, les commandes sont rendues au joueur. Un autre exemple : le véhicule reçoit un coup fatal, ce qui est simulé de telle façon que le véhicule effectue une dernière embardée avant de s'arrêter définitivement. Le jeu est alors fini.
La figure 2b montre un système complet de simulation où les boucles de rétroactions se combinent à trois niveaux différents pour créer un jeu de réalité augmentée complet. Le premier dispositif est celui qui transforme les instructions du joueur en consignes pour par exemple ajouter des évènements 10 imaginaires. La première boucle de rétroaction est celle où des objets virtuels sont ajoutés dans le système par le simulateur. Le logiciel d'affichage combine alors les mesures des capteurs et les informations issues du simulateur pour produire un affichage composite de l'image réel augmentée des 15 objets virtuels. La seconde boucle de rétroaction est celle où les mesures des capteurs du jouet radiocommandé sont utilisées par le simulateur. Elles lui permettent de réaliser la simulation des objets virtuels, par exemple, de vérifier si le jouet percute un obstacle virtuel, ou d'informer un ennemi 20 virtuel qui voudrait poursuivre le jouet radiocommandé. La troisième boucle est celle du pilote automatique, elle permet d'asservir l'enveloppe du comportement de l'engin à des consignes de haut niveau issues du simulateur, comme par exemple alourdir virtuellement l'engin pour qu'il paraisse différent. 25 La figure 3 montre une implémentation du système de la figure 1 ou 2 sous la forme d'un premier véhicule télécommandé 31 et d'un deuxième véhicule télécommandé 33 avec leurs télécommandes associées 35 et 37. Les véhicules télécommandés 31 et 33 sont des jouets en forme de 30 char. Les télécommandes 35 et 37 se présentent sous forme de consoles portables avec un affichage vidéo 39 et des boutons de commande 41. Chacun des chars 31 et 33 dispose d'une caméra vidéo embarquée. L'image vidéo délivrée par la carnéra embarquée est envoyée à la console portable correspondante 35, 37 et est visualisée sur l'écran 39. Un 35 utilisateur contrôle son char 31, 33 à l'aide des commandes 41 de la
11
console de jeu 35, 37. La communication entre les consoles de jeu et les chars ainsi qu'une communication entre les chars eux-mêmes s'effectue de préférence par protocole Bluetooth ou Wifi (marques déposées). Les chars 31 et 33 ainsi que les consoles 35 et 37 peuvent être utilisés par deux joueurs pour se livrer un jeu de tir dont des représentations se trouvent aux figures 4a et 4b. Les joueurs jouent l'un contre l'autre, chacun avec sa console de jeu 35, 37 et son jouet vidéo 31, 33. Le jeu consiste principalement à déplacer son char 31, 33, diriger les mouvements de la tourelle et du canon du char, déplacer un réticule virtuel 43 sur l'écran 39 de la console de jeu 35, 37, de superposer le réticule virtuel 43 à l'image de l'adversaire 45 et de déclencher un tir virtuel pour atteindre l'adversaire. Ces différentes étapes sont montrées aux figures 4a et 4b. La figure 4a est un exemple d'une image vidéo délivrée par l'une des deux caméras vidéo d'un des chars. L'image vidéo 47 est retransmise du char et présentée au pilote du char sur l'écran 39 de sa console de jeu. Différents éléments virtuels sont incrustés sur l'image vidéo tels que le réticule du viseur virtuel 43 et une échelle virtuelle 49 donnant une indication de la hausse du canon du char.
Avec les contrôles 41 de sa console, le joueur déplace le réticule virtuel 43 sur l'image vidéo 47 jusqu'à ce qu'il soit en superposition avec l'image 45 de l'adversaire comme cela est montré à la figure 4b. Le joueur ayant ainsi visé son adversaire, il lui suffit de déclencher un tir. Le jeu vidéo simule alors le trajet d'un obus fictif, en particulier sa vitesse, sa trajectoire parabolique, l'angle d'impact, des paramètres qui sont tous estimés par le jeu vidéo. On peut aussi simuler des dégâts sur le char adverse. Dans ce cas, on retransmet au char adverse (ou à la console de jeu de l'adversaire) les informations représentant l'étendue des dégâts. Ces informations sont utilisées pour simuler un endommagement du char adverse. Pour cela, les possibilités de déplacement du char sont modifiées artificiellement par le simulateur 1 (cf. figures 1 et 2). Si le coup n'est pas considéré comme mortel, le système de jeu vidéo limite artificiellement la vitesse du char ou modifie les commandes de pilotage de telle façon que la tourelle du char ne puisse plus que tourner dans un seul sens. Si le coup est considéré comme fatal, le système immobilise le
12
char et la partie est terminée. Les figures 5 à 7 montrent une deuxième variante d'un jeu de tir selon l'invention. Dans cette variante, le jeu s'effectue non pas entre deux chars télécommandés mais entre un jouet sous la forme d'un véhicule antiaérien 51 avec une caméra vidéo embarquée 25 et un jouet sous la forme d'un quadricoptère 53. La figure 5 montre une vue d'ensemble d'un environnement réel 55 avec par exemple comme obstacle un arbre réel 57. Le véhicule 51 et le quadricoptère 53 se déplacent dans le décor réel 55 en fonction des consignes de pilotage. Un joueur pilote le véhicule antiaérien 51 et l'autre joueur le quadricoptère 53. Dans le cadre du jeu, le pilote du véhicule anti-aérien 51 va tenter d'abattre de façon virtuelle le quadricoptère 53 dirigé par l'autre joueur. Les figures 6a à 6c montrent le point de vue délivré au pilote du véhicule 51 par la caméra vidéo 25 embarquée sur ce véhicule. Les figures 6a à 6c montrent un décor réel différent de celui de la figure 5. Ici, l'environnement réel comprend deux maisons et plusieurs arbres. Dans la première image vidéo à la figure 6a, le quadricoptère 53 est parfaitement visible. Dans la seconde image vidéo à la figure 6b, postérieure à l'image de la figure 6a, le quadricoptère 53 s'est déplacé et est partiellement masqué par la végétation. Dans la troisième image vidéo à la figure 6c, postérieure à l'image de la figure 6b, le quadricoptère a fait demi-tour et est en train de se dissimuler derrière l'une des maisons. Le système de jeu selon l'invention est capable d'estimer si le quadricoptère 53 est visible, partiellement visible ou caché dans les images vidéo telles que montrées aux figures 6a à 6c. Cette procédure de reconnaissance est reproduite en détail par l'organigramme de la figure 8. Grâce à cette reconnaissance d'objets dans l'image, le système de jeu est capable de valider un tir fictif en direction du quadricoptère 53 si celui-ci est reconnu comme visible dans l'image vidéo (et correctement visé). Si le quadricoptère 53 est reconnu comme caché, le tir dans sa direction est invalidé. De cette façon, les joueurs du jeu vidéo peuvent utiliser des éléments du décor réel comme éléments du jeu.
Les figures 7a et 7b présentent deux images vidéo telles que délivrées par la caméra 25 embarquée sur le véhicule anti-aérien 51 de la figure 5. En particulier, les figures 7a et 7b détaillent la procédure de reconnaissance du quadricoptère 53 dans l'image vidéo et le positionnement d'un réticule virtuel 43 pour effectuer le tir fictif. Le pilote du véhicule 51 déplace un réticule virtuel 43 représentant son arme sur l'image vidéo pour viser son adversaire, le quadricoptère 53. Le joueur déplace son réticule virtuel 43 jusqu'à ce qu'il soit en superposition avec l'image du quadricoptère 53 tel que montré à la figure 7b. Le joueur déclenche ensuite son tir. Mais, puisque le quadricoptère 53 est caché par l'arbre 57, même si le réticule est bien placé par le tireur, le tir va être invalidé par le jeu. La figure 8 reproduit en détail la procédure de reconnaissance d'objets et de validation du tir utilisé par le système de jeu vidéo. La procédure débute, étape 100, par l'affichage de l'image vidéo délivrée par la caméra vidéo 25 sur l'écran de la console de jeu dutireur. A l'étape 101, le système de jeu vidéo incruste un réticule virtuel 43 dans l'image vidéo affichée. Le tireur peut maintenant déplacer ce réticule virtuel 43 pour viser et ensuite déclencher le tir. Le déclenchement du tir est détecté à l'étape 102. Dès qu'un tir a été détecté, le système effectue l'acquisition de la position instantanée A du réticule virtuel 43 sur l'image vidéo, étape 103 Une fois que la position A du réticule virtuel lors du tir est connue, un logiciel de reconnaissance d'image scanne l'image vidéo afin de reconnaître la présence du véhicule adverse 53 dans l'image vidéo, étape 25 104. La reconnaissance de l'adversaire dans l'image peut s'effectuer de différentes façons. Par exemple, le logiciel de reconnaissance peut tout simplement scanner l'image vidéo en essayant de retrouver la forme connue du véhicule adverse 53. Cependant, pour faciliter la 30 reconnaissance, il est préférable que le véhicule adverse 53 dispose d'éléments de reconnaissance disposés sur sa surface. Il peut par exemple s'agir d'éléments réfléchissants. Dans le mode préféré d'exécution de l'invention, le véhicule adverse 53 dispose de nombreuses diodes électroluminescentes (LED) qui 35 clignotent autour de lui. Ces diodes électroluminescentes ont une
14
géométrie connue, clignotent à une fréquence connue et ont des couleurs connues. Le logiciel de reconnaissance peut ainsi détecter le véhicule adverse 53 plus facilement dans l'image vidéo. Il est aussi envisageable d'utiliser des électrodes luminescentes de couleurs multiples qui passent du vert, au rouge et à l'orange pour faciliter la reconnaissance. Les diodes peuvent aussi émettre dans l'infrarouge. De cette manière, il n'y a plus d 'éléments visibles par l'oeil humain dans le système de jeu. Le logiciel de reconnaissance d'image peut être embarqué soit dans le véhicule télécommandé 51, soit dans l'unité de contrôle, c'est-à-dire la console de jeu. Afin d'améliorer davantage la reconnaissance, le logiciel de reconnaissance peut comprendre un algorithme de suivi des éléments de reconnaissance du véhicule adverse 53. Image après image, cet algorithme mesure le déplacement des éléments de reconnaissance. Pour faire cela, il peut s'appuyer sur le déplacement de son propre véhicule 51, ce qui lui permet de prédire où dans l'image devrait se trouver le véhicule adverse 53, en ajoutant le déplacement précédent constaté du véhicule adverse 53 afin de permettre au logiciel de prédire sa position.
Affin d'améliorer encore la reconnaissance de la position des jouets radiocommandés entre eux, les capteurs 13 sur chacun des jouets radiocommandés sont utilisés. Les informations sont envoyées non seulement à la console de jeux servant à piloter l'engin mais aussi à toutes les autres consoles de jeux. De cette manière le simulateur connaît l'estimé de la position du véhicule ennemi. Les moyens de reconnaissance vidéo permettent non plus de trouver le véhicule ennemi dans l'image mais de vérifier si il n'y a pas un objet réel entre les deux véhicules. Ce principe est très intéressant dans le cadre de jeux vidéo. II permet de prendre en compte facilement les obstacles réels. De cette manière les joueurs peuvent, comme indiqué dans la figure 7b, se cacher derrière un arbre. Pour en revenir à la figure 8, l'étape de reconnaissance 104 ayant été effectuée tel que décrit, la procédure continue en fonction du résultat de la reconnaissance.
Si la reconnaissance est négative, le tir est invalidé, étape 105. En
15
revanche, si le logiciel de reconnaissance a reconnu le véhicule adverse 53 dans l'image vidéo, l'étape prochaine 106 consiste à procéder à l'acquisition de la position B instantanée du véhicule adverse 53 dans l'image vidéo. Ensuite, la position B du véhicule adverse 53 est comparée à la position A du réticule virtuel 43 lors du déclenchement du tir, étape 107. Si les positions sont identiques, le tir est validé, étape 108, c'est-à-dire que le tir fictif a atteint son but. Si les positions sont différentes, le tir est invalidé, étape 109. Pour rendre la reconnaissance d'objets encore plus efficace, le 10 véhicule adverse 53 peut de plus transmettre sa position instantanée au véhicule tireur 51. Comme décrit précédemment, les véhicules disposent de capteurs et en particulier d'une centrale inertielle. Pendant toute la durée du jeu les véhicules se transmettent leur position. Lorsque le véhicule entre dans le 15 champ de vision de la caméra vidéo sa position transmise par radio est connue. Elle est utilisée comme position initiale par les algorithmes de détection. Ceci permet de les faire converger plus facilement et plus rapidement.
20 Les deux procédés capteurs et prédiction de déplacement vidéo peuvent être couplés. Un logiciel fusionne les informations de positions pour avoir une information pertinente s'affranchissant des dérives de la centrale inertielle. Ainsi, dans la version préférée de l'invention, les véhicules estiment 25 d'une manière fine leur position. Le fait que l'algorithme de détection indique que le véhicule disparaît soudainement de la position estimée signifie qu'il y a très probablement un obstacle réel entre les deux véhicules.
30 En résumé, grâce au logiciel d'analyse d'image et aux capteurs de position, le système de jeu connaît la position du véhicule adverse 53 dans l'image. II peut déterminer si le véhicule adverse 53 est masqué ou hors de vue. II s'attend à détecter les diodes électroluminescentes à une position précise de l'image et n'y détecte rien et en conclut que le véhicule 35 adverse 53 est masqué.
16
On peut aussi imaginer une phase de jeu où le tireur, par un tir indirecte, pointe un véhicule adverse caché. Le tir fictif est néanmoins validé grâce à la position connue par la centrale inertielle et en supposant qu'il s'agit dans le jeu d'un tir parabolique contournant l'obstacle derrière lequel se trouve caché le véhicule adverse. On peut aussi imaginer une phase de jeu encore plus réaliste de tir indirect où le tireur pointe le réticule devant le véhicule adverse, Le logiciel de simulation défini pas à pas la position du projectile virtuel. Le logiciel de reconnaissance et de prédiction de mouvement suit le mouvement de l'adversaire jusqu'au point d'impact virtuel. Le logiciel de simulation peut simuler des paramètres de tir complexes : par exemple, la vitesse initiale d'un obus peut être très rapide lors du tir et décroître rapidement. Le logiciel peut aussi simuler des comportement complexes des munitions comme l'explosion du projectile à proximité de la cible ou bien des missiles guidés et auto guidés. Ce type de simulation du projectile rend le jeu encore plus intéressant, un adversaire peut voir le départ d'un projectile adverse et dans un temps très court manoeuvrer son engin pour l'éviter. Cela permet aussi de simuler les situations extrêmement complexes d'un jeu de tir entre avions de chasse dans lequel la trajectoire des projectiles dépend de celle de l'avion tireur, et la position du point d'impact dépend de la position de l'avion adverse plusieurs secondes après le déclenchement du tir. La figure 9 montre l'organigramme du tir indirecte. La position C est la position virtuelle calculée par le simulateur du projectile. L'objet de l'algorithme est de vérifier que la position du projectile virtuel est identique à celle de l'engin adverse à la position B. La position A est celle du réticule ne servant qu'à définir les conditions initiales de tir du projectile. La position C du projectile évolue au fil du temps, la durée de simulation est limitée par le logiciel.
Finalement, la procédure de reconnaissance d'objets peut aussi procéder à une reconnaissance partielle, c'est-à-dire une estimation si l'objet est partiellement caché. Cette reconnaissance partielle peut s'effectuer en mesurant la variation de la luminosité des diodes électroluminescentes d'une image à l'autre. Pour que cette reconnaissance partielle soit efficace, il est préférable de placer de nombreuses diodes électroluminescentes sur les surfaces du véhicule télécommandé en question. Le système peut par exemple supposer que lorsque la luminosité diminue de moitié, la moitié des diodes électroluminescentes est masquée, ce qui signifie que le véhicule adverse est à moitié caché. Bien entendu, même si les jeux vidéo décrits ici n'impliquent qu'un ou deux véhicules télécommandés, l'invention ne se limite pas à un jeu à un ou deux. En effet, les jeux décrits peuvent s'effectuer avec plus de deux joueurs et plus de deux jouets télécommandés.10
Claims (7)
1 Procédé de validation de tir pour un système de jeux vidéo, le système comprenant : - un premier véhicule télécommandé (51) comprenant une caméra vidéo embarquée (25) ; - un deuxième véhicule télécommandé (53) ; et - une entité électronique à affichage vidéo (35, 37) servant à télécommander le premier véhicule (51) ; caractérisé en ce que le procédé comprend les étapes suivantes : - affichage de l'image délivrée par la caméra vidéo embarquée 10 sur l'affichage vidéo de l'entité électronique (100) ; -affichage d'un réticule virtuel (43) déplaçable dans l'image vidéo (101) ; - détection d'une commande de tir virtuel entrée dans l'entité électronique (102) ; 15 - acquisition de la position A du réticule virtuel (43) dans l'image vidéo (103) ; reconnaissance du deuxième véhicule télécommandé (53) dans l'image vidéo (104) ; - en cas de reconnaissance échouée, invalidation du tir virtuel 20 (105) ; en cas de reconnaissance réussie : a) acquisition de la position B du deuxième véhicule (53) dans l'image vidéo (106) ; b) comparaison de la position A à la position B (107) ; 25 c) en cas d'identité entre A et B, validation du tir virtuel (108) ; d) en cas de différence entre A et B, invalidation du tir virtuel (109). 30
2. Procédé selon la revendication 1, la reconnaissance du deuxième véhicule (53) s'effectuant par reconnaissance d'éléments distinctifs agencés sur le deuxième véhicule, à savoir des diodes électroluminescentes. 19
3. Procédé selon la revendication 2, les diodes électroluminescentes : -étant agencées sous forme d'une géométrie spécifique, - clignotant à une fréquence déterminée, - ayant des couleurs spécifiques, et/ou - ayant des couleurs variables dans le temps, afin de faciliter la reconnaissance du deuxième véhicule (53).
4. Procédé selon la revendication 2 ou 3, la reconnaissance des diodes électroluminescentes incluant la mesure de leur luminosité totale afin de permettre la reconnaissance d'une partie visible du deuxième véhicule (53) en fonction de la valeur de la luminosité mesurée.
5. Procédé selon l'une des revendications précédentes, comprenant en outre une étape de prédiction du déplacement du deuxième véhicule (53) dans l'image vidéo sur la base : - d'une mesure du déplacement du premier véhicule (51), et/ou du déplacement antérieur du deuxième véhicule (53) dans l'image vidéo.
6. Procédé selon l'une des revendications précédentes, les véhicules (51, 53) disposant de capteurs, en particulier de capteurs de position, pour suivre leurs déplacements et de moyens de télécommunication pour transmettre lesdits déplacements, la reconnaissance de la position B du deuxième véhicule (53) dans l'image vidéo (106) se faisant grâce aux informations des capteurs transmises par les véhicules (51, 53).
7 Procédé selon la revendication précédente, les positions mesurées par les capteurs étant utilisées comme conditions initiales pour les algorithmes de reconnaissance dans l'image vidéo (106).8. Procédé selon l'une des revendications 2 à 4, comprenant une étape d'analyse consistant à considérer que le deuxième véhicule (53) passe derrière un obstacle réel lorsque la reconnaissance d'éléments distinctifs dans l'image vidéo (106) indique une disparition soudaine du deuxième véhicule (53). 9. Procédé selon l'une des revendications précédentes, comprenant une étape alternative de validation de tir, en cas de tir indirect, le tir étant validé par la simulation de la trajectoire d'un projectile virtuel et son impact à la position B du véhicule cible (53) dans l'image vidéo (106).
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0700998A FR2912318B1 (fr) | 2007-02-13 | 2007-02-13 | Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes |
EP08761879A EP2125127A2 (fr) | 2007-02-13 | 2008-02-13 | Procédé de reconnaissance d'objets dans un jeu de tir pour jouets télécommandés |
JP2009549841A JP2010518354A (ja) | 2007-02-13 | 2008-02-13 | 遠隔操作玩具用のシューティング・ゲームにおいて対象を認識するための方法 |
US12/526,933 US20100178966A1 (en) | 2007-02-13 | 2008-02-13 | A method of recognizing objects in a shooter game for remote-controlled toys |
PCT/FR2008/000180 WO2008116982A2 (fr) | 2007-02-13 | 2008-02-13 | Procédé de reconnaissance d'objets dans un jeu de tir pour jouets télécommandés |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0700998A FR2912318B1 (fr) | 2007-02-13 | 2007-02-13 | Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2912318A1 true FR2912318A1 (fr) | 2008-08-15 |
FR2912318B1 FR2912318B1 (fr) | 2016-12-30 |
Family
ID=38038896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0700998A Expired - Fee Related FR2912318B1 (fr) | 2007-02-13 | 2007-02-13 | Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes |
Country Status (5)
Country | Link |
---|---|
US (1) | US20100178966A1 (fr) |
EP (1) | EP2125127A2 (fr) |
JP (1) | JP2010518354A (fr) |
FR (1) | FR2912318B1 (fr) |
WO (1) | WO2008116982A2 (fr) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010063916A1 (fr) * | 2008-12-04 | 2010-06-10 | Parrot | Jeu de drones munis de balises de reconnaissance |
FR2957266A1 (fr) * | 2010-03-11 | 2011-09-16 | Parrot | Procede et appareil de telecommande d'un drone, notamment d'un drone a voilure tournante. |
CN101905087B (zh) * | 2009-06-05 | 2012-07-11 | 牟善钶 | 遥控玩具与电子游戏机的整合接口 |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PL2023812T3 (pl) | 2006-05-19 | 2017-07-31 | The Queen's Medical Center | Układ śledzenia ruchu dla adaptacyjnego obrazowania w czasie rzeczywistym i spektroskopii |
JP5124351B2 (ja) * | 2008-06-04 | 2013-01-23 | 三洋電機株式会社 | 車両操作システム |
JP5558730B2 (ja) * | 2009-03-24 | 2014-07-23 | 株式会社バンダイナムコゲームス | プログラム及びゲーム装置 |
US10188958B2 (en) | 2009-05-28 | 2019-01-29 | Anki, Inc. | Automated detection of surface layout |
US8882560B2 (en) | 2009-05-28 | 2014-11-11 | Anki, Inc. | Integration of a robotic system with one or more mobile computing devices |
US8353737B2 (en) | 2009-05-28 | 2013-01-15 | Anki, Inc. | Distributed system of autonomously controlled toy vehicles |
US9155961B2 (en) | 2009-05-28 | 2015-10-13 | Anki, Inc. | Mobile agents for manipulating, moving, and/or reorienting components |
US20110025542A1 (en) * | 2009-08-03 | 2011-02-03 | Shanker Mo | Integration Interface of a Remote Control Toy and an Electronic Game |
FR2953014B1 (fr) | 2009-11-24 | 2011-12-09 | Parrot | Balise de jalonnement pour l'orientation et la navigation a vue d'un drone |
US20110151955A1 (en) * | 2009-12-23 | 2011-06-23 | Exent Technologies, Ltd. | Multi-player augmented reality combat |
GB2482119B (en) | 2010-07-19 | 2013-01-23 | China Ind Ltd | Racing vehicle game |
KR101299910B1 (ko) * | 2010-08-18 | 2013-08-23 | 주식회사 팬택 | 증강 현실 서비스의 공유 방법 및 그를 위한 사용자 단말기와 원격자 단말기 |
WO2013032933A2 (fr) | 2011-08-26 | 2013-03-07 | Kinecticor, Inc. | Procédés, systèmes et dispositifs pour correction de mouvements intra-balayage |
WO2013033954A1 (fr) | 2011-09-09 | 2013-03-14 | 深圳市大疆创新科技有限公司 | Rotule à équilibrage automatique dynamique et gyroscopique |
US9737808B2 (en) | 2012-06-05 | 2017-08-22 | Sony Corporation | Information processing apparatus, information processing method, program, and toy system |
TWI630505B (zh) * | 2012-08-28 | 2018-07-21 | 仁寶電腦工業股份有限公司 | 互動式擴增實境系統及其可攜式通訊裝置與互動方法 |
US9011250B2 (en) | 2012-10-05 | 2015-04-21 | Qfo Labs, Inc. | Wireless communication system for game play with multiple remote-control flying craft |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9782141B2 (en) | 2013-02-01 | 2017-10-10 | Kineticor, Inc. | Motion tracking system for real time adaptive motion compensation in biomedical imaging |
KR101298030B1 (ko) * | 2013-03-12 | 2013-08-26 | 주식회사 네시삼십삼분 | 슈팅 게임이 기록된 컴퓨터 판독 가능한 기록매체 |
EP2778819A1 (fr) * | 2013-03-12 | 2014-09-17 | Thomson Licensing | Procédé de prise de vue d'une interprétation cinématographique utilisant un véhicule aérien sans pilote |
CN104134070B (zh) * | 2013-05-03 | 2018-05-29 | 仁宝电脑工业股份有限公司 | 交互式对象追踪系统及其交互式对象与追踪方法 |
US8903568B1 (en) | 2013-07-31 | 2014-12-02 | SZ DJI Technology Co., Ltd | Remote control method and terminal |
JP2016541026A (ja) | 2013-10-08 | 2016-12-28 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 安定化と振動低減のための装置および方法 |
EP3157422A4 (fr) | 2014-03-24 | 2018-01-24 | The University of Hawaii | Systèmes, procédés et dispositifs pour supprimer une correction de mouvement prospective à partir de balayages d'imagerie médicale |
WO2016014718A1 (fr) | 2014-07-23 | 2016-01-28 | Kineticor, Inc. | Systèmes, dispositifs et procédés de suivi et de compensation de mouvement de patient pendant une imagerie médicale par balayage |
US9861882B2 (en) | 2014-09-05 | 2018-01-09 | Trigger Global Inc. | Augmented reality gaming systems and methods |
WO2016111809A1 (fr) | 2015-01-05 | 2016-07-14 | Anki, Inc. | Service de traitement analytique adaptatif de données |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
US10258888B2 (en) * | 2015-11-23 | 2019-04-16 | Qfo Labs, Inc. | Method and system for integrated real and virtual game play for multiple remotely-controlled aircraft |
US10716515B2 (en) | 2015-11-23 | 2020-07-21 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US10197998B2 (en) | 2015-12-27 | 2019-02-05 | Spin Master Ltd. | Remotely controlled motile device system |
US10238962B2 (en) * | 2015-12-27 | 2019-03-26 | Spin Master Ltd. | System and method for recharging battery in augmented reality game system |
US9996978B2 (en) | 2016-02-08 | 2018-06-12 | Disney Enterprises, Inc. | System and method of simulating first-person control of remote-controlled vehicles |
US9922465B2 (en) | 2016-05-17 | 2018-03-20 | Disney Enterprises, Inc. | Systems and methods for changing a perceived speed of motion associated with a user |
WO2018112695A1 (fr) * | 2016-12-19 | 2018-06-28 | 深圳市阳日电子有限公司 | Procédé d'affichage d'image et terminal mobile |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030232649A1 (en) * | 2002-06-18 | 2003-12-18 | Gizis Alexander C.M. | Gaming system and method |
US20040092208A1 (en) * | 2002-11-01 | 2004-05-13 | Weiss Stephen N. | Remotely controlled toy vehicles with light(s) |
US20050186884A1 (en) * | 2004-02-19 | 2005-08-25 | Evans Janet E. | Remote control game system with selective component disablement |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63277081A (ja) * | 1987-05-08 | 1988-11-15 | 株式会社 アスキ− | ゲ−ム装置 |
JP3424959B2 (ja) * | 1993-06-16 | 2003-07-07 | 株式会社ナムコ | ゲーム装置及びゲームを行うための装置の制御方法 |
JPH11309269A (ja) * | 1998-04-27 | 1999-11-09 | Sony Corp | ゲーム装置、シミュレーション装置及びゲーム画像表示方法 |
US6752720B1 (en) * | 2000-06-15 | 2004-06-22 | Intel Corporation | Mobile remote control video gaming system |
JP3686919B2 (ja) * | 2000-12-06 | 2005-08-24 | 株式会社ニコン技術工房 | ゲーム装置、ゲーム処理方法及び可読記憶媒体 |
JP4507884B2 (ja) * | 2005-01-11 | 2010-07-21 | トヨタ自動車株式会社 | 遠隔制御システム及び遠隔制御装置を備える車両 |
US7317406B2 (en) * | 2005-02-03 | 2008-01-08 | Toyota Technical Center Usa, Inc. | Infrastructure-based collision warning using artificial intelligence |
US20080217472A1 (en) * | 2005-10-03 | 2008-09-11 | Rocket Racing, Inc. | Rocket-powered vehicle racing reality system |
US7211980B1 (en) * | 2006-07-05 | 2007-05-01 | Battelle Energy Alliance, Llc | Robotic follow system and method |
US8682502B2 (en) * | 2007-03-28 | 2014-03-25 | Irobot Corporation | Remote vehicle control system and method |
-
2007
- 2007-02-13 FR FR0700998A patent/FR2912318B1/fr not_active Expired - Fee Related
-
2008
- 2008-02-13 US US12/526,933 patent/US20100178966A1/en not_active Abandoned
- 2008-02-13 EP EP08761879A patent/EP2125127A2/fr not_active Withdrawn
- 2008-02-13 JP JP2009549841A patent/JP2010518354A/ja active Pending
- 2008-02-13 WO PCT/FR2008/000180 patent/WO2008116982A2/fr active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030232649A1 (en) * | 2002-06-18 | 2003-12-18 | Gizis Alexander C.M. | Gaming system and method |
US20040092208A1 (en) * | 2002-11-01 | 2004-05-13 | Weiss Stephen N. | Remotely controlled toy vehicles with light(s) |
US20050186884A1 (en) * | 2004-02-19 | 2005-08-25 | Evans Janet E. | Remote control game system with selective component disablement |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010063916A1 (fr) * | 2008-12-04 | 2010-06-10 | Parrot | Jeu de drones munis de balises de reconnaissance |
FR2939325A1 (fr) * | 2008-12-04 | 2010-06-11 | Parrot | Systeme de drones munis de balises de reconnaissance |
CN102238986B (zh) * | 2008-12-04 | 2014-04-09 | 鹦鹉股份有限公司 | 配有识别信标的无人驾驶飞机套件 |
US8818083B2 (en) | 2008-12-04 | 2014-08-26 | Parrot | System of drones provided with recognition beacons |
CN101905087B (zh) * | 2009-06-05 | 2012-07-11 | 牟善钶 | 遥控玩具与电子游戏机的整合接口 |
FR2957266A1 (fr) * | 2010-03-11 | 2011-09-16 | Parrot | Procede et appareil de telecommande d'un drone, notamment d'un drone a voilure tournante. |
US8958928B2 (en) | 2010-03-11 | 2015-02-17 | Parrot | Method and an appliance for remotely controlling a drone, in particular a rotary wing drone |
Also Published As
Publication number | Publication date |
---|---|
FR2912318B1 (fr) | 2016-12-30 |
JP2010518354A (ja) | 2010-05-27 |
WO2008116982A3 (fr) | 2008-12-24 |
WO2008116982A2 (fr) | 2008-10-02 |
EP2125127A2 (fr) | 2009-12-02 |
US20100178966A1 (en) | 2010-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2912318A1 (fr) | Reconnaissance d'objets dans un jeu de tir pour jouets telecommandes | |
EP0961913B1 (fr) | Simulateur de tir de missiles avec immersion du tireur dans un espace virtuel | |
US8210943B1 (en) | Target interface | |
Singer | Wired for war: The robotics revolution and conflict in the 21st century | |
US9884254B2 (en) | Augmented reality gaming systems and methods | |
FR2908323A1 (fr) | Procede de definition d'un referentiel commun pour un systeme de jeux video | |
FR2908324A1 (fr) | Procede d'ajustement d'affichage pour un systeme de jeux video | |
US20160067608A1 (en) | Augmented reality gaming systems and methods | |
EP2099541A1 (fr) | Procede de definition de zone de jeux pour un systeme de jeux video | |
EP3304522B1 (fr) | Système de création d'un environnement | |
CN110876849B (zh) | 虚拟载具的控制方法、装置、设备及存储介质 | |
US9836984B2 (en) | Storytelling environment: story and playgroup creation | |
CN111408133A (zh) | 互动道具显示方法、装置、终端及存储介质 | |
CN110507990B (zh) | 基于虚拟飞行器的互动方法、装置、终端及存储介质 | |
CN111659116A (zh) | 虚拟载具的控制方法、装置、设备及介质 | |
JP2019097978A (ja) | ゲームシステム及びプログラム | |
CN114432701A (zh) | 基于虚拟场景的射线显示方法、装置、设备以及存储介质 | |
CN112121433A (zh) | 虚拟道具的处理方法、装置、设备及计算机可读存储介质 | |
CN112891930B (zh) | 虚拟场景中的信息展示方法、装置、设备及存储介质 | |
EP2643830A2 (fr) | Procede de simulation de tirs au-dela de la vue directe et simulateur de tirs apte a mettre en oeuvre le procede | |
Martell | Framing Ludens: Pawn Swapping and Game Mode Alteration in an Unreal Engine Game Level | |
WO2020144418A1 (fr) | Titre de l'invention : fusil permettant une simulation précise d'une séquence de tir avec calcul du point d'impact du ou des projectiles | |
Conger | Prototype development of low-cost, augmented reality trainer for crew service weapons | |
FR2554619A1 (fr) | Systeme simulateur pour la formation d'une personne operatrice devant apprendre a manoeuvrer un dispositif dans ou par rapport a un environnement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 10 |
|
TP | Transmission of property |
Owner name: PARROT DRONES, FR Effective date: 20161010 |
|
PLFP | Fee payment |
Year of fee payment: 11 |
|
PLFP | Fee payment |
Year of fee payment: 12 |
|
PLFP | Fee payment |
Year of fee payment: 13 |
|
ST | Notification of lapse |
Effective date: 20201006 |