FR2908323A1 - METHOD OF DEFINING A COMMON REFERENTIAL FOR A VIDEO GAMING SYSTEM - Google Patents

METHOD OF DEFINING A COMMON REFERENTIAL FOR A VIDEO GAMING SYSTEM Download PDF

Info

Publication number
FR2908323A1
FR2908323A1 FR0609775A FR0609775A FR2908323A1 FR 2908323 A1 FR2908323 A1 FR 2908323A1 FR 0609775 A FR0609775 A FR 0609775A FR 0609775 A FR0609775 A FR 0609775A FR 2908323 A1 FR2908323 A1 FR 2908323A1
Authority
FR
France
Prior art keywords
vehicle
vehicles
video
game
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0609775A
Other languages
French (fr)
Other versions
FR2908323B1 (en
Inventor
Henri Seydoux
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Parrot SA
Original Assignee
Parrot SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Parrot SA filed Critical Parrot SA
Priority to FR0609775A priority Critical patent/FR2908323B1/en
Priority to PCT/FR2007/001749 priority patent/WO2008056050A1/en
Priority to JP2009535764A priority patent/JP2010508930A/en
Priority to US12/446,614 priority patent/US20100062817A1/en
Priority to EP07866423A priority patent/EP2079533A1/en
Publication of FR2908323A1 publication Critical patent/FR2908323A1/en
Application granted granted Critical
Publication of FR2908323B1 publication Critical patent/FR2908323B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/327Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections using wireless networks, e.g. Wi-Fi® or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/404Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network characterized by a local network connection
    • A63F2300/405Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network characterized by a local network connection being a wireless ad hoc network, e.g. Bluetooth, Wi-Fi, Pico net
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5573Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history player location
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6009Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
    • A63F2300/6018Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content where the game content is authored by the player, e.g. level editor or by game device at runtime, e.g. level is created from music data on CD
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Environmental & Geological Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Toys (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)

Abstract

L'invention concerne un procédé de définition d'un référentiel commun pour un système de jeux vidéo. Le système comprend au moins deux véhicules télécommandés (1), un premier véhicule et un second véhicule, comprenant chacun un capteur vidéo (19) et un élément de référence (69) avec des zones reconnaissables (71). Le procédé comprend les étapes suivantes : positionnement du premier véhicule par rapport à l'élément de référence (69) de façon à ce que des zones reconnaissables (71) soient dans le champ de vision du capteur vidéo (19) du premier véhicule ; traitement de l'image délivrée par le capteur vidéo (19) du premier véhicule positionné pour repérer les zones reconnaissables (71) dans l'image ; déduction de la position du premier véhicule par rapport à l'élément de référence (69) grâce au repérage des zones reconnaissables (71); transmission de la position du premier véhicule au deuxième véhicule.The invention relates to a method for defining a common repository for a video game system. The system comprises at least two remotely controlled vehicles (1), a first vehicle and a second vehicle, each comprising a video sensor (19) and a reference element (69) with recognizable areas (71). The method comprises the steps of: positioning the first vehicle relative to the reference element (69) so that recognizable areas (71) are in the field of view of the video sensor (19) of the first vehicle; processing the image delivered by the video sensor (19) of the first vehicle positioned to locate the recognizable areas (71) in the image; deducing the position of the first vehicle relative to the reference element (69) by locating the recognizable areas (71); transmitting the position of the first vehicle to the second vehicle.

Description

1 L'invention concerne un procédé de définition d'un référentiel communThe invention relates to a method for defining a common reference system

pour un système de jeux vidéo. En particulier, l'invention concerne aussi le suivi d'objets dans ce référentiel commun. Le document WO 01/95988 Al décrit un jeu de chasse pour deux véhicu- les télécommandés. Les véhicules sont commandés par deux utilisateurs et l'un des deux véhicules chasse l'autre. Les véhicules télécommandés sont chacun équipés d'une caméra vidéo. Les images délivrées par la caméra vidéo sont communiquées à deux ordinateurs, chacun des deux ordinateurs étant utilisés par l'un des deux joueurs contrôlant l'un des deux véhicules télécommandés. Chaque joueur peut donc voir sur l'écran de son ordinateur l'image délivrée par la caméra vidéo correspondante de son véhicule télécommandé. Dans l'application du jeu de chasse mentionné ci-dessus, l'image vidéo du véhicule chasseur est traitée de telle façon que, si le véhicule chassé en- tre dans le champ de vision de la caméra vidéo du véhicule chasseur, l'ordinateur enlève de façon nurnérique l'image correspondant au véhicule chassé de l'image délivrée par la caméra vidéo du véhicule chasseur. L'image enlevée du véhicule chassé est remplacée par un personnage virtuel du jeu vidéo.  for a video game system. In particular, the invention also relates to the tracking of objects in this common frame of reference. WO 01/95988 A1 discloses a hunting game for two remotely controlled vehicles. The vehicles are controlled by two users and one of the two vehicles chases the other. The remotely operated vehicles are each equipped with a video camera. The images delivered by the video camera are communicated to two computers, each of the two computers being used by one of the two players controlling one of the two remotely controlled vehicles. Each player can see on the screen of his computer the image delivered by the corresponding video camera of his remote control vehicle. In the application of the hunting game mentioned above, the video image of the hunter vehicle is processed in such a way that, if the hunted vehicle enters the field of view of the hunter vehicle's video camera, the computer nurnerically removes the image corresponding to the vehicle driven from the image delivered by the video camera of the hunter vehicle. The removed image of the chased vehicle is replaced by a virtual character of the video game.

Dans ce contexte, le document WO 01/95988 envisage que le véhicule chassé soit équipé d'éléments réfléchissants sur les points essentiels de sa surface extérieure. Ces points réfléchissants servent à faciliter la détection de l'image du véhicule chassé dans l'image vidéo délivrée par la caméra vidéo du véhicule chasseur.  In this context, the document WO 01/95988 envisages that the driven vehicle is equipped with reflective elements on the essential points of its outer surface. These reflective points serve to facilitate the detection of the image of the vehicle driven in the video image delivered by the video camera of the hunter vehicle.

Ce document décrit donc l'utilisation de zones reconnaissables, c'est-à-dire d'éléments réfléchissants présents sur le véhicule chassé. En revanche, un tel système ne permet pas la mise dans un même référentiel de deux véhicules télécommandés lors de l'initialisation d'un jeu vidéo. Le but de la présente invention est donc de proposer un tel procédé de définition d'un référentiel commun. Selon l'invention, ce but est atteint par un procédé de définition d'un référentiel commun pour un système de jeu vidéo, le système comprenant : au moins deux véhicules télécommandés, un premier véhicule et un second véhicule, comprenant chacun un capteur vidéo ; et un élément de référence avec des zones reconnaissables ; 2908323 2 le procédé comprenant les étapes suivantes : positionnement du premier véhicule par rapport à l'élément de référence de façon à ce que des zones reconnaissables soient dans le champ de vision du capteur vidéo du premier véhicule ; 5 traitement de l'image délivrée par le capteur vidéo du premier véhicule positionné pour repérer les zones reconnaissables dans l'image ; déduction de la position du premier véhicule par rapport à l'élément de référence grâce au repérage des zones reconnaissa-10 bles ; transmission de la position du premier véhicule au deuxième véhicule. Le référentiel commun selon l'invention est un référentiel unique partagé par les deux véhicules télécommandés permettant d'initialiser les posi- 15 tions respectives des deux véhicules télécommandés par rapport à un point d'origine unique au début du jeu et de suivre les déplacements des deux véhicules durant le déroulement du jeu. De préférence, le point d'origine du référentiel commun est défini par l'élément de référence comprenant des zones reconnaissables. Dans une 20 application préférée, l'élément de référence est un objet réel distinct et indépendant des deux véhicules, notamment un pont ou un pylône, servant à définir un point de départ pour un jeu de course entre les deux véhicules. De façon alternative, l'élément de référence peut aussi être intégré au 25 deuxième véhicule sous forme d'un agencement d'éléments optiques. Dans ce dernier cas, l'élément de référence peut être un agencement de phares ou d'éléments réfléchissants tels qu'on les trouve à l'avant et à l'arrière de voitures automobiles. De préférence, les zones reconnaissables de l'élément de référence corn-30 prennent des éléments optiques, notamment des LED clignotant à une fréquence connue ou des mires réfléchissantes. Les deux véhicules télécommandés sont de préférence des jouets sous forme de véhicules terrestres, notamment des voitures de course ou des chars, ou des véhicules aériens, notamment des quadricoptères. 35 Selon les étapes du procédé de l'invention, en premier, on place le pre- 2908323 3 mier véhicule dans les alentours de l'élément de référence. L'emplacement du premier véhicule doit être choisi de telle façon que les zones reconnaissables de l'élément de référence entrent dans le champ de vision du capteur vidéo du véhicule. Si le premier véhicule est placé de telle fa- 5 çon que l'image délivrée par son capteur vidéo ne reproduit pas la partie de l'élément de référence contenant des zones reconnaissables, le traitement d'image effectué après ne pourra détecter des zones reconnais-sables dans l'image délivrée par le capteur vidéo. Dans ce cas, le premier véhicule devra être replacé pour permettre le repérage des zones recon- 10 naissables dans l'image. Une fois que les zones reconnaissables ont été repérées dans l'image, on en déduit la position du premier véhicule par rapport à l'élément de référence. Cette position peut être exprimée sous forme de coordonnées à deux ou trois dimensions et définissant la position du premier véhicule par 15 rapport à l'élément de référence qui sert comme point d'origine dans le référentiel commun. Finalement, la position du premier véhicule qui a été déduite est transmise au deuxième véhicule. De préférence, les étapes du traitement de l'image ainsi que de la déduc-20 tion de la position du premier véhicule sont effectuées par un calculateur embarqué sur le premier véhicule. De façon préférée, le système de jeu vidéo peut en outre comprendre au moins deux entités électroniques, notamment deux consoles portables servant chacune à télécommander l'un des deux véhicules. Dans ce cas 25 là, les images vidéo délivrées par les capteurs vidéo des véhicules télécommandés peuvent être affichées sur des écrans des entités électroniques et les étapes de traitement d'images et des déductions de position peuvent être effectuées par des calculateurs présents dans les entités électroniques. 30 De préférence, la déduction de la position du premier véhicule par rapport à l'élément de référence s'effectue par triangulation. De plus, la communication entre les véhicules télécommandés et, le cas échéant entre les entités électroniques et les véhicules télécommandés, telle que la transmission de la position du premier véhicule au deuxième 35 véhicule, peut s'effectuer par transmission radio à courte distance, no- 2908323 4 tamment par protocole Bluetooth ou WiFi (marques déposées). Le procédé selon l'invention possède l'avantage majeur de permettre la mise en place d'un système de coordonnées unique pour un système de 5 jeux vidéo incluant plusieurs véhicules télécommandés. Ainsi, lors de l'initialisation d'un jeu vidéo, tel qu'un jeu de course ou un jeu de tir qui est censé impliquer les deux véhicules télécommandés, le système est en mesure de connaître les positions exactes des véhicules parties au jeu, ce qui est un pré requis pour un affichage et un suivi fiable de la position des 10 véhicule durant le jeu vidéo. Un tel procédé est particulièrement avantageux pour un système de jeux vidéo où les véhicules télécommandés évoluent sur un terrain réel quelconque qui n'est pas particulièrement aménagé pour des jeux vidéo, tel qu'un parc ou un jardin, et où le jeu a lieu dans une zone de jeux virtuels s'appuyant sur le terrain réel. 15 Lorsque les différents jouets sont mis dans un même référentiel unique, un ou plusieurs objets virtuels peuvent être ajoutés dans l'espace du jeu. Par exemple, il peut s'agir de plots virtuels délimitant un circuit automobile pour voitures, ou d'anneaux virtuels visualisant un circuit pour des quadricoptères volants. Les objets virtuels ajoutés peuvent se déplacer dans le 20 référentiel. Ils peuvent être par exemple des voitures virtuelles se déplaçant sur un circuit ou des avions ennemis se déplaçant autour de quadricoptères. Les objets sont alors visualisés par incrustation dans un espace en 3 dimensions de la console de jeux utilisée pour commander le jouet. Durant la période du jeu, les différents véhicules, par exemple des voitu- 25 res ou des quadricoptères, de préférence estiment leur déplacement et leur position. Ceci se fait grâce à des capteurs embarqués qui peuvent être des accéléromètres, des gyroscopes, des caméras vidéos, des capteurs de pression, des capteurs de tension analogiques sur les moteurs de propulsion et de direction. Les mesures de ces capteurs peuvent être 30 fusionnées et filtrées par des algorithmes d'un microcontrôleur embarqué sur le véhicule télécommandé. Puis, par des moyens radio, chaque jouet peut transmettre sa position à l'ensemble des autres jouets, soit chaque fois qu'il se déplace, soit avec une fréquence donnée, par exemple 25 fois par seconde. De cette manière, durant tout le déroulement du jeu et dans 35 le référentiel commun établi à la séquence initiale du jeu, les coordonnées 2908323 5 des engins qui se déplacent sont tenues à jour. Grâce à l'ajout d'objets virtuels dans l'espace en 3 dimensions du jeu vidéo et la mise à jour en temps réel des positions des jouets, une interaction complète peut être mise en scène par le concepteur du jeu vidéo. Les 5 différents jouets vidéo peuvent participer à un même jeu. Des joueurs peuvent les piloter. Les scénarios de jeu peuvent être une course de voiture sur un circuit virtuel, un jeu de tir l'un contre l'autre ou l'un avec l'autre contre des ennemis virtuels, ou bien un vol en formation lorsque on pilote un avion ou un quadricoptère. 10 0 On va maintenant décrire des exemples de mise en oeuvre des procédés de l'invention, ainsi que des dispositifs et systèmes représentant 15 des formes de réalisation de l'invention, en référence aux dessins annexés où les mêmes références numériques désignent d'une figure à l'autre des éléments identiques ou fonctionnellement semblables. La figure 1 illustre une vue d'ensemble du système de jeu vidéo selon l'invention 20 Les figures 2a et 2b montrent deux exemples de véhicules télécommandés selon l'invention ; Les figures 3a et 3b sont des schémas synoptiques des éléments électroniques d'un véhicule télécommandé selon l'invention ; Les figures 4a à 4c montrent plusieurs exemples d'images aériennes 25 utilisées dans le système de jeu vidéo selon l'invention ; La figure 5 illustre un principe de définition de zones de jeu selon l'invention Les figures 6a et 6b montrent la vue en deux dimensions selon l'invention 30 Les figures 7a à 7c montrent la vue en perspective selon l'invention ; La figure 8 est un exemple du point de vue délivré par la caméra vidéo embarquée sur le véhicule télécommandé selon l'invention ; La figure 9 est un exemple d'affichage sur la console portable selon l'invention ; 35 La figure 10 illustre le positionnement virtuel d'un circuit de course sur 2908323 6 une image aérienne selon l'invention ; La figure 11 illustre le procédé d'ajustement d'affichage selon l'invention ; Les figures 12a à 12 c illustrent un procédé de définition d'un 5 référentiel commun selon l'invention ; et Les figures 13a à 13 c illustrent une version alternative d'un jeu de course selon l'invention. 10 0 La figure 1 donne une vue d'ensemble d'un système selon l'invention. Le système comprend un système de jeu vidéo constitué d'un 15 véhicule télécommandé 1 (dénommé par l'acronyme BU, c'est-à-dire Blue Tooth Toy , ou bien \NIT, c'est-à-dire WiFi Toy ) ainsi que d'une console portable 3 qui communique avec le véhicule 1 par une liaison Bluetooth 5. Le véhicule 1 peut être télécommandé par la console portable 3 à travers la liaison Bluetooth 5. 20 Le véhicule 1 est en relation avec plusieurs satellites 7 à travers un capteur GPS embarqué sur le véhicule 1. La console portable 3 quant à elle peut être équipée d'une connexion d'accès à Internet sans fil à haut débit, telle qu'une connexion WiFi 9. Cette connexion permet à la console 3 d'accéder au réseau Internet 11. 25 De façon alternative, si la console portable n'est pas équipée elle-même d'une connexion à Internet, on peut envisager une connexion indirecte à Internet 13 à travers un ordinateur 15. Une base de données 17 contenant des images aériennes terrestres est accessible à travers l'Internet 11. 30 Les figures 2a et 2b montrent à titre d'exemple deux réalisations différentes du véhicule télécommandé 1. Sur la figure 2a, le jouet télécommandé 1 est une voiture de course. Cette voiture de course 1 dispose d'une caméra vidéo 19 intégrée dans son toit. L'image délivrée par la caméra vidéo 19 est communiquée à la console portable 3 par la 35 liaison Bluetooth 5 pour être affichée sur l'écran de la console portable 3. 2908323 7 La figure 2b montre que le jouet télécommandé 1 peut aussi être constitué d'un quadricoptère à 4 hélices 21. De même façon que pour la voiture de course, le quadricoptère 1 dispose d'une caméra vidéo 19 sous forme de dôme se trouvant au centre de celui-ci. 5 Bien entendu, le véhicule télécommandé 1 peut aussi se présenter sous la forme d'un autre engin, par exemple sous la forme d'un bateau, d'une moto ou d'un char. En résumé, le véhicule télécommandé 1 est essentiellement un véhicule piloté qui transmet la vidéo, auquel on ajoute des capteurs. 10 Les figures 3a et 3b montrent de façon schématique les principaux composants électroniques du véhicule télécommandé 1. La figure 3a détaille les composants électroniques de base. Un calculateur 23 est connecté à différents éléments périphériques tels que la caméra vidéo 19, des moteurs 25 servant à déplacer le véhicule 15 télécommandé, et diverses mémoires 27 et 29. La mémoire 29 est une carte SD, c'est-à-dire une carte mémoire amovible de stockage de données numériques. Cette carte 29 peut être supprimée mais de préférence elle est gardée car sa fonction est d'enregistrer l'image vidéo délivrée par la caméra 19 pour ainsi permettre le repassage de 20 séquences vidéo enregistrées. La figure 3b montre les fonctions additionnelles embarquées sur le véhicule télécommandé 1. Le véhicule 1 comprend essentiellement deux fonctions additionnelles : une centrale inertielle 31, comprenant trois accéléromètres 33 et trois gyroscopes 35, et un capteur GPS 37. 25 Les fonctions additionnelles sont connectées au calculateur 23 par exemple par liaison série. On peut aussi ajouter une connexion USB (Universal Serial Bus) au véhicule 1 pour pouvoir mettre à jour les logiciels exécutés dans le système électronique du véhicule 1. La centrale inertielle 31 est un élément important du véhicule 1. Elle 30 permet d'estimer en temps réel et précisément les coordonnées du véhicule. Elle estime en tout neuf coordonnées pour le véhicule : les positions X, Y, Z du véhicule dans l'espace ; les angles d'orientation a, 3, y du véhicule (angles d'Euler) ; ainsi que les vitesses VX, VY, VZ sur chacun des trois axes cartésiens X, Y et Z. 35 Ces coordonnées de déplacement proviennent des trois 2908323 8 accéléromètres 33 ainsi que des trois gyroscopes 35. Ces coordonnées peuvent être obtenues après un filtre de Kalman en sortie des mesures des capteurs. Plus précisément, un microcontrôleur effectue la mesure et retransmet par liaison série ou bus série (Serial Peripheral Interconnect, 5 SPI) au calculateur 23. Le calculateur 23 effectue principalement un filtrage de Kalman et renvoie par la connexion Bluetooth 5 la position ainsi déterminée du véhicule 1 à la console de jeu 3. Le calcul du filtrage peut être optimisé : le calculateur 23 connaît les consignes qui sont envoyées au moteur de propulsion et de direction 25. Il peut utiliser ces informations 10 pour établir la prédiction du filtre de Kalman. La position instantanée du véhicule 1 déterminée à l'aide de la centrale inertielle 31 est renvoyée à une fréquence de 25 Hz à la console de jeu 3, c'est-à-dire que la console de jeu reçoit une position par image. Si le calculateur 23 est trop chargé en calcul, les mesures brutes 15 issues de la centrale inertielle 31 peuvent être envoyées à la console de jeu qui effectuera elle-même le filtre de Kalman à la place du calculateur 23. Cette solution n'est pas souhaitable pour la simplicité et la cohérence du système car il vaut mieux que la totalité des calculs du jeu vidéo soit faite sur la console 3 et que la totalité de l'acquisition des données soit 20 faite par le véhicule 1, mais elle est néanmoins envisageable. Les capteurs de la centrale inertielle 31 peuvent être réalisés sous forme de capteurs piézoélectriques. Ces capteurs ont une forte variation à la température, ce qui signifie qu'on doit les maintenir à une température constante avec une sonde de température et un rhéostat ou qu'on doit, en 25 utilisant une sonde de température, mesurer la température au niveau de ces capteurs piézoélectriques et compenser par logiciel la variation des capteurs à la température. Le capteur GPS 37 n'est pas une fonction essentielle du véhicule télécommandé 1. Cependant, il permet une grande richesse de fonctions 30 à un prix modeste. II suffit un GPS d'entrée de gamme qui fonctionne principalement en extérieur et qui n'a pas un besoin de suivi en temps réel du trajet puisque le suivi en temps réel du trajet est assuré par la centrale inertielle 29. II est aussi envisageable d'utiliser un GPS sous forme de logiciel. 35 La console de jeu 3 est une console portable quelconque disponible 2908323 9 sur le marché. Des exemples connus actuellement de consoles portables sont la Playstation portable (PSP) de Sony ou la Nintendo DS de Nintendo. Elle peut être pourvue d'une clé (dongle) Bluetooth 4 (cf. fig. 1) pour communiquer par radio avec le véhicule 1. 5 La base de données 17 (figure 1) contient une bibliothèque d'images aériennes de préférence du monde entier. Il peut s'agir de photos obtenues à partir de satellites ou d'avions ou d'hélicoptères. Les figures 4a à 4c montrent divers exemples d'images aériennes pouvant être obtenues de la base de données 17. La base de données 17 est 10 accessible par Internet afin que la console 3 puisse y accéder. Les images aériennes téléchargées de la base de données 17 sont utilisées par la console de jeu 3 pour créer des points de vue synthétiques qui sont intégrés dans des jeux vidéo s'exécutant sur la console 3. On va maintenant décrire le procédé selon lequel la console 3 15 acquiert les images aériennes de la base de données 17. Pour cela, l'utilisateur de la console 3 place son véhicule télécommandé 1 à un endroit réel, tel que dans un parc ou un jardin, où il veut jouer. Grâce au capteur GPS 37, le véhicule 1 détermine ses coordonnées terrestres. Celles-ci sont alors transmises par la liaison Bluetooth ou WiFi 5 à la 20 console 3. La console 3 se connecte alors par la connexion WiFi 9 à travers Internet à la base de données 17. S'il n'y a pas de connexion WiFi sur le lieu du jeu, la console 3 mémorise la position terrestre déterminée. Ensuite, le joueur se déplace vers un ordinateur 15 ayant accès à Internet. Le joueur branche la console 3 sur l'ordinateur et la connexion 25 entre la console 3 et la base de données 17 s'effectue alors de façon indirecte à travers l'ordinateur 15. La connexion entre la console 3 et la base de données 17 étant établie, les coordonnées terrestres mémorisées par la console 3 sont utilisées pour effectuer une recherche d'images aériennes ou de cartes dans la base de données 17 qui correspondent 30 aux coordonnées terrestres. Une fois qu'une image reproduisant la zone terrestre dans laquelle se trouve le véhicule 1 a été trouvée dans la base de données 17, la console 3 télécharge l'image aérienne trouvée. La figure 5 donne un exemple de définition géométrique d'un fond de jeu en deux dimensions utilisé pour un jeu vidéo impliquant la console 3 et 35 le véhicule 1. 2908323 10 Les carrés et rectangles montrés à la figure 5 représentent des images aériennes téléchargées de la base de données 17. Le carré d'ensemble A est divisé en 9 rectangles intermédiaires. De ces 9 rectangles intermédiaires le rectangle central est lui-même sous divisé en 5 16 carrés. De ces 16 carrés, 4 carrés au centre représentent la zone de jeu B proprement dite. Cette zone de jeu B peut être chargée avec la définition maximum des images aériennes et les alentours immédiats de la zone de jeu B, c'est-à-dire les 12 carrés restants des 16 carrés, peuvent être chargés avec une définition moindre des images aériennes et les 10 marges du jeu représentées par les 8 rectangles non sous divisés, à la périphérie du rectangle central sous divisé, peuvent être chargées avec des images aériennes de la base de données avec une définition encore moindre. En jouant sur la définition des différentes images proches ou éloignées du centre du jeu, la quantité de données à stocker et à traiter 15 sur la console est optimisée et l'effet visuel de leur mise en perspective n'en est pas affecté. Les images les plus lointaines du centre du jeu sont affichées avec une définition correspondant à leur éloignement. Les images aériennes téléchargées sont utilisées par la console 3 pour créer des points de vue différents qui pourront être utilisés dans des 20 jeux vidéo correspondants. Plus précisément, on envisage que la console 3 est capable de créer au moins deux points de vue différents à partir des images aériennes téléchargées, à savoir un point de vue à la verticale en deux dimensions (cf. les figures 6a et 6b) ainsi qu'un point de vue en perspective en trois dimensions (cf. les figures 7a à 7c). 25 La figure 6a montre une image aérienne telle que téléchargée par la console 3. Le véhicule télécommandé 1 se trouve quelque part sur le terrain visualisé par l'image aérienne de la figure 6a. Cette image aérienne est utilisée pour créer une image de synthèse telle que montrée schématiquement à la figure 6b. Le rectangle 39 représente l'image 30 aérienne de la figure 6a. Sur ce rectangle 39 sont incrustés trois objets graphiques 41 et 43. Ces objets graphiques représentent respectivement la position du véhicule télécommandé sur la zone de jeu représentée par le rectangle 39 (cf. la tache 43 qui correspond à la position du véhicule télécommandé) et la position d'autres objets réels ou virtuels (cf. les croix 35 41, pouvant par exemple représenter la position de concurrents réels ou 2908323 11 d'ennemis virtuels d'un jeu vidéo). II est envisageable que le logiciel du véhicule 1 veille à ce que celui-ci ne sorte pas de la zone de jeu définie par le rectangle 39. Les figures 7a et 7c montrent le point de vue en perspective qui peut 5 être réalisé par la console 3 à partir des images aériennes téléchargées. Cette image en perspective comprend un "sol" 45 dans lequel est inséré l'image aérienne téléchargée. Les côtés 47 quant à eux sont des images virtuelles de perspective à l'infini dont un exemple est montré à la figure 7b. Celles-ci sont générées par le moteur graphique trois dimensions en 10 temps réel de la console de jeu 3. Comme pour le point de vue en deux dimensions, des objets graphiques 41 et 43 indiquent aux joueurs la position de son propre véhicule (43) ainsi que la position de co joueurs ou d'ennemis potentiels (41). 15 Pour la création des points de vue, il est aussi envisageable de télécharger le maillage d'élévation de la base de données 17. La figure 8 montre le troisième point de vue 49 qui est envisagé dans le système de jeu vidéo, à savoir le point de vue délivré par la caméra vidéo 19 embarquée sur le véhicule télécommandé 1. La figure 8 montre 20 un exemple d'un tel point de vue. Sur cette image réelle vidéo, on incruste différents objets graphiques virtuels en fonction du jeu vidéo utilisé par le joueur. La figure 9 montre la console de jeu 3 avec un affichage qui résume de quelle façon les points de vue discutés antérieurement sont présentés 25 au joueur. On distingue bien le point de vue 49 correspondant à l'image vidéo délivrée par la caméra vidéo 19. Le point de vue 49 comprend des incrustations virtuelles 51 qui dans le cas de la figure 9 sont des plots virtuels délimitant le parcours d'un circuit virtuel. Dans le point de vue 49, on peut aussi voir le capot réel 53 du véhicule téléguidé 1. 30 Le deuxième point de vue 55 correspond au point de vue vertical en deux dimensions montré aux figures 6a et 6b. Le point de vue 55 est constitué de la reproduction d'une image aérienne du terrain de jeu, sur laquelle est incrusté un circuit de course virtuel 57 avec un point 59 se déplaçant sur le circuit virtuel 57. Ce point 59 indique la position actuelle 35 de l'engin téléguidé 1. En fonction du jeu vidéo, le point de vue en deux 2908323 12 dimensions 55 peut être remplacé par une vue en perspective telle que décrite antérieurement. Finalement, l'affichage tel que montré à la figure 9 comprend une troisième zone 61 qui montre ici la jauge d'essence virtuelle du véhicule 1. 5 On va maintenant décrire un exemple de jeu vidéo pour le système de jeu vidéo montré à la figure 1. L'exemple est une course de voitures effectuée sur un terrain réel à l'aide du véhicule télécommandé 1 et de la console de jeu 3, la particularité de ce jeu étant que le circuit de course n'est pas réellement démarqué sur le terrain réel mais est uniquement 10 positionné de façon virtuelle sur le terrain réel de jeu dans lequel évolue le véhicule 1. Pour initialiser le jeu vidéo de course, l'utilisateur procède à l'acquisition de l'image aérienne correspondant à son terrain de jeu de la façon qui a déjà été décrite antérieurement. Une fois que la console de 15 jeu 3 a téléchargé l'image aérienne 39 reproduisant une vue verticale du terrain de jeu sur lequel se trouve la voiture 1, le logiciel dessine un circuit de course virtuel 57 sur l'image aérienne 39 téléchargée tel que cela est montré à la figure 10. Le circuit 57 est généré de telle façon que sa ligne de départ virtuelle soit positionnée sur l'image aérienne 39 à proximité de 20 la position géographique du véhicule 1. Cette position géographique du véhicule 1 correspond aux coordonnées délivrées par le module GPS, à laquelle on ajoute des valeurs physiques connues des dimensions du véhicule 1. Avec les touches 58 de la console 3, le joueur peut faire pivoter le circuit 57 autour de la ligne de départ, soumettre le circuit 57 à 25 une homothétie en conservant la ligne de départ comme point invariant de l'homothétie (L'homothétie est réalisée dans des proportions définies correspondant à la manoeuvrabilité de la voiture), ou faire glisser le circuit autour de la ligne de départ. On peut aussi prévoir de faire glisser la ligne de départ sur le circuit, le 30 véhicule devant dans ce cas là rejoindre la ligne de départ pour 'commencer la partie. Tout cela peut par exemple être utile si le jardin de la maison où le joueur désire exécuter le jeu vidéo n'est pas assez grand pour le circuit dessiné initialement par le logiciel. Le joueur peut ainsi changer la position 35 du circuit virtuel jusqu'à ce que celui-ci soit bien positionné sur le terrain 2908323 13 de jeu réel. Dans le cadre d'un jouet vidéo volant qui est une des applications préférées, par exemple un quadricoptère, une centrale inertielle de l'engin volant est utilisée pour le stabiliser. Une consigne de vol est transmise par 5 la console de jeux à l'engin volant, parexemple vol stationnaire virage à droite ou atterrissage . Le logiciel du microcontrôleur embarqué sur l'engin volant utilise les gouvernes de celui-ci : modification de vitesse des hélices ou contrôle de gouvernes aérodynamiques pour faire coïncider les mesures de la centrale inertielle avec la consigne de 10 vol. De même, dans le cas du jouet vidéo de type véhicule automobile, des consignes sont retransmises par la console au microcontrôleur du véhicule, par exemple tourner à droite ou freiner ou vitesse 1 mètre/seconde . 15 Le jouet vidéo peut disposer de capteurs principaux, par exemple un GPS et/ou une centrale inertielle composée d'accéléromètres ou de gyroscopes. Il peut aussi disposer de capteurs additionnels comme une camera vidéo, un moyen de compter les tours des roues d'une voiture, un capteur de pression de l'air pour estimer la vitesse pour un hélicoptère ou 20 un avion, un capteur de pression d'eau pour déterminer la profondeur pour un sous marin, ou des convertisseurs analogique vers numérique pour mesurer la consommation de courant à divers points de l'électronique embarquée, comme par exemple la consommation de chaque moteur électrique pour la propulsion ou la direction. 25 Ces mesures peuvent être utilisées pour estimer la position du jouet vidéo sur le circuit durant toute la séquence du jeu. La mesure principalement utilisée est celle de la centrale inertielle qui comprend des accéléromètres et/ou gyroscopes. La mesure de celle-ci peut être confortée en utilisant un filtre, par exemple un filtre de Kalman, 30 qui permet de réduire le bruit et de fusionner les mesures des autres capteurs, caméras, capteurs de pression, mesure de consommation électrique des moteurs, etc.. Par exemple, la position estimée du véhicule 1 peut être recalée périodiquement en utilisant l'image vidéo délivrée par la caméra 19 et en 35 estimant le mouvement à partir de points fixes significatifs du décor dans 2908323 14 l'image qui sont de préférence des points de fort contraste de l'image vidéo. La distance aux points fixes peut être estimée en minimisant des matrices selon des techniques de triangulation connues. La position peut aussi être recalée sur une plus grande distance 5 (environ 50 mètres) en utilisant le GPS, en particulier des modules GPS récents utilisant des mesures de phases du signal des satellites. La vitesse du jouet vidéo peut être estimée en comptant les tours de roue en utilisant par exemple une roue codée. Si le jouet vidéo est propulsé par un moteur électrique, sa vitesse peut 10 aussi être estimée en mesurant la consommation dudit moteur. Ceci requiert la connaissance du rendement du moteur à différents régimes, qui peut être mesuré préalablement sur un banc d'essai. Un autre moyen d'estimer la vitesse est d'utiliser la caméra vidéo 19. Dans le cas d'une voiture ou d'un engin volant, la caméra vidéo 19 est fixe 15 ou bien sa position est connue par rapport au corps de l'engin et sa longueur focale est aussi connue. Le microcontrôleur du jouet vidéo effectue un codage vidéo de type MPEG4, par exemple en utilisant le codage H263 ou H264. Ce codage implique le calcul de prédiction de mouvement de sous-ensemble de l'image entre deux images vidéo. Par 20 exemple, ce sous-ensemble peut être un carré de 16*16 pixels. La prédiction de mouvement est de préférence effectuée par un accélérateur matériel. L'ensemble des mouvements des sous-ensembles de l'image fourni une excellente mesure de vitesse de l'engin. Lorsque l'engin est fixe, la somme des mouvements des sous-ensembles de l'image est 25 proche de zéro. Lorsque l'engin avance en ligne droite, les sous-ensembles d'image s'éloignent du point de fuite avec une vitesse proportionnelle à la vitesse de l'engin. Dans le contexte du jeu vidéo de course de voitures, l'écran est divisé en plusieurs éléments tel que cela est montré à la figure 9. L'élément de 30 gauche 49 visualise l'image délivrée par la caméra vidéo 19 de la voiture 1. L'élément de droite 55 permet de voir la carte du circuit et les voitures concurrentes (cf. le point de vue en haut à droite de la figure 9). Des indicateurs peuvent visualiser la vitesse réelle (à l'échelle de la voiture). Des paramètres du jeu peuvent être ajoutés, comme la vitesse 35 ou la consommation d'essence de la voiture, qui peuvent être simulés 2908323 15 (comme pour une course d'un grand prix de formule 1). Dans le cadre de ce jeu vidéo, la console peut aussi mémoriser des courses. Si on ne dispose que d'une voiture, on peut courir contre soi-même. Dans ce cas là, sur l'écran, on peut envisager d'afficher l'image en 5 trois dimensions en transparence de la position de la voiture lors d'un tour mémorisé. La figure 11 détaille la façon dont les incrustations virtuelles 51, c'est-à-dire les plots du circuit de course, sont adaptées dans l'affichage 49 correspondant au point de vue de la caméra vidéo embarquée sur le 10 véhicule 1. La figure 11 montre de côté la topographie 63 du terrain réel sur lequel se déplace le véhicule 1 en exécutant le jeu vidéo de course. On constate que le sol du terrain de jeu n'est pas plat mais présente des descentes et des montées. La pente du terrain varie, ce qui est représenté par les flèches 65. 15 Par conséquent, l'incrustation des limites du circuit 51 sur l'image vidéo ne peut pas être statique mais doit s'adapter en fonction de la pente du terrain de jeu. Pour prendre en compte ce problème, la centrale inertielle 31 du véhicule 1 dispose d'un capteur de l'assiette du véhicule. La centrale inertielle effectue une acquisition en temps réel de l'assiette 20 instantanée du véhicule 1. A partir des valeurs instantanées de l'assiette, l'électronique du véhicule 1 estime deux valeurs, à savoir la pente du terrain (c'est-à-dire la moyenne à long terme de l'assiette) et la rugosité du circuit (c'est-à-dire la moyenne à court terme de l'assiette). Le logiciel utilise la valeur de la pente pour compenser l'affichage, c'est-à-dire pour 25 déplacer les plots incrustés 51 sur l'image vidéo tel que cela est indiqué par la flèche 67 à la figure 11. II est aussi prévu que le logiciel d'ajustement de l'affichage des plots 51 fasse de l'apprentissage. Après que le véhicule 1 ait effectué un premier tour sur le circuit virtuel 57, les valeurs de pente et de rugosité 30 sont connues pour tout le circuit, mémorisées et utilisées dans la composante prédiction d'un filtre de Kalman qui réestime la pente et la rugosité au prochain tour. L'incrustation des plots virtuels 51 sur l'image vidéo peut aussi être améliorée en affichant uniquement des plots discontinus et en affichant un 35 nombre faible de plots, par exemple uniquement 4 plots de chaque côté 2908323 16 de la route. De plus, les plots distants peuvent être d'une couleur différente et uniquement servir comme indications et non comme définitions réelles du contour de la piste. De plus, les plots distants peuvent aussi être plus espacés que les plots proches. 5 En fonction de l'application envisagée, il peut s'avérer nécessaire d'estimer en plus le mouvement de roulis de la voiture pour ajuster la position des plots 51, c'est-à-dire l'inclinaison éventuelle de la voiture par rapport à son axe longitudinal. L'estimation de la rugosité du circuit sert de préférence à extraire la 10 mesure de la pente dans les données issues des capteurs. Afin de définir précisément la géométrie du sol sur laquelle le circuit est posé, une phase d'apprentissage peut être conduite par le jeu vidéo. Cette phase d'apprentissage s'effectue avantageusement avant le jeu proprement dit, à vitesse lente et constante commandée par la console de 15 jeux. II est demandé au joueur de réaliser un premier tour de circuit pendant lequel la mesure des capteurs est mémorisée. A la fin du tour de piste, la valeur de l'élévation en de nombreux points du circuit est extraite des données mémorisées. Ces valeurs d'élévation sont ensuite utilisées durant le jeu pour positionner correctement les plots virtuels 51 sur l'image 20 vidéo. Les figures 12a à 12c détaillent un procédé de définition d'un référentiel commun lorsque le jeu de course est effectué par deux ou plus véhicules télécommandés 1. Dans ce cas de figure, on est en présence de deux joueurs disposant chacun d'un véhicule télécommandé 1 et d'une 25 console portable 3. Ces deux joueurs désirent effectuer l'un contre l'autre avec leurs deux véhicules 1 une course de voiture sur un circuit virtuel 57. L'initialisation d'un tel jeu à deux peut par exemple s'effectuer en sélectionnant le mode "deux voitures" sur sa console. Ceci a pour effet que le protocole Bluetooth ou WiFi de chaque voiture 1 entre en mode 30 "recherche de partenaire". Lorsque la voiture partenaire est trouvée, chaque voiture 1 annonce à sa console 3 que le partenaire a été trouvé. Une des consoles 1 effectue alors la sélection des paramètres du jeu : choix du circuit tel que décrit antérieurement, le nombre de tours de course, etc. Puis le compte à rebours est lancé sur les deux consoles : les 35 deux voitures communiquent entre elles grâce au protocole Bluetooth ou 2908323 17 WiFi. Dans un but de simplification des échanges entres les différents périphériques chaque voiture 1 communique avec sa console 3 mais non avec celles des autres voitures. Les voitures 1 s'envoient alors leurs coordonnées en temps réel et chaque voiture 1 envoie ses propres 5 coordonnées et les coordonnées du ou des concurrents à sa console 3 pilote. Sur la console, l'affichage du circuit 55 montre les positions des voitures 1. Dans un tel jeu à voitures, le protocole Bluetooth se trouve dans un mode Scatternet . L'une des voitures est alors Maître et la console 10 qui lui est appareillée est Esclave , de même que l'autre voiture qui elle aussi est Esclave . De plus, les voitures s'échangent entre elles leur position. Un tel jeu de course avec deux ou plusieurs véhicules télécommandés 1 nécessite lors de l'initialisation du jeu que les voitures 1 soient mises 15 dans le même référentiel commun. Les figures 12a à 12c détaillent le procédé de définition d'un référentiel commun correspondant. Tel que le montre la figure 12a, les voitures télécommandées 1 avec leur caméra vidéo 19 sont positionnées en face d'un pont 69 placé sur le terrain de jeu réel. Ce pont réel 69 représente la ligne de départ et est 20 équipé de quatre LED 71. Chaque joueur pose sa voiture 1 de manière à ce qu'au moins deux LED 71 soient visibles sur l'écran de sa console 3. Les LED 71 ont des couleurs connues et peuvent clignoter à une fréquence connue. De cette façon, les LED 71 peuvent être repérés facilement dans les images vidéo délivrées respectivement par les deux 25 caméras vidéo 19. Un calculateur présent sur chacun des véhicules 1 ou chacune des consoles 3 effectue du traitement d'image et estime par triangulation la position respective de sa voiture 1 par rapport au pont 69. Une fois qu'une voiture 1 a estimé sa position par rapport au pont 69, elle transmet sa position à l'autre voiture 1. Les deux voitures 1 ayant 30 estimé chacune leur position par rapport au pont 69, on en déduit la position des voitures 1 entre elles et la course peut commencer. La figure 12b est une vue de devant du pont 69 montrant les quatre LED 71. La figure 12c donne une représentation de l'affichage d'une console 3 lors de la procédure de détermination de la position d'un 35 véhicule 1 par rapport au pont 69. Sur la figure 12c, on voit clairement que 2908323 18 le calculateur effectuant le traitement d'image a réussi à détecter les deux LED clignotantes 71, ce qui est indiqué sur la figure 12c par deux réticules 73. Une telle définition d'un référentiel commun par rapport au sol et entre 5 les véhicules est particulièrement utile pour un jeu de course (chaque véhicule doit se référencer au circuit de course). Pour d'autre jeux vidéo, tel qu'un jeu de tir, la définition d'un référentiel commun est plus simple : pour chaque véhicule il suffit de connaître sa position par rapport aux concurrents. 10 Les figures 13a à 13c sont des clichés correspondant à une version alternative du jeu vidéo de course, le jeu de course n'impliquant cette fois non une ou plusieurs voitures 1 mais plutôt un ou plusieurs quadricoptères 1 tel que montré à la figure 2b. Dans ce cas là, où le véhicule télécommandé 1 est un quadricoptère, la centrale inertielle est 15 non seulement utilisée pour transmettre les coordonnées en trois dimensions du jouet à la console 3, mais aussi pour fournir au processeur embarqué sur le quadricoptère 1 les informations nécessaires pour le programme qui stabilise le quadricoptère 1. Avec un quadricoptère, la course n'est plus sur une piste comme dans 20 le cas d'une voiture mais en trois dimensions. Dans ce cas, le circuit de course n'est plus représenté par des plots virtuels incrustés tels que montré à la figure 9, mais par exemple par des cercles virtuels 75 incrustés dans l'image vidéo (cf. fig. 13b) délivrée par la caméra vidéo 19 qui flottent dans l'espace. Le joueur doit diriger son quadricoptère 1 à 25 travers les cercles virtuels 75. Comme pour la voiture, trois vues sont possibles : l'image vidéo livrée par la caméra vidéo 19 avec des incrustations virtuelles, la vue à la verticale reposant sur une image aérienne téléchargée et la vue en perspective se basant également sur une image satellite ou aérienne 30 téléchargée. La figure 13b donne un aperçu d'une image vidéo à cercles virtuels incrustés 75 tel qu'elle pourra se présenter lors d'un jeu impliquant un quadricoptère. Le positionnement du circuit sur l'image aérienne téléchargée est 35 effectué de la même façon que pour la course de voiture. Le circuit est 2908323 19 positionné à la main par le joueur de façon à le positionner correctement en fonction des obstacles et des bâtiments. De la même façon, l'utilisateur peut homothétier le circuit, le faire tourner autour du point de départ et faire glisser le point de départ sur la piste. L'étape de positionnement du 5 circuit 57 est visualisée à la figure 13a. De la même façon que pour la course de voitures, on prévoit pour une course impliquant plusieurs  This document therefore describes the use of recognizable areas, that is to say reflective elements present on the driven vehicle.  However, such a system does not allow the placing in the same repository of two remotely controlled vehicles during the initialization of a video game.  The object of the present invention is therefore to provide such a method for defining a common reference frame.  According to the invention, this object is achieved by a method of defining a common frame of reference for a video game system, the system comprising: at least two remotely controlled vehicles, a first vehicle and a second vehicle, each comprising a video sensor; and a reference element with recognizable areas; The method comprising the steps of: positioning the first vehicle relative to the reference element so that recognizable areas are within the field of view of the video sensor of the first vehicle; Processing the image delivered by the video sensor of the first vehicle positioned to locate recognizable areas in the image; deduction of the position of the first vehicle relative to the reference element thanks to the identification of the recognizable areas; transmitting the position of the first vehicle to the second vehicle.  The common reference system according to the invention is a single repository shared by the two remotely controlled vehicles making it possible to initialize the respective positions of the two remotely controlled vehicles with respect to a single point of origin at the beginning of the game and to track the movements of the two vehicles during the course of the game.  Preferably, the origin point of the common reference frame is defined by the reference element comprising recognizable areas.  In a preferred application, the reference element is a separate and independent real object of the two vehicles, including a bridge or pylon, serving to define a starting point for a running game between the two vehicles.  Alternatively, the reference element may also be integrated with the second vehicle in the form of an arrangement of optical elements.  In the latter case, the reference element may be an arrangement of headlights or reflective elements such as found at the front and rear of motor vehicles.  Preferably, the recognizable areas of the corn-30 reference element take optical elements, including flashing LEDs at a known frequency or reflective patterns.  The two remotely controlled vehicles are preferably toys in the form of land vehicles, including race cars or tanks, or air vehicles, including quadcopters.  According to the steps of the method of the invention, first, the first vehicle is placed in the vicinity of the reference element.  The location of the first vehicle shall be chosen in such a way that the recognizable areas of the reference element are within the field of vision of the vehicle's video sensor.  If the first vehicle is placed in such a way that the image delivered by its video sensor does not reproduce the part of the reference element containing recognizable areas, the subsequent image processing will not be able to detect recognizable areas. -sables in the image delivered by the video sensor.  In this case, the first vehicle will have to be relocated to allow identification of the recognizable areas in the image.  Once the recognizable areas have been identified in the image, the position of the first vehicle relative to the reference element is deduced therefrom.  This position may be expressed as two- or three-dimensional coordinates and defining the position of the first vehicle with respect to the reference element which serves as the point of origin in the common repository.  Finally, the position of the first vehicle that has been deducted is transmitted to the second vehicle.  Preferably, the steps of the image processing as well as the deduction of the position of the first vehicle are performed by a computer on board the first vehicle.  Preferably, the video game system may further comprise at least two electronic entities, including two portable consoles each used to remotely control one of the two vehicles.  In this case, the video images delivered by the video sensors of the remotely controlled vehicles can be displayed on screens of the electronic entities and the image processing steps and position deductions can be performed by computers present in the electronic entities. .  Preferably, the deduction of the position of the first vehicle relative to the reference element is done by triangulation.  In addition, the communication between the remotely controlled vehicles and, where appropriate, between the electronic entities and the remotely controlled vehicles, such as the transmission of the position of the first vehicle to the second vehicle, can be carried out by short-distance radio transmission, no. - 2908323 4 by Bluetooth protocol or WiFi (registered trademarks).  The method according to the invention has the major advantage of allowing the implementation of a single coordinate system for a video game system including several remote controlled vehicles.  Thus, during the initialization of a video game, such as a racing game or a shooter that is supposed to involve the two remotely controlled vehicles, the system is able to know the exact positions of the vehicles parties to the game, This is a prerequisite for reliable display and tracking of vehicle position during the video game.  Such a method is particularly advantageous for a video game system in which the remote-controlled vehicles operate on any real terrain that is not particularly adapted for video games, such as a park or a garden, and where the game takes place in a virtual game zone based on real terrain.  When the different toys are put in the same single repository, one or more virtual objects can be added in the game space.  For example, they may be virtual pads delimiting a car racing circuit, or virtual rings visualizing a circuit for flying quadcopters.  The added virtual objects can move in the repository.  They can be for example virtual cars moving on a circuit or enemy planes moving around quadcopters.  The objects are then displayed by inlay in a 3-dimensional space of the game console used to control the toy.  During the game period, the different vehicles, for example cars or quadrocopters, preferably estimate their displacement and their position.  This is done through on-board sensors that can be accelerometers, gyroscopes, video cameras, pressure sensors, analog voltage sensors on the propulsion and steering engines.  The measurements of these sensors can be merged and filtered by algorithms of a microcontroller embedded on the remotely controlled vehicle.  Then, by radio means, each toy can transmit its position to all other toys, either whenever it moves, or with a given frequency, for example 25 times per second.  In this way, throughout the course of the game and in the common repository established at the initial game sequence, the coordinates of moving gears are kept up to date.  Thanks to the addition of virtual objects in the 3-dimensional space of the video game and the real-time updating of the positions of the toys, a complete interaction can be staged by the designer of the video game.  The 5 different video toys can participate in the same game.  Players can control them.  The game scenarios can be a car race on a virtual circuit, a shooting game against each other or with each other against virtual enemies, or a formation flight when flying a plane or a quadricopter.  Exemplary embodiments of the methods of the invention, as well as devices and systems embodying embodiments of the invention will now be described with reference to the accompanying drawings in which like reference numerals refer to a preferred embodiment of the invention. figure to the other identical or functionally similar elements.  FIG. 1 illustrates an overview of the video game system according to the invention. FIGS. 2a and 2b show two examples of remote-controlled vehicles according to the invention; FIGS. 3a and 3b are schematic diagrams of the electronic elements of a remotely controlled vehicle according to the invention; Figures 4a to 4c show several examples of aerial images used in the video game system according to the invention; FIG. 5 illustrates a principle of defining playing zones according to the invention. FIGS. 6a and 6b show the two-dimensional view according to the invention. FIGS. 7a to 7c show the perspective view according to the invention; FIG. 8 is an example of the point of view delivered by the video camera on board the remote-controlled vehicle according to the invention; Figure 9 is an example of display on the portable console according to the invention; FIG. 10 illustrates the virtual positioning of a racing circuit on an aerial image according to the invention; Fig. 11 illustrates the display adjustment method according to the invention; Figures 12a to 12c illustrate a method of defining a common reference system according to the invention; and Figures 13a to 13c illustrate an alternative version of a racing game according to the invention.  Figure 1 gives an overview of a system according to the invention.  The system includes a video game system consisting of a remotely operated vehicle 1 (referred to by the acronym BU, that is, Blue Tooth Toy, or \ NIT, ie WiFi Toy). as well as a portable console 3 which communicates with the vehicle 1 via a Bluetooth link 5.  The vehicle 1 can be remotely controlled by the portable console 3 through the Bluetooth link 5.  The vehicle 1 is in relation with several satellites 7 through a GPS sensor on the vehicle 1.  The portable console 3 can be equipped with a high-speed wireless Internet access connection, such as a WiFi connection 9.  This connection allows the console 3 to access the Internet 11.  Alternatively, if the portable console itself is not equipped with an Internet connection, an indirect connection to the Internet 13 can be envisaged through a computer 15.  A database 17 containing terrestrial aerial images is accessible through the Internet 11.  Figures 2a and 2b show by way of example two different embodiments of the remotely controlled vehicle 1.  In Figure 2a, the remote control toy 1 is a race car.  This race car 1 has a video camera 19 integrated in its roof.  The image delivered by the video camera 19 is communicated to the portable console 3 by the Bluetooth link 5 to be displayed on the screen of the portable console 3.  Figure 2b shows that the remote-controlled toy 1 may also consist of a quadricopter with 4 propellers 21.  In the same way as for the race car, quadcopter 1 has a domed video camera 19 in the center of it.  Of course, the remotely operated vehicle 1 can also be in the form of another craft, for example in the form of a boat, a motorcycle or a tank.  In short, the remotely operated vehicle 1 is essentially a piloted vehicle that transmits the video, to which sensors are added.  Figures 3a and 3b schematically show the main electronic components of the remotely operated vehicle 1.  Figure 3a details the basic electronic components.  A computer 23 is connected to various peripheral elements such as the video camera 19, motors 25 for moving the remote controlled vehicle, and various memories 27 and 29.  The memory 29 is an SD card, that is to say a removable digital data storage memory card.  This card 29 can be deleted but preferably it is kept because its function is to record the video image delivered by the camera 19 to thereby allow the ironing of 20 recorded video sequences.  Figure 3b shows the additional functions on the remotely operated vehicle 1.  The vehicle 1 essentially comprises two additional functions: an inertial unit 31, comprising three accelerometers 33 and three gyroscopes 35, and a GPS sensor 37.  The additional functions are connected to the computer 23, for example by serial link.  It is also possible to add a Universal Serial Bus (USB) connection to the vehicle 1 in order to be able to update the software running in the vehicle's electronic system 1.  The inertial unit 31 is an important element of the vehicle 1.  It makes it possible to estimate in real time and precisely the coordinates of the vehicle.  It estimates in all nine coordinates for the vehicle: the positions X, Y, Z of the vehicle in the space; the orientation angles a, 3, y of the vehicle (Euler angles); as well as the speeds VX, VY, VZ on each of the three Cartesian axes X, Y and Z.  These displacement coordinates come from three accelerometers 33 as well as three gyroscopes 35.  These coordinates can be obtained after a Kalman filter at the output of the sensor measurements.  More specifically, a microcontroller performs the measurement and retransmits by serial link or serial bus (Serial Peripheral Interconnect, 5 SPI) to the computer 23.  The computer 23 mainly performs Kalman filtering and returns via the Bluetooth connection 5 the determined position of the vehicle 1 to the game console 3.  The calculation of the filtering can be optimized: the computer 23 knows the instructions which are sent to the propulsion and steering engine 25.  It can use this information to establish the prediction of the Kalman filter.  The instantaneous position of the vehicle 1 determined using the inertial unit 31 is returned at a frequency of 25 Hz to the game console 3, that is to say that the game console receives a position per image.  If the computer 23 is too loaded in calculation, the raw measurements 15 from the inertial unit 31 can be sent to the game console which will itself perform the Kalman filter in place of the computer 23.  This solution is not desirable for the simplicity and the coherence of the system since it is better that all the calculations of the video game are made on the console 3 and that all the acquisition of the data is made by the vehicle 1 but it is nevertheless conceivable.  The sensors of the inertial unit 31 can be made in the form of piezoelectric sensors.  These sensors have a large variation in temperature, which means that they must be kept at a constant temperature with a temperature probe and a rheostat or that, using a temperature probe, the temperature must be measured at the same temperature. of these piezoelectric sensors and compensate by software the variation of the sensors at the temperature.  The GPS sensor 37 is not an essential function of the remotely operated vehicle 1.  However, it allows a great wealth of functions at a modest price.  All that is needed is an entry-level GPS, which operates mainly outdoors and which does not have a need for real-time tracking of the journey since the real-time monitoring of the journey is provided by the inertial unit 29.  It is also possible to use a GPS in the form of software.  The game console 3 is any portable console available 2908323 9 on the market.  Examples currently known of portable consoles are the Sony Playstation Portable (PSP) or the Nintendo DS Nintendo.  It can be provided with a Bluetooth 4 (dongle) key (cf.  Fig.  1) to communicate by radio with the vehicle 1.  Database 17 (Figure 1) contains an aerial image library preferably from around the world.  These may be photographs obtained from satellites or planes or helicopters.  Figures 4a to 4c show various examples of aerial images obtainable from the database 17.  The database 17 is accessible over the Internet so that the console 3 can access it.  The aerial images downloaded from the database 17 are used by the game console 3 to create synthetic viewpoints that are integrated into video games running on the console 3.  The method according to which the console 3 acquires the aerial images of the database 17 will now be described.  For this, the user of the console 3 places his remote-controlled vehicle 1 in a real place, such as in a park or a garden, where he wants to play.  With the GPS sensor 37, the vehicle 1 determines its terrestrial coordinates.  These are then transmitted via the Bluetooth or WiFi link 5 to the console 3.  The console 3 then connects via the WiFi connection 9 via the Internet to the database 17.  If there is no WiFi connection at the place of play, the console 3 stores the determined terrestrial position.  Then, the player moves to a computer 15 having access to the Internet.  The player connects the console 3 to the computer and the connection 25 between the console 3 and the database 17 is then done indirectly through the computer 15.  Since the connection between the console 3 and the database 17 is established, the terrestrial coordinates stored by the console 3 are used to search aerial images or maps in the database 17 which correspond to the terrestrial coordinates.  Once an image reproducing the land area in which the vehicle 1 is found in the database 17, the console 3 downloads the aerial image found.  FIG. 5 gives an example of a geometric definition of a two-dimensional game background used for a video game involving the console 3 and the vehicle 1.  The squares and rectangles shown in FIG. 5 represent aerial images downloaded from the database 17.  The set square A is divided into 9 intermediate rectangles.  Of these 9 intermediate rectangles the central rectangle itself is subdivided into 5 16 squares.  Of these 16 squares, 4 squares in the center represent the game zone B itself.  This game zone B can be loaded with the maximum definition of the aerial images and the immediate surroundings of the game zone B, that is to say the remaining 12 squares of the 16 squares, can be loaded with a lesser definition of the images. and the 10 margins of the game represented by the 8 undivided rectangles at the periphery of the sub-divided central rectangle can be loaded with aerial images of the database with still less definition.  By playing on the definition of the different images near or far from the center of the game, the amount of data to be stored and processed on the console is optimized and the visual effect of their placing in perspective is not affected.  The farthest images of the center of the game are displayed with a definition corresponding to their distance.  The downloaded aerial images are used by the console 3 to create different viewpoints that can be used in corresponding video games.  More precisely, it is envisaged that the console 3 is capable of creating at least two different points of view from the downloaded aerial images, namely a two-dimensional vertical point of view (cf.  Figures 6a and 6b) and a three-dimensional perspective viewpoint (cf.  Figures 7a to 7c).  Figure 6a shows an aerial image as downloaded by the console 3.  The remotely operated vehicle 1 is located somewhere on the ground visualized by the aerial image of Figure 6a.  This aerial image is used to create an image of synthesis as shown schematically in Figure 6b.  Rectangle 39 represents the aerial image of Figure 6a.  On this rectangle 39 are inlaid three graphical objects 41 and 43.  These graphic objects respectively represent the position of the remotely operated vehicle on the game area represented by the rectangle 39 (cf.  spot 43 which corresponds to the position of the remotely controlled vehicle) and the position of other real or virtual objects (cf.  the crosses 41 41, for example may represent the position of real competitors or virtual enemies of a video game).  It is conceivable that the software of the vehicle 1 ensures that it does not leave the game area defined by the rectangle 39.  Figures 7a and 7c show the perspective viewpoint that can be achieved by the console 3 from the downloaded aerial images.  This perspective image comprises a "ground" 45 in which is inserted the downloaded aerial image.  The sides 47 are virtual images of infinite perspective, an example of which is shown in FIG. 7b.  These are generated by the real-time 3-dimensional graphics engine of the game console 3.  As with the two-dimensional viewpoint, graphical objects 41 and 43 indicate to the players the position of their own vehicle (43) as well as the position of co players or potential enemies (41).  For the creation of the points of view, it is also possible to download the elevation mesh of the database 17.  FIG. 8 shows the third point of view 49 that is envisaged in the video game system, namely the point of view delivered by the video camera 19 on board the remotely operated vehicle 1.  Figure 8 shows an example of such a point of view.  On this real video image, we incrust different virtual graphic objects according to the video game used by the player.  Figure 9 shows the game console 3 with a display that summarizes how previously discussed points of view are presented to the player.  There is clearly the point of view 49 corresponding to the video image delivered by the video camera 19.  The viewpoint 49 includes virtual inlays 51 which in the case of FIG. 9 are virtual pads delimiting the path of a virtual circuit.  In point of view 49, one can also see the actual hood 53 of the remotely operated vehicle 1.  The second viewpoint 55 corresponds to the two-dimensional vertical viewpoint shown in FIGS. 6a and 6b.  The point of view 55 consists of the reproduction of an aerial image of the playing field, on which is embedded a virtual race circuit 57 with a point 59 moving on the virtual circuit 57.  This point 59 indicates the current position 35 of the unmanned vehicle 1.  Depending on the video game, the two-dimensional viewpoint 55 may be replaced by a perspective view as previously described.  Finally, the display as shown in FIG. 9 comprises a third zone 61 which here shows the virtual gas gauge of the vehicle 1.  An example of a video game for the video game system shown in FIG. 1 will now be described.  The example is a car race carried out on real terrain using the remotely operated vehicle 1 and the game console 3, the particularity of this game being that the race circuit is not really demarcated on the real ground but is only positioned virtually on the real playing field in which the vehicle 1 is moving.  To initialize the racing video game, the user proceeds to the acquisition of the aerial image corresponding to his playing field in the manner that has already been described previously.  Once the game console 3 has downloaded the aerial image 39 reproducing a vertical view of the playing field on which the car 1 is, the software draws a virtual race circuit 57 on the downloaded aerial image 39 as this is shown in Figure 10.  The circuit 57 is generated in such a way that its virtual starting line is positioned on the aerial image 39 close to the geographical position of the vehicle 1.  This geographical position of the vehicle 1 corresponds to the coordinates delivered by the GPS module, to which are added known physical values of the dimensions of the vehicle 1.  With the keys 58 of the console 3, the player can rotate the circuit 57 around the starting line, submit the circuit 57 to 25 a homothety keeping the starting line as the invariant point of the homothety (The homothety is achieved in defined proportions corresponding to the maneuverability of the car), or drag the circuit around the starting line.  It is also possible to slide the starting line on the circuit, the vehicle in front of this case to join the starting line to start the game.  All this can for example be useful if the garden of the house where the player wishes to perform the video game is not large enough for the circuit initially designed by the software.  The player can thus change the position 35 of the virtual circuit until it is well positioned on the real playing field.  In the context of a flying video toy which is one of the preferred applications, for example a quadrocopter, an inertial unit of the flying machine is used to stabilize it.  A flight instruction is transmitted by the game console to the flying machine, for example hovering right turn or landing.  The microcontroller software on board the flying machine uses its control surfaces: speed modification of the propellers or control of aerodynamic control surfaces to make the measurements of the inertial unit coincide with the 10 vol setpoint.  Similarly, in the case of the motor vehicle video toy, instructions are retransmitted by the console to the vehicle microcontroller, for example turn right or brake or speed 1 meter / second.  The video toy may have main sensors, for example a GPS and / or an inertial unit composed of accelerometers or gyroscopes.  It may also have additional sensors such as a video camera, a means of counting the turns of the wheels of a car, an air pressure sensor for estimating the speed for a helicopter or an airplane, a pressure sensor of a car. water to determine the depth for a submarine, or analog-to-digital converters for measuring power consumption at various points of the on-board electronics, such as the consumption of each electric motor for propulsion or steering.  These measurements can be used to estimate the position of the video toy on the circuit during the entire game sequence.  The measurement mainly used is that of the inertial unit which includes accelerometers and / or gyroscopes.  The measurement thereof can be enhanced by using a filter, for example a Kalman filter, which makes it possible to reduce the noise and to merge the measurements of the other sensors, cameras, pressure sensors, measurement of the electrical consumption of the motors, etc. .  For example, the estimated position of the vehicle 1 may be periodically recalibrated using the video image provided by the camera 19 and estimating the motion from significant fixed points of the scenery in the image which are preferably points. high contrast of the video image.  The distance to the fixed points can be estimated by minimizing matrices according to known triangulation techniques.  The position can also be recalibrated over a greater distance (about 50 meters) using GPS, particularly recent GPS modules using satellite signal phase measurements.  The speed of the video toy can be estimated by counting the wheel turns using for example a coded wheel.  If the video toy is powered by an electric motor, its speed can also be estimated by measuring the consumption of said motor.  This requires knowledge of the performance of the engine at different speeds, which can be measured beforehand on a test bench.  Another way to estimate the speed is to use the video camera 19.  In the case of a car or a flying machine, the video camera 19 is fixed or its position is known relative to the body of the machine and its focal length is also known.  The microcontroller of the video toy performs video coding of the MPEG4 type, for example using the H263 or H264 encoding.  This coding involves the computation of motion prediction of subset of the image between two video images.  For example, this subset may be a square of 16 * 16 pixels.  The motion prediction is preferably performed by a hardware accelerator.  The overall movements of the subsets of the image provided an excellent measure of speed of the craft.  When the machine is stationary, the sum of the movements of the subsets of the image is close to zero.  When the machine advances in a straight line, the image subsets move away from the vanishing point with a speed proportional to the speed of the machine.  In the context of the car racing video game, the screen is divided into several elements as shown in Figure 9.  The left-hand element 49 displays the image delivered by the video camera 19 of the car 1.  The right-hand element 55 makes it possible to see the circuit map and the competing cars (cf.  the point of view at the top right of Figure 9).  Indicators can visualize the actual speed (at the scale of the car).  Game parameters can be added, such as speed 35 or fuel consumption of the car, which can be simulated 2908323 15 (as for a race of a grand prix of formula 1).  As part of this video game, the console can also memorize races.  If you only have one car, you can run against yourself.  In this case, on the screen, it is possible to envisage displaying the three-dimensional image in transparency of the position of the car during a stored tour.  FIG. 11 details the manner in which the virtual inlays 51, that is to say the pads of the racing circuit, are adapted in the display 49 corresponding to the point of view of the video camera on board the vehicle 1.  Figure 11 shows the topography 63 of the actual terrain on which the vehicle 1 moves by running the racing video game.  It is noted that the ground of the playground is not flat but has descents and climbs.  The slope of the terrain varies, which is represented by the arrows 65.  Therefore, overlaying the boundaries of the circuit 51 on the video image can not be static but must adapt according to the slope of the playing field.  To take account of this problem, the inertial unit 31 of the vehicle 1 has a sensor of the attitude of the vehicle.  The inertial unit makes a real-time acquisition of the instantaneous attitude of the vehicle 1.  From the instantaneous values of the attitude, the electronics of the vehicle 1 estimate two values, namely the slope of the ground (that is to say the long-term average of the attitude) and the roughness of the circuit ( that is, the short-term average of the plate).  The software uses the slope value to compensate the display, i.e. to move the inlaid pads 51 onto the video image as indicated by the arrow 67 in FIG.  It is also expected that the display of the pads display software 51 is learning.  After the vehicle 1 has made a first turn on the virtual circuit 57, the slope and roughness values are known throughout the circuit, stored and used in the prediction component of a Kalman filter which re-estimates the slope and roughness in the next round.  The embedding of the virtual pads 51 on the video image can also be improved by displaying only discontinuous pads and displaying a small number of pads, for example only 4 pads on each side of the road.  In addition, the remote pads may be of a different color and only serve as indications and not as actual definitions of the contour of the track.  In addition, the remote studs may also be more spaced than the nearby studs.  Depending on the application envisaged, it may be necessary to estimate in addition the roll motion of the car to adjust the position of the pads 51, that is to say the possible inclination of the car by relative to its longitudinal axis.  The estimation of the roughness of the circuit is preferably used to extract the measurement of the slope in the data from the sensors.  In order to precisely define the geometry of the ground on which the circuit is placed, a learning phase can be conducted by the video game.  This learning phase is advantageously performed before the game itself, slow and constant speed controlled by the console 15 games.  The player is asked to perform a first lap of circuit during which the measurement of the sensors is memorized.  At the end of the lap, the value of the elevation at many points of the circuit is extracted from the stored data.  These elevation values are then used during the game to properly position the virtual pads 51 on the video image.  Figures 12a to 12c detail a method of defining a common repository when the racing game is performed by two or more remotely operated vehicles 1.  In this case, we are in the presence of two players each having a remote control vehicle 1 and a portable console 3.  These two players want to perform against each other with their two vehicles 1 a race car on a virtual circuit 57.  The initialization of such a game to two can for example be done by selecting the mode "two cars" on his console.  This causes the Bluetooth or WiFi protocol of each car 1 to enter "partner search" mode.  When the partner car is found, each car 1 announces at its console 3 that the partner has been found.  One of the consoles 1 then makes the selection of the game parameters: choice of the circuit as previously described, the number of laps, etc.  Then the countdown is started on the two consoles: the two cars communicate with each other using the Bluetooth protocol or WiFi.  In order to simplify the exchanges between the different devices each car 1 communicates with its console 3 but not with those of other cars.  The cars 1 then send their coordinates in real time and each car 1 sends its own coordinates and the coordinates of the competitor (s) to its pilot console.  On the console, the display of the circuit 55 shows the positions of the cars 1.  In such a car game, the Bluetooth protocol is in a Scatternet mode.  One of the cars is then Master and the console 10 which is paired to it is Slave, as well as the other car which is also Slave.  In addition, the cars exchange their position with each other.  Such a racing game with two or more remote-controlled vehicles 1 requires, during the initialization of the game, that the cars 1 be placed in the same common repository.  Figures 12a to 12c detail the method of defining a corresponding common reference.  As shown in Figure 12a, the remotely operated cars 1 with their video camera 19 are positioned in front of a bridge 69 placed on the real playground.  This actual bridge 69 represents the start line and is equipped with four LEDs 71.  Each player puts his car 1 so that at least two LEDs 71 are visible on the screen of his console 3.  LEDs 71 have known colors and can flash at a known frequency.  In this way, the LEDs 71 can be easily identified in the video images respectively delivered by the two video cameras 19.  A computer present on each of the vehicles 1 or each of the consoles 3 performs image processing and estimates by triangulation the respective position of its car 1 with respect to the bridge 69.  Once a car 1 has estimated its position with respect to the bridge 69, it transmits its position to the other car 1.  The two cars 1 having 30 each estimated their position relative to the bridge 69, we deduce the position of the cars 1 between them and the race can begin.  Figure 12b is a front view of the bridge 69 showing the four LEDs 71.  FIG. 12c shows a representation of the display of a console 3 during the procedure for determining the position of a vehicle 1 with respect to the bridge 69.  In FIG. 12c, it can clearly be seen that the computer performing the image processing has succeeded in detecting the two flashing LEDs 71, which is indicated in FIG. 12c by two reticles 73.  Such a definition of a common reference system with respect to the ground and between the vehicles is particularly useful for a racing game (each vehicle must refer to the race circuit).  For other video games, such as a shooting game, the definition of a common repository is simpler: for each vehicle it is sufficient to know its position relative to the competitors.  Figures 13a to 13c are snapshots corresponding to an alternative version of the racing video game, the racing game not involving this time not one or more cars 1 but rather one or more quadcopters 1 as shown in Figure 2b.  In this case, where the remotely operated vehicle 1 is a quadricopter, the inertial unit is not only used to transmit the three-dimensional coordinates of the toy to the console 3, but also to provide the processor on board the quadricopter 1 the necessary information for the program that stabilizes quadricopter 1.  With a quadrocopter, the race is no longer on a track as in the case of a car but in three dimensions.  In this case, the race circuit is no longer represented by inlaid virtual pads as shown in FIG. 9, but for example by virtual circles 75 embedded in the video image (cf.  Fig.  13b) delivered by the video camera 19 that float in space.  The player must direct his quadrocopter 1 through 25 virtual circles 75.  As for the car, three views are possible: the video image delivered by the video camera 19 with virtual inlays, the vertical view based on a downloaded aerial image and the perspective view also based on a satellite or aerial image 30 downloaded.  Figure 13b gives an overview of a video image with virtual circles embedded 75 as it may be in a game involving a quadrocopter.  The positioning of the circuit on the downloaded aerial image is performed in the same way as for the car race.  The circuit is 2908323 19 positioned by the player by hand in order to position it correctly according to obstacles and buildings.  In the same way, the user can homothétier the circuit, rotate around the starting point and drag the starting point on the track.  The step of positioning the circuit 57 is shown in FIG. 13a.  In the same way as for the car race, we plan for a race involving several

quadricoptères un élément séparé définissant la ligne de départ, par exemple un pylône 77 pourvu de trois LED clignotantes ou éléments réfléchissants 71. Les quadricoptères ou drones 10 sont alignés dans le même repère grâce à l'image de leur caméra 19 et les points significatifs dans l'image représentés par les trois LED 71 du pylône 77 qui clignotent. Du fait que tous les paramètres géométriques sont connus (position de la caméra, longueur focale, etc.), on positionne l'engin 1 sans ambiguïté dans le référentiel commun. Plus précisément, 15 on positionne l'engin 1 de telle façon qu'il soit posé sur le sol avec le pylône 77 en vue, on vérifie sur l'écran de sa console 3 que l'on voit bien les trois LED 7lclignoter. Les trois LED 77 clignotantes représentent les points significatifs pour la reconnaissance du repère. Le fait qu'elles clignotent à une fréquence connue permet de les identifier plus facilement 20 par le logiciel. Une fois la position par rapport au pylône 77 connue, les quadricoptères 1 s'échangent les informations (chacun passe à l'autre sa position par rapport au pylône 77) et de cette manière chaque quadricoptère 1 déduit la position de son concurrent.  quadricopters a separate element defining the starting line, for example a pylon 77 provided with three flashing LEDs or reflecting elements 71. The quadrocopters or drones 10 are aligned in the same frame thanks to the image of their camera 19 and the significant points in the image represented by the three LEDs 71 of the pylon 77 which are flashing. Since all the geometric parameters are known (camera position, focal length, etc.), the apparatus 1 is positioned unambiguously in the common reference frame. More precisely, the machine 1 is positioned in such a way that it is placed on the ground with the tower 77 in view, it is verified on the screen of its console 3 that the three LEDs are clearly visible. The three flashing LEDs 77 represent the significant points for the recognition of the marker. The fact that they are flashing at a known frequency makes it easier to identify them by the software. Once the position with respect to the known pylon 77, the quadricopters 1 exchange the information (each passes to the other its position relative to the pylon 77) and in this way each quadricopter 1 deduces the position of its competitor.

25 La course peut commencer depuis la position du quadricoptère 1 à laquelle a été effectuée la détection du pylône 77 par traitement d'image. Mais bien sûr la course peut aussi commencer depuis une autre position, la centrale inertielle pouvant mémoriser les déplacement des quadricoptères 1 de leur positon initiale vis-à-vis du pylône 77 avant la 30 course. Un autre jeu envisagé est le jeu de tir entre deux ou plusieurs véhicules. Par exemple, le jeu de tir peut impliquer des chars munis d'une caméra vidéo fixe ou installée sur une tourelle ou bien des quadricoptères ou bien des quadricoptères contre des chars. Dans ce cas, il n'est pas 35 nécessaire de connaître la position de chaque engin par rapport à un 2908323 20 circuit mais plus simplement de connaître la position de chaque engin l'un par rapport à l'autre. Une procédure plus simple peut être mise en oeuvre. Chaque engin dispose de LED clignotantes à une fréquence connue, avec des couleurs connues ou/et une géométrie connue à l'avance. Grâce au 5 protocole de communication chaque engin échange avec les autres des informations sur son type, la position de ses LED, leur fréquence de clignotement, leur couleur, etc.. On place chaque engin de manière qu'au début du jeu les LED de l'autre engin soit dans le champ de vision de son capteur vidéo 19. En effectuant une opération de triangulation on peut 10 déterminer la position de chaque engin l'un par rapport à l'autre. Le jeu peut alors commencer. Chaque engin connaît, grâce à sa centrale inertielle et ses autres moyens de mesure, sa position et son mouvement. Il les transmet aux autres engins. Sur la console vidéo, l'image d'un viseur est incrustée par exemple au 15 centre de l'image vidéo transmise par chaque engin. Le joueur peut donner une consigne de tir de projectiles vers un autre engin. Au moment du tir, connaissant les positions retransmises par les autres engins et sa propre position, orientation et vitesse, le logiciel de l'engin tireur peut estimer si le tir a atteint son but. Le tir peut simuler un 20 projectile qui arrive immédiatement sur sa cible, ou bien simuler le parcours parabolique d'une munition, ou le cheminement d'un missile guidé. La vitesse initiale de l'engin qui effectue le tir, la vitesse du projectile, la simulation de paramètres extérieurs, par exemple des conditions atmosphériques, peuvent être simulées. De cette manière, le tir 25 du jeu vidéo peut être rendu plus ou moins complexe. La trajectoire des munitions missile, balle traçante, etc. peut être affichée en surimposition sur la console. Les engins tels que des véhicules roulants ou volants peuvent aussi estimer la position des autres engins dans le jeu. Cela peut se faire par un 30 algorithme de reconnaissance de formes utilisant l'image de la caméra 19. Sinon les engins peuvent être munis de parties permettant une identification comme par exemple des LED. Ces parties permettent en permanence aux autres engins d `estimer leur position en plus des informations de la centrale inertielle transmises par les moyens radio.The race can begin from the position of the quadrocopter 1 at which the detection of the pylon 77 by image processing has been carried out. But of course the race can also start from another position, the inertial unit can memorize the movements of the quadricopters 1 of their initial position vis-à-vis the pylon 77 before the race. Another game considered is the shooter between two or more vehicles. For example, the shooting game may involve tanks with a video camera stationary or installed on a turret or quadrocopters or quadricopters against tanks. In this case, it is not necessary to know the position of each machine with respect to a circuit but simply to know the position of each machine relative to each other. A simpler procedure can be implemented. Each machine has flashing LEDs at a known frequency, with known colors and / or geometry known in advance. Thanks to the communication protocol each machine exchanges information with others about its type, the position of its LEDs, their flashing frequency, their color, etc. Each gear is placed so that at the beginning of the game the LEDs of the other machine is in the field of view of its video sensor 19. In carrying out a triangulation operation it is possible to determine the position of each machine relative to each other. The game can then begin. Each machine knows, thanks to its inertial unit and its other means of measurement, its position and its movement. He transmits them to the other machines. On the video console, the image of a viewfinder is embedded for example in the center of the video image transmitted by each machine. The player may give a projectile firing instruction to another craft. At the time of the shot, knowing the positions retransmitted by the other machines and its own position, orientation and speed, the shooter's software can estimate if the shot has reached its goal. The firing may simulate a projectile that immediately arrives at its target, or simulate the parabolic course of a munition, or the path of a guided missile. The initial velocity of the machine that fires, the velocity of the projectile, the simulation of external parameters, for example atmospheric conditions, can be simulated. In this way, the shooting of the video game can be made more or less complex. The trajectory of missile ammunition, tracer bullet, etc. can be superimposed on the console. Machines such as rolling or flying vehicles can also estimate the position of the other gears in the game. This can be done by a pattern recognition algorithm using the image of the camera 19. Otherwise the gears can be provided with parts. allowing identification such as LEDs. These parts permanently allow the other machines to estimate their position in addition to the information of the inertial unit transmitted by the radio means.

35 Ceci permet de rendre le jeu plus réaliste. Par exemple lors d'un jeu de 2908323 21 chasse les uns contre les autres, un des joueurs peut se cacher derrière un détail du terrain, par exemple derrière un arbre. Le jeu vidéo, même s'il est informé grâce au moyens radio de la position de l'adversaire, ne pourra pas le repérer sur l'image vidéo et donc il invalidera le tir même si il 5 est dans la bonne direction. Lorsqu'un engin est informé par sa console qu'il a été touché, ou lors d'une autre action de jeu, par exemple la simulation de manque de carburant, d'une panne ou de conditions atmosphériques, une séquence de simulation propre au scénario du jeu vidéo peut s'enclencher. Par 10 exemple, dans le cas d'un quadricoptère, celui-ci peut être pris de secousses, ne plus voler en ligne droite, ou bien se poser d'urgence. Dans le cas d'un char, celui-ci peut simuler des dommages, rouler moins vite ou simuler le fait que sa tourelle est bloquée. La transmission vidéo peut aussi être modifié, par exemple les images peuvent arriver brouillées, 15 assombries, ou des effets comme les vitres de cockpit brisées peuvent être incrustées sur l'image vidéo. Le jeu vidéo selon l'invention peut mêler : Les actions des joueurs : piloter les engins ; Des éléments virtuels : un circuit ou des ennemis 20 visualisés sur la console de jeux ; Des simulations : des instructions envoyées au jouet vidéo pour modifier son comportement, par exemple une panne moteur et la limitation de la vitesse de l'engin ou une plus grande difficulté de pilotage.35 This makes the game more realistic. For example in a game of hunting against each other, one of the players can hide behind a detail of the ground, for example behind a tree. The video game, even if it is informed by radio means of the position of the opponent, can not locate it on the video image and therefore it will invalidate the shot even if it is in the right direction. When a machine is informed by its console that it has been touched, or during another action of game, for example the simulation of lack of fuel, a breakdown or atmospheric conditions, a sequence of simulation specific to video game scenario can snap. For example, in the case of a quadrocopter, it can be jolted, no longer fly in a straight line, or it can be an emergency. In the case of a tank, it can simulate damage, drive slower or simulate the fact that its turret is blocked. The video transmission may also be modified, for example the images may arrive scrambled, darkened, or effects such as broken cockpit windows may be embedded in the video image. The video game according to the invention can mix: The actions of the players: pilot the machines; Virtual elements: a circuit or enemies 20 displayed on the game console; Simulations: instructions sent to the video toy to modify its behavior, for example an engine failure and the limitation of the speed of the vehicle or a greater difficulty of piloting.

25 Ces 3 niveaux d'interaction permettent d'accroître le réalisme entre le jeu vidéo sur la console et un jouet muni de capteurs et d'une caméra vidéo. 30These 3 levels of interaction make it possible to increase the realism between the video game on the console and a toy equipped with sensors and a video camera. 30

Claims (17)

REVENDICATIONS 1. Procédé de définition d'un référentiel commun pour un système de jeux vidéo (1, 3), le système comprenant : û au moins deux véhicules télécommandés (1), un premier véhicule et un second véhicule, comprenant chacun un capteur vidéo (19); et un élément de référence (69) avec des zones reconnaissables (71); caractérisé en ce que le procédé comprend les étapes suivantes : positionnement du premier véhicule par rapport à l'élément de référence (69) de façon à ce que des zones reconnaissables (71) soient dans le champ de vision du capteur vidéo (19) du premier véhicule ; traitement de l'image délivrée par le capteur vidéo (19) du premier véhicule positionné pour repérer les zones reconnaissables (71) dans l'image ; déduction de la position du premier véhicule par rapport à l'élément de référence (69) grâce au repérage des zones recon-20 naissables (71); transmission de la position du premier véhicule au deuxième véhicule.  A method of defining a common repository for a video game system (1, 3), the system comprising: at least two remotely controlled vehicles (1), a first vehicle and a second vehicle, each including a video sensor ( 19); and a reference element (69) with recognizable areas (71); characterized in that the method comprises the steps of: positioning the first vehicle relative to the reference element (69) so that recognizable areas (71) are in the field of view of the video sensor (19) of the first vehicle; processing the image delivered by the video sensor (19) of the first vehicle positioned to locate the recognizable areas (71) in the image; deducting the position of the first vehicle relative to the reference element (69) by locating the recognizable areas (71); transmitting the position of the first vehicle to the second vehicle. 2. Procédé selon la revendication 1, l'élément de référence (69) étant un 25 objet réel distinct et indépendant des deux véhicules, notamment un pont ou un pylône, servant à définir un point de départ pour un jeu de course entre les deux véhicules.  2. Method according to claim 1, the reference element (69) being a distinct and independent real object of the two vehicles, in particular a bridge or pylon, serving to define a starting point for a running game between the two. vehicles. 3. Procédé selon la revendication 1, l'élément de référence (69) étant in-30 tégré au deuxième véhicule sous la forme d'un agencement d'éléments optiques.  3. A method according to claim 1, the reference element (69) being integrated with the second vehicle in the form of an arrangement of optical elements. 4. Procédé selon l'une des revendications précédentes, les zones reconnaissables (71) comprenant des éléments optiques, notamment des LED 35 clignotantes à une fréquence connue ou des mires réfléchissantes. 2908323 23  4. Method according to one of the preceding claims, the recognizable areas (71) comprising optical elements, including flashing LEDs at a known frequency or reflecting patterns. 2908323 23 5. Procédé selon luné des revendications précédentes, la déduction de la position du premier véhicule par rapport à l'élément de référence (69) s'effectuant par triangulation.  5. Method according to one of the preceding claims, the deduction of the position of the first vehicle relative to the reference element (69) being effected by triangulation. 6. Procédé selon l'une des revendications précédentes, le système de jeux vidéo (1, 3) comprenant en outre au moins deux entités électroniques (3), notamment deux consoles portables, servant chacune à télécommander l'un des deux véhicules (1).  6. Method according to one of the preceding claims, the video game system (1, 3) further comprising at least two electronic entities (3), including two portable consoles, each used to remotely control one of the two vehicles (1). ). 7. Procédé selon l'une des revendications précédentes, les deux véhicules télécommandés étant des véhicules terrestres, notamment des voitures de course ou des chars, ou des véhicules aériens, notamment des quadricoptères.  7. Method according to one of the preceding claims, the two remote-controlled vehicles being land vehicles, including race cars or tanks, or air vehicles, including quadricopters. 8. Procédé selon la revendication 6, la communication entre les entités électroniques (3) et les véhicules télécommandés (1), ainsi que la communication entre les véhicules eux-mêmes, s'effectuant par transmission radio à courte distance (5), notamment par protocole Bluetooth ou Wifi.  8. Method according to claim 6, the communication between the electronic entities (3) and the remote-controlled vehicles (1), as well as the communication between the vehicles themselves, carried out by short-distance radio transmission (5), in particular by Bluetooth or Wifi protocol. 9. Procédé selon l'une des revendications précédentes, où les véhicules télécommandés (1) disposent de moyens pour estimer leur déplacement et/ou leur position. 25  9. Method according to one of the preceding claims, wherein the remote-controlled vehicles (1) have means for estimating their displacement and / or their position. 25 10. Procédé selon la revendication 9, où les moyens d'estimation du dé-placement et/ou de position comprennent le capteur vidéo (19).  The method of claim 9, wherein the displacement and / or position estimation means comprise the video sensor (19). 11. Procédé selon la revendication 9 ou 10, où les moyens d'estimation du déplacement et/ou de position comprennent une centrale inertielle 30 composée d'un ou plusieurs accéléromètres et/ou d'un ou plusieurs gyroscopes.  11. The method of claim 9 or 10, wherein the displacement and / or position estimation means comprise an inertial unit composed of one or more accelerometers and / or one or more gyroscopes. 12. Procédé selon la revendication 9, 10 ou 11, où les moyens d'estimation du déplacement et/ou de position comprennent des conver-35 tisseurs électroniques analogique numérique mesurant la consommation 5 10 15 2908323 24 de courant de moteurs électriques des véhicules télécommandés (1) afin d'en estimer leur vitesse.  The method of claim 9, 10 or 11, wherein the displacement and / or position estimating means comprises digital analog electronic converters measuring the power consumption of electric motors of the remotely operated vehicles. (1) to estimate their speed. 13. Procédé selon l'une des revendications 9 à 12, où les moyens 5 d'estimation du déplacement et/ou de position comprennent des capteurs de pression et notamment des tubes de pitot.  13. Method according to one of claims 9 to 12, wherein the means 5 for estimating the displacement and / or position comprises pressure sensors and in particular pitot tubes. 14. Procédé selon l'une des revendications 9 à 13, où les moyens d'estimation du déplacement et/ou de position comprennent un récepteur 10 GPS.  14. Method according to one of claims 9 to 13, wherein the displacement and / or position estimation means comprise a GPS receiver 10. 15. Procédé selon l'une des revendications 9 à 14, où les véhicules télé-commandés (1) disposent d'un calculateur pourvu d'algorithmes de filtrage et de fusion de données, de manière à estimer les grandeurs les plus 15 vraisemblables à partir des données issues de l'ensemble des capteurs.  15. Method according to one of claims 9 to 14, wherein the tele-controlled vehicles (1) have a computer provided with filtering and data fusion algorithms, so as to estimate the most likely quantities to from the data from all the sensors. 16. Procédé selon la revendication 9 en combinaison avec la revendication 8, où la transmission radio s'effectue en temps réel pour transmettre à tous les autres véhicules télécommandés (1) leur estimation de déplacement et/ou de position.  16. The method of claim 9 in combination with claim 8, wherein the radio transmission is carried out in real time to transmit to all other remotely controlled vehicles (1) their displacement estimate and / or position. 17. Procédé selon la revendication 16, où la transmission radio comprend une mise à jour des estimations de déplacement et/ou de position à la même fréquence que le codage des images vidéo, notamment 25 fois par seconde.  17. The method of claim 16, wherein the radio transmission comprises an update of the displacement and / or position estimates at the same frequency as the coding of the video images, in particular 25 times per second.
FR0609775A 2006-11-09 2006-11-09 METHOD OF DEFINING A COMMON REFERENTIAL FOR A VIDEO GAMING SYSTEM Expired - Fee Related FR2908323B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR0609775A FR2908323B1 (en) 2006-11-09 2006-11-09 METHOD OF DEFINING A COMMON REFERENTIAL FOR A VIDEO GAMING SYSTEM
PCT/FR2007/001749 WO2008056050A1 (en) 2006-11-09 2007-10-24 Method for defining a common repository for a video game system
JP2009535764A JP2010508930A (en) 2006-11-09 2007-10-24 Common Reference System Definition Method for Video Game Systems
US12/446,614 US20100062817A1 (en) 2006-11-09 2007-10-24 method of defining a common frame of reference for a video game system
EP07866423A EP2079533A1 (en) 2006-11-09 2007-10-24 Method for defining a common repository for a video game system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0609775A FR2908323B1 (en) 2006-11-09 2006-11-09 METHOD OF DEFINING A COMMON REFERENTIAL FOR A VIDEO GAMING SYSTEM

Publications (2)

Publication Number Publication Date
FR2908323A1 true FR2908323A1 (en) 2008-05-16
FR2908323B1 FR2908323B1 (en) 2009-01-16

Family

ID=37797514

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0609775A Expired - Fee Related FR2908323B1 (en) 2006-11-09 2006-11-09 METHOD OF DEFINING A COMMON REFERENTIAL FOR A VIDEO GAMING SYSTEM

Country Status (5)

Country Link
US (1) US20100062817A1 (en)
EP (1) EP2079533A1 (en)
JP (1) JP2010508930A (en)
FR (1) FR2908323B1 (en)
WO (1) WO2008056050A1 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8698898B2 (en) * 2008-12-11 2014-04-15 Lucasfilm Entertainment Company Ltd. Controlling robotic motion of camera
US9626786B1 (en) 2010-07-19 2017-04-18 Lucasfilm Entertainment Company Ltd. Virtual-scene control device
US9664518B2 (en) 2010-08-27 2017-05-30 Strava, Inc. Method and system for comparing performance statistics with respect to location
US9291713B2 (en) 2011-03-31 2016-03-22 Strava, Inc. Providing real-time segment performance information
US9116922B2 (en) 2011-03-31 2015-08-25 Strava, Inc. Defining and matching segments
US10238977B2 (en) * 2011-05-17 2019-03-26 Activision Publishing, Inc. Collection of marketing information developed during video game play
US8996301B2 (en) 2012-03-12 2015-03-31 Strava, Inc. Segment validation
US9090348B2 (en) * 2012-03-21 2015-07-28 Sikorsky Aircraft Corporation Portable control system for rotary-wing aircraft load management
US10105616B2 (en) 2012-05-25 2018-10-23 Mattel, Inc. IR dongle with speaker for electronic device
US9068840B2 (en) * 2012-11-14 2015-06-30 Phillip M. Adams Pitot tube velocimeter system
US20140218524A1 (en) * 2013-02-07 2014-08-07 Yat Fu CHEUNG Remote control toy car with wireless real-time transmission of audio and video signals
CN104248844A (en) * 2013-06-28 2014-12-31 林坤央 Device with following-displacement capability
US20150174501A1 (en) * 2013-12-19 2015-06-25 Joshua Young Personal camera for a remote vehicle
EP3285148A1 (en) 2016-08-19 2018-02-21 Bigben Interactive SA Method for controlling a display element by a game console
US10493363B2 (en) * 2016-11-09 2019-12-03 Activision Publishing, Inc. Reality-based video game elements
EP3444016A1 (en) * 2017-08-17 2019-02-20 Bigben Interactive SA Method for controlling a display element by a game console
US10652719B2 (en) 2017-10-26 2020-05-12 Mattel, Inc. Toy vehicle accessory and related system
CN111045209A (en) * 2018-10-11 2020-04-21 光宝电子(广州)有限公司 Travel system and method using unmanned aerial vehicle
US11312416B2 (en) * 2019-01-30 2022-04-26 Toyota Motor Engineering & Manufacturing North America, Inc. Three-dimensional vehicle path guidelines
US11471783B2 (en) 2019-04-16 2022-10-18 Mattel, Inc. Toy vehicle track system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6309306B1 (en) * 1999-03-03 2001-10-30 Disney Enterprises, Inc. Interactive entertainment attraction using telepresence vehicles
US20010041608A1 (en) * 1998-07-16 2001-11-15 Hiroaki Kawasaki Operation-control system for golflinks
WO2001095988A1 (en) * 2000-06-15 2001-12-20 Intel Corporation Mobile remote-control video gaming system
WO2004059444A2 (en) * 2002-12-24 2004-07-15 Daniel Freifeld System to compile race course data

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100305354B1 (en) * 1997-10-28 2002-10-04 가부시끼가이샤 에스 엔 케이 Game device and game system
DE19921675A1 (en) * 1999-05-11 2000-11-16 Hornung Hans Georg Method for acquiring parameters and measured quantities of battery packs and the like
US6439956B1 (en) * 2000-11-13 2002-08-27 Interact Accessories, Inc. RC car device
US6735435B2 (en) * 2001-03-30 2004-05-11 Motorola, Inc. Method for providing entertainment to portable device based upon predetermined parameters
US20040054481A1 (en) * 2002-09-18 2004-03-18 Lovett J. Timothy Airspeed indicator with quantitative voice output
US7704119B2 (en) * 2004-02-19 2010-04-27 Evans Janet E Remote control game system with selective component disablement
US7593821B2 (en) * 2004-11-23 2009-09-22 Lg Chem, Ltd. Method and system for joint battery state and parameter estimation
US7650207B2 (en) * 2005-05-04 2010-01-19 Lockheed Martin Corp. Locomotive/train navigation system and method
US7211980B1 (en) * 2006-07-05 2007-05-01 Battelle Energy Alliance, Llc Robotic follow system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010041608A1 (en) * 1998-07-16 2001-11-15 Hiroaki Kawasaki Operation-control system for golflinks
US6309306B1 (en) * 1999-03-03 2001-10-30 Disney Enterprises, Inc. Interactive entertainment attraction using telepresence vehicles
WO2001095988A1 (en) * 2000-06-15 2001-12-20 Intel Corporation Mobile remote-control video gaming system
WO2004059444A2 (en) * 2002-12-24 2004-07-15 Daniel Freifeld System to compile race course data

Also Published As

Publication number Publication date
FR2908323B1 (en) 2009-01-16
JP2010508930A (en) 2010-03-25
US20100062817A1 (en) 2010-03-11
EP2079533A1 (en) 2009-07-22
WO2008056050A1 (en) 2008-05-15

Similar Documents

Publication Publication Date Title
FR2908323A1 (en) METHOD OF DEFINING A COMMON REFERENTIAL FOR A VIDEO GAMING SYSTEM
EP2099541A1 (en) Method for defining a game area for a video game system
FR2908324A1 (en) DISPLAY ADJUSTMENT METHOD FOR VIDEO GAMING SYSTEM
AU2008339124B2 (en) Vehicle competition implementation system
US10258888B2 (en) Method and system for integrated real and virtual game play for multiple remotely-controlled aircraft
FR2912318A1 (en) Shot validation method for video game system, involves acquiring position of quadricoptere in video image, and validating and invalidating virtual shot in case of similarity between positions and difference between positions respectively
EP3316068B1 (en) Autonomous system for collecting moving images by a drone with target tracking and upkeep of the target collection angle
CN111228804B (en) Method, device, terminal and storage medium for driving vehicle in virtual environment
KR101736477B1 (en) Local sensor augmentation of stored content and ar communication
JP6253218B2 (en) Entertainment system and method
US9884254B2 (en) Augmented reality gaming systems and methods
CN110876849B (en) Virtual vehicle control method, device, equipment and storage medium
CN111338534A (en) Virtual object game method, device, equipment and medium
CN112121422A (en) Interface display method, device, equipment and storage medium
CN110249281A (en) Position processing unit, flying body, position processing system, flight system, position processing method, flight control method, program and recording medium
JP7231856B2 (en) Game programs, computers, and game systems
EP3590587A1 (en) Mixed reality methods and systems applied to collective events
WO2020144418A1 (en) Title of the invention: firearm for precisely simulating a shooting sequence with a calculation of the point of impact of the projectile(s)
GB2595246A (en) Photogrammetry
NZ561260A (en) Vehicle competition implementation system

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20120731