WO2016198090A1 - Système de création d'un environnement - Google Patents

Système de création d'un environnement Download PDF

Info

Publication number
WO2016198090A1
WO2016198090A1 PCT/EP2015/062731 EP2015062731W WO2016198090A1 WO 2016198090 A1 WO2016198090 A1 WO 2016198090A1 EP 2015062731 W EP2015062731 W EP 2015062731W WO 2016198090 A1 WO2016198090 A1 WO 2016198090A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
server
image
information
projection
Prior art date
Application number
PCT/EP2015/062731
Other languages
English (en)
Inventor
Sébastien MILLECAM
Ludovic LUCAS
Original Assignee
Battlekart Europe
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=53498958&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2016198090(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority to EP23177449.8A priority Critical patent/EP4235628B1/fr
Priority to DK23177449.8T priority patent/DK4235628T3/da
Priority to ES15733364T priority patent/ES2949826T3/es
Priority to JP2017564034A priority patent/JP6588574B2/ja
Priority to EP15733364.2A priority patent/EP3304522B8/fr
Application filed by Battlekart Europe filed Critical Battlekart Europe
Priority to US15/579,992 priority patent/US10967279B2/en
Priority to PCT/EP2015/062731 priority patent/WO2016198090A1/fr
Priority to EP23220637.5A priority patent/EP4322135A3/fr
Priority to PL23177449.8T priority patent/PL4235628T3/pl
Priority to FIEP23177449.8T priority patent/FI4235628T3/fi
Priority to KR1020177037300A priority patent/KR102105093B1/ko
Publication of WO2016198090A1 publication Critical patent/WO2016198090A1/fr
Priority to US17/218,436 priority patent/US20210213363A1/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/042Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles providing simulation in a real vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/32Simulation of view from aircraft by projected image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems

Definitions

  • the present invention relates to a system for creating an environment. More specifically, the present invention relates to a system for creating an environment in which a projected image can be modified according to the position of at least one moving element measured by a location system.
  • Current karting systems include a marked track on the ground and karts that run on this track.
  • the track is materialized on the ground by fixed elements, which are long to install and long to remove, such as paint or stickers. It is therefore not possible to quickly change the track at a given location.
  • karts may collide with each other or with fixed obstacles.
  • karting race is fun but repetitive and karting a single kart has little playful interest.
  • the invention therefore aims to provide an environment creation system that allows the implementation of a kart system that does not have these problems.
  • the invention proposes a system for creating an environment, the environment comprising at least one image arranged to be perceptible by at least one pilot of at least one mobile element, the system comprising: At least one mobile element, which itself comprises an electronic interface and at least one means of action connected to the electronic interface,
  • a projection system arranged to project at least one image
  • a location system arranged to determine a position of each mobile element present near the at least one image
  • a server arranged to be connected to the electronic interface of each mobile element, the location system and the projection system, the server being arranged to control the projection system and said at least one means of action on the basis of the position of each mobile element received from the location system.
  • the projection system can project an image, such as a kart track image, which is replaceable very quickly. It is therefore very easy to ask the server to indicate to the projection system that a new track image should be displayed.
  • the location system makes it possible to locate moving elements that may be karts. Their location is sent to the server which can act on the karts, via their means of action, to change their movement and prevent a collision.
  • the server can indicate to the projection system how to modify the image to adapt to the position of the karts and can act on the karts, through their means of action, to modify certain characteristics, which makes the karting attractive, even for a single player, and makes karting even more attractive when practiced by many.
  • each mobile element further comprises at least one actuator connected to the electronic interface and arranged to be actuated by the pilot of the mobile element, the server being arranged to act on the projection system and on the at least one means of action based on actuation of at least one actuator.
  • the actuator allows the pilot to give instructions to the mobile element, instructions that can be transferred to the server via the interface and the on-board computer. This allows the driver to act on the environment and the server to know the driver's instructions.
  • each mobile element further comprises a transmitter.
  • the transmitter allows an excellent location of the mobile element by the location system.
  • the transmitter comprises at least one source of electromagnetic radiation.
  • the source of electromagnetic radiation comprises an infra-red emitter. Localization works particularly well with this type of radiation.
  • each of the sources of electromagnetic radiation comprises a light-emitting diode with a power of between 5 and 50 watts.
  • the location works particularly well with this type of radiation.
  • the projection system comprises at least one video stream computer and at least one projector, each video stream computer being connected to the server and each projector being connected to the video stream computer.
  • each video stream computer being connected to the server and each projector being connected to the video stream computer.
  • the projection system comprises a plurality of projectors, each of the projectors being arranged to project a partial image such that all the partial images projected by the projectors form the image.
  • This provides an image that covers a large area, bright enough to be perceived properly by the drivers and in which the pixels are not too visible.
  • the partial images overlap at least partially. This makes it possible to avoid areas not covered by the image at the edge of the partial images of each of the projectors.
  • the location system comprises at least one microcontroller connected to the server and at least one sensor connected to the microcontroller.
  • the microcontroller serves in particular as a relay between the sensor and the server.
  • a connection between each sensor and the microcontroller to which the sensor is connected uses I2C.
  • the I2C connection makes the data transfer from the sensor to the microcontroller fast and reliable.
  • a connection between each microcontroller and the server uses Ethernet.
  • the Ethernet connection makes data transfer from the microcontroller to the server fast and reliable.
  • Ethernet allows the transfer of data over large distances.
  • Ethernet allows the power of the sensors to be transported via the use of Power over Ethernet (PoE).
  • PoE Power over Ethernet
  • each sensor comprises a camera arranged to take an image and capable of detecting infra-red radiation. Localization works particularly well with this type of radiation.
  • the sensor further comprises a data processing device arranged to increase the resolution of the image taken by the camera.
  • the system further comprises a sensor identification system by which the server is able to identify the sensor from which information reaches it from among a plurality of sensors. This allows the server to immediately identify the sensor transmitting the information, without even having to read the information itself.
  • each sensor is connected to a display system comprising a plurality of light-emitting diodes, the sensor and the display system to which it is connected being arranged for the ignition of a number of diodes equal to the number of moving elements. perceived by the sensor. This makes it easy to test the sensors and to easily estimate the limits of their capture surface.
  • the at least one mobile element is a kart and the image comprises a kart track.
  • the invention also proposes a method of creating an environment, the environment comprising at least one image arranged to be perceptible by at least one pilot of at least one mobile element, the method comprising a cycle including the steps of:
  • the method for creating an environment according to the invention allows the entire environment to adapt almost instantaneously to the position of the moving elements and to the instructions of the pilots.
  • the adaptation of characteristics of the mobile element comprises the steps of:
  • the electronic interface makes it possible to link the on-board computer with the means of action, especially if the on-board computer is not capable of generating digital signals while the means of action can be operated only via analog signals.
  • the adaptation of characteristics of the mobile element comprises the steps of:
  • the dashboard displays information, especially from the server, likely to interest the driver.
  • the projection of the image by the projection system comprises the steps of:
  • Image projection performed by at least one projector connected to at least one video stream computer.
  • the determination of the position of the mobile element by the location system comprises the steps of:
  • Transfer of the image of the camera to a data processing device of the sensor Determining the coordinates and the size of each point on a matrix relating to the sensor by the data processing device,
  • the transfer of the coordinates and the size of each point on the matrix relating to the sensor of the data processing device to the microcontroller is achieved using I2C.
  • the transfer of the coordinates and the size of each point on the matrix relative to the sensor of the microcontroller to the server is achieved using Ethernet.
  • the transfer of the coordinates and the size of each point on the matrix relating to the sensor of the data processing device to the microcontroller is performed for a maximum number of points at a time, if the image contains more points than this number. maximum, the transfer of coordinates and the size of each point on the matrix relating to the sensor of the data processing device to the microcontroller is performed in several times.
  • the invention also proposes a method for installing an environment creation system comprising at least one image, the system comprising a projection system and a location system, the method comprising the steps of:
  • the calibration of the projection system comprises, for at least one projector forming part of the projection system:
  • the calibration of the location system comprises, for at least one sensor forming part of the location system, the steps of:
  • Position adjustment of each sensor the position adjustment of each sensor comprising a projection, by the projection system, of an adjustment image indicating in which position to adjust the sensor.
  • the installation method further comprises a calibration which comprises, for each of the corners of the surfaces to be covered, the steps of:
  • This method makes sensor calibration particularly easy and fast, and also allows the locating system and the projection system to be aligned with each other.
  • the calibration further comprises a step of correspondence between the specific locations to which the marks have been projected and the coordinates of the position of the portable transmitter in the sensor matrix, the correspondence resulting in a means for passing coordinates. in the sensor matrix at global coordinates.
  • the invention further proposes, in one embodiment, a method for guiding a pilot of a mobile element, the guiding method comprising the steps of:
  • Locating the mobile element by a locating system determining at least one action that the pilot must perform in order for the mobile element to approach the optimal trajectory
  • the invention further proposes, in one embodiment, an anti-collision method of at least one mobile element comprising the steps of: • location of each mobile element by a location system,
  • This method avoids collisions between moving parts.
  • the invention further provides a computer program for implementing a method according to the invention.
  • the invention further provides a non-transitory storage medium on which is stored a computer program product comprising software code portions in a format executable on a computing device and configured to perform the steps of a method according to the invention. .
  • the invention further proposes a movable element comprising:
  • At least one actuator connected to the electronic interface and arranged to be actuated by a pilot of the mobile element 200
  • At least one means of action connected to the electronic interface and arranged to make a change in characteristics of the mobile element based on a signal received from the electronic interface.
  • the mobile element may be used with the server independently of or in connection with one or more of the projection and location systems.
  • the connection between the electronic interface and the server goes through an on-board computer.
  • the mobile element further comprises a transmitter.
  • the transmitter comprises at least one source of electromagnetic radiation
  • each of the sources of electromagnetic radiation comprises an infra-red emitter.
  • the source of electromagnetic radiation comprises a light-emitting diode with a power of between 5 and 50 watts.
  • the invention further provides a projection system arranged to project at least one image, the system comprising at least one video stream computer arranged to be in communication with a server and at least one projector connected to the video stream computer.
  • the projection system according to the invention can be used with the server independently of the mobile element and the location system, or can be used with the server with the mobile element but without a location system or can be used with the server. without the mobile element but with localization system.
  • the projection system comprises a plurality of projectors, each of the projectors being arranged to project a partial image such that all the partial images projected by the projectors form the image.
  • the partial images overlap at least partially.
  • the invention further proposes a location system comprising at least one microcontroller arranged to be in communication with a server and at least one sensor connected to the microcontroller.
  • the location system according to the invention can be used with the server independently of the mobile element and the projection system, or can be used with the server with the mobile element but without a projection system or can be used with the server. without the mobile element but with projection system.
  • a connection between each sensor and the microcontroller to which the sensor is connected uses I2C.
  • a connection between each microcontroller and the server uses Ethernet.
  • each sensor comprises a camera arranged to take an image and is capable of detecting infrared radiation.
  • the senor further comprises a data processing device arranged to increase the resolution of the image taken by the camera.
  • the location system further comprises a sensor identification system by which the server is able to identify the sensor from which information reaches it from among a plurality of sensors.
  • each sensor is connected to a display system comprising a plurality of light-emitting diodes, the sensor and the display system to which it is connected being arranged for the ignition of a number of diodes equal to the number of moving elements. perceived by the sensor.
  • FIG. 1 illustrates a diagram of an environment creation system according to an embodiment of the present invention
  • FIG. 2 illustrates an embodiment of the environment according to an embodiment of the present invention
  • FIG. 3 illustrates a diagram of the server, the image and the elements of a kart in one embodiment of the invention
  • FIG. 4 illustrates an operation of the mobile elements according to an embodiment of the present invention
  • FIG. 5 illustrates a diagram of the projection system according to an embodiment of the present invention
  • FIG. 6 illustrates a diagram of an installation of the projection system according to the present invention
  • FIG. 7 illustrates the operation of the projection system according to the present invention
  • FIG. 8 illustrates a diagram of the location system according to one embodiment of the present invention.
  • FIG. 9 illustrates a diagram of an installation of the location system according to the present invention.
  • FIG. 10 illustrates a capture surface of the sensor and a matrix of the sensor
  • FIG. 11 illustrates an operation of the location system according to the present invention.
  • FIG. 12 illustrates an operation of the environment creation system according to an embodiment of the present invention. Embodiments of the invention
  • identical or similar elements may bear the same references.
  • An element present several times that is to say having several representatives, can carry a reference with the same number but a different letter. In this case, the number alone, without the letter, indicates any of the representatives of this element present several times.
  • the different representatives of the same element may have certain different characteristics.
  • the element 200 may have three representatives 200a, 200b and 200c.
  • FIG. 1 schematizes an environment creation system 800 according to an embodiment of the present invention as well as an image 600 and at least one driver 700a, 700b, 700c 700n capable of perceiving the image
  • the environment creation system 800 comprises a projection system 300 arranged to project the image 600, at least one movable element 200a, 200b, 200c 200n, each movable element 200 / being arranged to interact with the driver 700 / corresponding, a location system 100 arranged to determine a position of each movable member 200a, 200b, 200c, 200n, and a server 400 capable of exchanging information with the projection system 300, the location system 100 and each movable member 200a, 200b, 200c, 200n, / ' being a positive integer and smaller than or equal to n.
  • the environment creation system 800 also includes a management device 500 capable of exchanging information with the server 400.
  • the image 600 is preferentially projected on the ground, but could be projected on other supports such as a wall or a part of each mobile element 200a, 200b, 200c, ..., 200n.
  • the driver 700 may be on the mobile element 200, for example if the mobile element 200 is a go-kart, the driver 700 may carry the mobile element 200, for example if the mobile element 200 is the equipment of the driver 700 or the driver 700 can act remotely on the mobile element 200, for example if the mobile element 200 is a remote control car.
  • the server 400 provides coordination between the projection system 300, the mobile element 200, the location system 100 and the management device 500 and preferably performs other tasks as well.
  • the server 400 may be distributed over several devices and possibly be in a place other than the environment created by the environment creation system 800.
  • the management device 500 allows a manager of the environment creation system to manage certain functions thereof. For example, the management device 500 makes it possible to display alarms sent by the server 400 and to manage them, makes it possible to signal a kart as faulty so that it is not taken over in another part, or to modify standby options. automatic. The management device 500 also makes it possible to switch on the environment creation system, to launch a karting game, withdrawing a player from the game, restarting the game after pressing an emergency stop or another automatically detected failure.
  • the management device 500 can also possibly manage the information for display on tv in the room where the environment creation system is installed, to send information to a website, to control the air conditioning of the room. depending on the schedule of upcoming games.
  • FIG. 2 illustrates an embodiment of the invention in which the mobile element 200 is a kart driven by the driver 700, the projection system 300 comprises projectors 310, the location system 100 comprises sensors 110 and the management device 500 is a computer. Only one kart is shown for clarity, but it will be appreciated that more than one kart may be present in the environment. Many elements of the environment creation system 800 according to the invention are not explicitly shown in FIG. 2, even if they are present in the embodiment of the invention illustrated in FIG. 2.
  • the environment creation system 800 is installed in a room 900 comprising a floor 910 and an upper part 920.
  • the room 900 is preferably obscured so that the image 600 is clearly visible.
  • the self 910 is preferably flat.
  • the upper part 920 comprises fixing means.
  • the upper part 920 may comprise a ceiling or a beam structure where fixing means can be placed.
  • FIG. 2 shows a projection cone 611 emitted by the projector 310 and a partial image 610 on the ground resulting from the intersection of the projection cone 611 with the ground 910.
  • the image 600 generated by the projection system comprises the set of partial 610 images projected by all 310 projectors.
  • the image 600 includes a karting track 911.
  • a cone may have a circular, rectangular base or any shape.
  • FIG. 2 shows a capture cone 121 which corresponds to the area perceived by the sensor 110.
  • the intersection of the capture cone 121 and the ground 9 0 is a capture surface 120 of the sensor 110.
  • the set of capture surfaces 120 of the sensors 110 forming part of the location system 100 preferably covers the entire image 600 so that any mobile element 200 located in the vicinity of the image 600 is visible by the location system 100.
  • all of the capture surfaces 120 of the sensors 110 forming part of the location system 100 do not cover the entire image 600.
  • the image 600 does not cover all of the capture surfaces 120 of the sensors 110 forming part of the location system 100.
  • all of the capture surfaces 120 may extend to stands next to the kart track while the 600 image is not projected.
  • the image 600 preferably includes persistent elements such as the track 911 and ephemeral elements such as bonus or penalty pictures.
  • the environment preferably comprises a set of element and effects perceptible by the driver of the kart, that is to say in particular the image 600, the kart itself with its elements and other karts with their elements. there are some, effects occurring on the kart (s) such as steering wheel vibration, image display on the dashboard, freewheeling effect, slowing down, and effects additional as mood lighting.
  • a karting game takes place preferentially in the following manner.
  • An administrator indicates on the management device 500 a form for the 911 track and a selected type of part.
  • the server 400 determines the information to be sent to the projection system 300 and the mobile element 200 to the mobile elements 200 if there are any. a plurality of) according to the information received from the management device 500.
  • the projection system 300 projects, via the projectors 310, the image 600 corresponding to the track 911 and the selected type of part.
  • the movable member 200 adapts its characteristics to the selected track 911 and type of part.
  • the mobile element 200 also comprises a transmitter 210 (visible in FIG. 3) which allows it to be located by the location system 100.
  • FIG. 3 schematizes the server 400, the image 600 and the elements of a mobile element 200 in an embodiment of the invention where the mobile element 200 is a go-kart.
  • the mobile element 200 communicates with the server 400 and with the driver 700 which perceives the image 600.
  • the mobile element 200 preferably comprises the following elements:
  • a dashboard 260 A dashboard 260
  • a plurality of actuators of the driver 220 A plurality of actuators of the driver 220,
  • a plurality of means of action 250 is provided.
  • a charger 291 of the battery Four wheels 295a, 295b, 295c, 295d.
  • the plurality of actuators of the driver 220 preferably comprises:
  • At least one firing button 224 At least one firing button 224
  • the plurality of action means 250 preferably comprises: ⁇ a right motor 251,
  • a plurality of lights 257 is provided.
  • At least one speaker 259 At least one speaker 259, and
  • the transmitter 210 preferably comprises at least one source of electromagnetic radiation, which may be an infra-red lamp.
  • the transmitter 210 more preferably comprises at least two sources of electromagnetic radiation. Having two sources allows one of the sources to always be active in case of failure of the other.
  • the transmitter 210 more preferably comprises a first infra-red lamp 211 and a second infra-red lamp 212.
  • the source of electromagnetic radiation is preferably of variable intensity.
  • the on-board computer 230 sends the electronic interface 240 the power that the infrared LED 211, 212 must emit.
  • the infra-red LED 211, 212 can take two states: the states off and on at full power.
  • the mobile element 200 preferably comprises an antenna connected to the onboard computer 230, in particular to communicate with the server 400.
  • the antenna may for example be a wi-fi antenna.
  • the antenna is integrated in a tablet that serves as a computer 230 and dashboard 260.
  • the wi-fi is secured by WPA2-PSK, but another type of security could be used.
  • the mobile element 200 may comprise other buttons with different utilities depending on the game world ⁇ bonus use, bonus change, ..).
  • the pilot starts his kart. It adapts the driving of the kart, by actuating actuators 220 as the accelerator 221, the brake 222, the flywheel 223, the shape of the track 911, the effects of the action means 250 and the presence of other karts if there has.
  • the instructions 202 given by the driver 700 by actuating the actuators 220 generate instruction information which is sent to the server 400.
  • the location system 100 permanently determines the position of the kart, provided that the kart is in all sensor capture surfaces 110 (FIG. 2) and sends a position information corresponding to the server 400.
  • the server 400 determines, based on the instruction information and on the basis of the position information, the next step of the game.
  • This step can be the projection of the image of an object in front of the kart, the possibility for the kart to go faster, a change of shape of the track, the possibility for the driver 700 to fire on another driver thanks to a 258 gun mounted on the kart, ...
  • This shot can be virtual with one or more partial image (s) making it visually perceptible.
  • This shot can also use a laser pointer.
  • This next step may also be that nothing changes in the image 600 and in the characteristics of the mobile element 200.
  • the management device 500 may possibly be involved in this determination of the next step, for example by limiting the speed of all the karts by acting on their engine 251, 252 if the administrator judges that the drivers drive too dangerously.
  • the server 400 is a device located near or remote from the environment creation system 800.
  • the connection between the server 400 and the environment creation system 800 can be done over the Internet.
  • the server 400 can manage multiple environment creation systems 800 in parallel.
  • the server 400 preferably comprises an antenna, in particular to communicate directly with the mobile element 200.
  • the server 400 may be a set of elements such as a set of computers.
  • the on-board computer 230 communicates with the server 400, with the electronic interface 240 and with the dashboard 260.
  • the on-board computer 230 receives and sends information in the form of digital signals.
  • the on-board computer 230 may comprise several computers and / or the mobile element 200 may comprise several onboard computers.
  • the electronic interface 240 makes it possible to send analog signals, to send digital signals, to receive analog signals and to receive digital signals.
  • the electronic interface 240 is preferably a printed circuit board capable of transforming the digital signals received from the on-board computer 230 into analog signals intended for elements other than the on-board computer 230 to which it is connected, that is to say say the transmitter 210, the battery 290, the actuators 220 and the means of action 250.
  • the on-board computer 230 and the electronic interface 240 allow the mobile element 200 to be in real-time communication with the server 400.
  • the element mobile 200 does not include a computer 230 and the electronic interface 240 communicates directly with the server 400.
  • the server 400 can thus influence the behavior of the mobile element 200 via the means of action 250.
  • the server 400 can also thus receive information concerning the instructions given by the pilot 700 by actuating the actuators 220.
  • the dashboard 260 is a device capable of displaying information for the driver 700.
  • the dashboard 260 may be a screen or a screen of a touch pad.
  • the dashboard 260 preferably receives information from the on-board computer 230 in the form of digital signals and potentially sends it.
  • the dashboard 260 and the computer 230 are the same device.
  • the dashboard 260 may for example display information on the state of the brake, the state of the accelerator, a bonus ready to be used, a state of health of the driver, a blinding flash, advertising. ..
  • the 265 camera is capable of taking pictures and / or filming.
  • the camera 265 can be included in the touch pad which also includes the dashboard 260.
  • the camera 265 sends the images it captures to the server 400, preferably via the on-board computer 230.
  • the transmitter 210 emits a signal, preferably an electromagnetic wave, enabling the location of the mobile element 200 by the location system 100, and in particular by the sensors 110.
  • the transmitter 210 transmits a signal mainly upwards if the 10 are located in height relative to the mobile element 200.
  • the LEDs 211, 212 are preferably LEDs (light-emitting diodes in English means light-emitting diodes) power infrared. LEDs
  • LEDs 211, 212 preferentially have a power between 5 and 50 watts.
  • LEDs 211, 212 are preferably 900 nm in wavelength. These LEDS make it possible to have a good location of the mobile elements 200 by the locating system 100 whatever the emission angle of the signal emitted by the transmitter 20 and the angle of incidence of this signal on the sensors. 110.
  • the transmitter 210 preferably comprises two signal sources, that is to say the two infrared power LEDs 211,
  • the transmitter 210 may potentially include one or more of the following signal sources, in one or more copies: an incandescent lamp, an infrared incandescent lamp, an assembly of infrared LEDs which, taken individually, do not have sufficient power to be perceived in such a manner reliable by the sensors, but all of which has sufficient power to be reliably perceived by the sensors.
  • the actuators 220 are devices that enable the pilot 700 to give instructions to the movable element 200.
  • the actuators 220 are preferably independent of one another and the electronic interface 240 communicates independently with each of the actuators 220.
  • the actuators 220 receive information from the driver 700, in the form of movements (foot movement for the brake for example or touching an icon) and sends information to the electronic interface in the form of analog signals. The content of this information is then transmitted to the on-board computer 230 in the form of digital signals, for example by an Ethernet protocol, then to the server 400 in the form of digital signals.
  • the firing button 224 is preferably located on the steering wheel 223. Some of the actuators 220 may be located on the touch pad whose screen forms the dashboard 260.
  • one or more actuators 220 have a direct action on one or more means of action 250 and / or elements of the movable element 200.
  • the flywheel 223 can act on an axis for orienting the movable member 200.
  • the means of action 250 are members that allow the electronic interface 240 to act on elements belonging to the mobile element 200.
  • the action means 250 are preferably independent of each other and the means of action 250 communicate independently with the electronic interface 240. In one embodiment of the invention, it is possible that some of the actuators 220 act on certain means of action 250 without passing through the electronic interface 240.
  • the server 400 may request that the right motor 251 brakes the right rear wheel 295a while the left motor 252 accelerates the left rear wheel 295b. This request is relayed from the server 400 to the on-board computer 230, then to the electronic interface 240 which transmits it to the right engine 251 and the left engine 252.
  • the server 400 informs the on-board computer 230 of the mobile element 200 (affected by a bonus, risk of collision and potentially the effects that result. ..) and the computer 230 calculates the speed sent to each of the engines 251, 252.
  • the computer 230 calculates the speed sent to each of the engines 251, 252. This allows the information of the accelerator does not need to go to the server 400 to be exploited for calculating the acceleration to be sent to each engine 251, 252.
  • the calculation of the speed sent to each of the motors 251, 252 can also be in the server 400 or in the electronic interface 240 which preferably comprises one or more microcontrollers.
  • the feeling of loss of control can also be created by directional wheels rotating independently of the will of the driver by disengaging or not the steering wheel.
  • the motors 251, 252 preferentially act on the rear wheels and can accelerate, brake or vibrate the wheel by accelerating and braking successively and closely together over time.
  • the speaker (s) 259 may be present on a body of the mobile element 200, for example on the kart, or on a helmet, for example a motor sports helmet, worn by the driver 700. If the driver 700a of the movable member 200a uses its pistol 258 to fire on a second movable member 200b, a firing noise with the sound of a farthing bullet can be produced by its speaker 259 while the driver 700b of the second element mobile 200b has its loudspeaker that produces a ball noise that is approaching, the intensity of this ball noise that is approaching depending on the relative positions of the movable member 200a from which the shot goes and the second movable member 200b .
  • the steering wheel button lighting 255 preferably corresponds to four buttons of the steering wheel 255.
  • the rear screen preferentially displays the name of the driver 700 driving the mobile element 200, its position and its color (according to its level or according to his team according to the type of party).
  • the battery 290 is an electric battery, which can be charged by the charger 291 of the battery.
  • a fuel tank instead of the battery 290 is also possible within the scope of the present invention.
  • the battery 290 is preferably in communication with the server 400 via the electronic interface 240 and the on-board computer 230 so that the server 400 receives information concerning the state of charge of the battery 290.
  • a DC / DC transformer is for example connected to the battery 290 to transform the 48V generated by the battery 290 into 12V so as to supply electricity to the onboard computer 230 which operates at 12V and the electronic interface 240 which also operates at 12V.
  • the mobile element 200 includes four electronic cards. Three of the electronic boards are powered by 12V with a regulator that converts the 12V into 5V because a microprocessor present on the card uses 5V. The fourth electronic board is powered directly into 5V.
  • the elements included in the mobile element 200 in the embodiment of the invention where the mobile element 200 is a kart are not necessarily present in all embodiments of the invention, or may be present without being present on the element mobile 200.
  • the mobile element 200 may be a remote control car, in which case the driver 700 controls the remote control car by far by looking at the image 600 and actuating the actuators 220 that are not on the remote control car.
  • the mobile element 200 the equipment carried by the driver 700.
  • the mobile element 200 is a laser-game player, which is the driver 700, and the laser equipment - Game of this person, which includes a 258 pistol, a transmitter 210, a firing button 224, ... but does not include a motor 251, 252 or flywheel 223.
  • the mobile element 200 is a robot moving in a factory and which is actuated by the server 400 without the intervention of a pilot perceiving the image 600.
  • the actuators 220 are not present on the robot, but there may be more means of action 250 for the server 400, via the computer 230 and the interface 240 controls the robot.
  • the robot may potentially include a camera 265 capable of perceiving the image 600.
  • FIG. 4 schematizes an operation 299 of the mobile element
  • the server 400 performs a determination 430 of a feature information that results in a feature information 403 that is sent to the on-board computer 230.
  • the feature information 403 can be adapted to each of the mobile elements 200 present in the 800 environment creation system.
  • the on-board computer 230 makes an information determination 241 for the dashboard, which results in an information item 242 for the dashboard that is sent to the dashboard 260.
  • the dashboard 260 makes a display modification 243 which is perceived by the driver 700 during a perception stage 244 for modifying the display.
  • the on-board computer 230 performs an information determination 231 for the electronic interface, which results in an information 232 for the electronic interface that is sent to the electronic interface 240.
  • the electronic interface 240 performs a signal determination 233 for the means of action.
  • This signal determination 233 for the means of action comprises, for one or more means of action 250, the determination of a preferentially analog signal value, which will be sent to the action means 250 in question.
  • the signal determination 233 for the means of action results in a signal 234 for a first action means which is sent to a first action means 250a which on the basis of the signal 234 makes a modification 235 of its characteristics.
  • the determination 233 of signals for the means of action results in a signal 237 for a second means of action, a signal for a third means of action, etc.
  • the second means of action 250b base signal 237 performs a modification 238 of its characteristics, etc.
  • the modification 235 of the characteristics of the first action means 250a results in an effect 2351 which is perceived by the pilot 700, during a perception stage 236 of the effect coming from the first action means 250a.
  • the modification 238 of the characteristics of the second means of action 250b results in an effect 2381 which is perceived by the pilot 700, during a perception stage 239 of the effect coming from the second means of action 250b.
  • the driver 700 perceives that he loses control of his kart because the rear right wheel brakes while the left rear wheel accelerates.
  • the fact that the right rear wheel brakes while the left rear wheel is accelerating corresponds to the modification 235 of the characteristics of the wheels.
  • Each of the means of action 250 in particular those indicated in FIG. 3, may likewise have a modification 235 of one or more of its technical characteristics.
  • the driver 700 reacts to the perception 277 of the display of the dashboard and perceptions 236, 237 effects by giving instructions 202 via a movement 245 on one or more actuators 220. For example, the driver 700 recovers his kart in turning the flywheel 223 in response to the loss of control.
  • the movement 245 of each actuator 220 actuated engages, by the actuator in question, a determination 246 of an actuator signal which results in a signal 247 actuator 247, which is transmitted to the electronic interface 240.
  • the electronic interface 240 performs a determination 248 of information for the on-board computer, which results in a signal 249 for the actuator. on-board computer which is transmitted to the on-board computer 230.
  • the electronic interface 240 can also perform the signal determination 233 for the means of action which relaunch a first loop: interface electronics 240 ⁇ means of action 250 ⁇ driver 700 ⁇ actuators 220 ⁇ electronic interface 240.
  • the on-board computer 230 Based on the signal 249 for the on-board computer, the on-board computer 230 carries out a determination 271 of information for the server which results in information 203 for the server which is sent to the server 400. On the basis of the signal 249 for the on-board computer, the on-board computer 230 also realizes the information determination 231 for the electronic interface which relaunches a second loop: on-board computer 230 ⁇ electronic interface 240 ⁇ means of action 250 ⁇ pilot 700 - ⁇ actuators 220 ⁇ electronic interface 240 ⁇ on-board computer 230.
  • the on-board computer 230 On the basis of the signal 249 for the on-board computer, the on-board computer 230 also realizes the information determination 241 for the dashboard which restarts a third loop: on-board computer 230 ⁇ dashboard 260 ⁇ driver 700 ⁇ actuators 220 - ⁇ electronic interface 240 ⁇ on-board computer 230.
  • the server 400 Based on information 203 for the server, the server 400 performs the determination 430 of a feature information, a determination 420 of a projection information which will be described later or other steps 273 that may involve the management device or other elements such as mood lighting.
  • server 400 ⁇ on-board computer 230 ⁇ electronic interface 240 ⁇ means of action 250 ⁇ driver 700 ⁇ actuators 220 ⁇ electronic interface 240 ⁇ on-board computer 230 ⁇ server 400 and server 400 ⁇ on-board computer 230 ⁇ instrument panel 260 ⁇ driver 700 - ⁇ actuators 220 ⁇ electronic interface 240- ⁇ on-board computer 230 ⁇ server 400.
  • One or more of the first, second, third, and fourth loops are continuously performed at a high frequency, for example, up to 100 times per second, throughout the time that the movable member 200 operates.
  • the set of information determination steps 231 for the electronic interface, signal determination 233 for the means of action, modifications 235, 238 of the characteristics of the means of action, information determination 241 for the dashboard and modification 243 display is subsequently taken under the adaptation step 205 characteristics of the movable element.
  • the steps of determining 246 an actuator signal, determining 248 information for the on-board computer and determining 271 information for the server is subsequently taken up under the transfer step 208 instructions.
  • the transfer 208 of the instructions may, however, include other steps.
  • the mechanical brake of a go-kart operates preferentially as on a conventional kart and has the priority on the accelerator.
  • Inverters (controllers) of the motors are programmed so that as soon as the acceleration demanded by the pilot is zero, the motors brake.
  • a relay disconnects the accelerator as soon as the pilot Press the brake pedal to avoid braking and accelerating at the same time, which means that as soon as you touch the brake, the acceleration sent to the drives is zero and the motors brake.
  • the drives of the motors are reprogrammed in real time with the on-board computer.
  • the mechanical brakes of the usual karts are then optionally removed from the movable element according to the invention and in this case the braking information first passes through the electronic interface before acting on the kart.
  • Each inverter takes the DC current from the batteries and transforms it into a current adapted to the motor to which it corresponds.
  • the motors are preferably of the brushless type, so that the current is also a function of the state of rotation of the motor.
  • the movable member 200 preferably includes an emergency stop method. Thanks to the emergency stop method, an inverter present on the right motor 251 and an inverter present on the left motor 252 are configured so that in the absence of a signal 234 coming from the electronic interface 240 for the motor in question. question, the movable member 200 brakes strongly. This makes it possible for the mobile element 200 to slow down considerably in the event of a problem, in particular in the event of a problem related to the electronic interface 240. Such a method can also be used on any means of actions 250.
  • the movable element 200 preferably includes a freewheeling process.
  • the on-board computer 230 sends to the electronic interface 240, in the information 232 for the electronic interface, a digital message indicating that their engines 251 , 252 must act as if the wheels were freewheeling.
  • the electronic interface 240 then sends, in the signal 234 for the right engine and in the signal 234 for the left engine, an analog message indicating to the motors 251, 252 that they must act as if the wheels were freewheeling. This makes it possible to prevent the mobile element 200 from braking suddenly when the accelerator 221 is released by the driver 700.
  • the system can operate without certain actions being transmitted to the server 400.
  • the on-board computer receives information from the server and it is it that determines what is sent to the electronic interface based on the actuators actuated by the driver. and information received from the server.
  • the state of the emergency stop button is for example preferably sent to the server.
  • the state of the accelerator is preferably not sent to the server.
  • the motor controller is reprogrammed in real time so that the drive does not have the behavior that causes the motors to brake when the requested acceleration is zero.
  • FIG. 5 schematizes the projection system 300 according to an embodiment of the present invention, and also presents an image 600 projected by the projection system 300 and the server 400.
  • the projection system 300 includes a plurality of computers
  • Each video stream computer 303 communicates with the server 400.
  • the server 400 may act as a video stream computer 303.
  • Each video stream computer 303 manages at least one projector 310 with which it communicates.
  • Each Projector 310 preferably includes an electronic circuit of FPGA type.
  • the video stream computer 303 preferentially performs the lighting, the standby of the projectors 310 that it manages, but this can also be done directly by the server 400, the management device 500 or another device.
  • the video stream receives from the projector 310 that it manages information about its temperature, its alarms if any and transmits this information to the server 400 which records them to anticipate possible failures.
  • each projector 310 emits a projection cone 611 and the image resulting from the intersection of the cone 611 with a surface, which is preferably a floor, is the partial image 610.
  • the projector 310 is preferably focused so that the partial image 610 is clear.
  • the image 600 generated by the projection system comprises all the partial images 610 generated by all the projectors 310.
  • the actions performed by the computer 303 video stream can be performed by the server 400. There is then no computer 303 video stream as such.
  • the video stream computer 303 may be a relatively simple device and / or having little computing power, such as a raspberry PI or a smartphone with a video output.
  • the video stream computer 303 has a wireless image sending device or any other device for generating an image and sending its signal to a projector 30.
  • the projector 310 and the video stream computer 303 are a single device, for example a smartphone with a built-in projector.
  • Figure 6 shows schematically an installation 399 of the projection system 300 according to the present invention.
  • the installation 399 of the projection system comprises a placement 330 of the projection system material and a calibration 320 of the projection system.
  • Projector system hardware placement 330 includes projector placement 331, computer placement 303, and wiring placement 333 (or wireless system installation) between projectors 310, video stream computers 303 and the server 400.
  • the projectors 310 are preferably placed in height and project their partial image 610 towards the ground.
  • the partial image 610 projected by the projector 310 is larger as the projector 310 and the image 610 are far from each other but the distance between them increases, the higher the brightness of the image 6 0 partial decreases and more pixels are visible on the partial image 610.
  • a pixel of the partial image 610 preferably covers an area less than 1 cm by 1 cm.
  • the projectors 310 are wide angle projectors placed at a height of about 6m from the ground and the partial images 610 are 10m x 7.5m.
  • the projectors 310 are preferably placed so that the partial images 610 of the different projectors 310 overlap so as to avoid a non-image space between partial images. There is therefore an overlap zone at the boundary between the partial images 610 of several projectors 310. In order to avoid having a double brightness zone in this overlap zone, a gradient filter to black is applied in this zone. to have uniform brightness and mask the projection boundaries. For example, the recovery can be done over an area of 30 pixels.
  • the projectors 310 are preferably placed according to constraints due to the environment in which the projection system 300 is implemented. These constraints may be due to a beam structure, in the form of a ceiling, to the shape of a pre-existing reinforcement or set up for the projection system 300.
  • the projectors 310 are preferably placed relative to each other to form a grid that covers the entire surface on which it is desired to project the image 600.
  • the projectors 310 do not need to be aligned. This represents an advantage of the projection system 300 according to the invention because an alignment of the projectors 310 is sometimes complicated to achieve, in particular because of the constraints due to the environment in which the projection system 300 is implemented.
  • the surface on which it is desired to project the image 600 is preferably between 100 and 100000 m 2 .
  • the surface on which it is desired to project the image 600 is more preferably between 1000 and 10000 m 2 .
  • the video stream computers 303 are preferably placed so as to minimize the length of the HDMI cables between the video streaming computers 303 and the projectors 310.
  • the video stream computers 303 can be placed in the server room and transmit the images over long distances. distance via fiber optic, or a projection computer can be used by projector and be placed right next to it.
  • the calibration 320 of the projection system comprises, for each projector 310, a determination 321 of a surface corresponding to the partial image 610, a choice 322 of the display resolution, a projecting 323 of the partial image 610 and an adjustment 324 of the partial image 610 so that the partial image 610 actually corresponds to the determined surface.
  • This adjustment 324 is preferably achieved by an adjustment of one or more angles of the partial image 610 produced by the FPGA of the projector 310.
  • This adjustment 324 is preferably realized by a "Quick Comer" type function available on some branded projectors. Epson.
  • the adjustment 324 could be performed by the video stream computers 303.
  • the determination 321 of a surface corresponding to the partial image 610 determines the portion of the image 600 that is included in the partial image 610 and includes the registration of the coordinates of the partial image 610 in a global coordinate system. .
  • the coordinates of the four corners of the partial image 610 are recorded in the server 400 and / or the video stream computer 303 which manages the projector 310.
  • the entire calibration 320 is preferably performed automatically by a software running on the server 400 and / or one or more computers 303 video stream. More preferably, the entire calibration 320 for the projector 310 is performed through software running on the management device 500. For example, an operator indicates to the server 400 via the management device 500 which point he wishes to calibrate and the caliber and the server 400 records the value and / or sends it to the projector.
  • FIG. 7 schematizes an operation 398 of the projection system 300 according to the present invention.
  • the server 400 realizes a determination 420 of a projection information that results in a projection information 402.
  • the projection information 402 includes information concerning the image 600 (for example a kart track or a karting arena), the various mobile elements 200 and their position, their direction, their state (in appearance, their life (in%), in disappearance, invisible).
  • the same projection information 402 is preferably sent to all video stream computers 303.
  • each video stream computer 303 determines a video stream for each projector 310 that it manages, based on the projection information 402 and the coordinates of the partial images 610 of the projector 310.
  • the determination of video flow 341 preferably comprises a fluidification of the content of the partial images 610 so that an element of the image 600 does not move in a chopped manner.
  • the video stream determination 341 includes state change management. For example, when a target is hit, the missile explodes and an explosion animation is displayed.
  • the determination 341 of video stream ensures synchronization between the various computers 303 video stream.
  • the determination of video stream 341 preferably includes the use of a graphics engine which is distributed on the various video stream computers 303, each video stream computer 303 performing the video stream determination 341 corresponding to the partial images 310 of the projectors 310. 'he manages.
  • the video flow determination 341 results in a video stream 342 which is different for each projector 310 and which includes the visual rendering of the partial image 610.
  • the video stream 342 is sent to the corresponding projector 310 which, based on this video stream 342, projects the image 610 343 possibly having adjusted it for the deformation.
  • a projection 301 made by the projection system 300, as described below with the support of FIG. 12, comprises the steps 341 for determining video flow and image projection 343.
  • FIG. 8 schematizes the location system 100 according to one embodiment of the present invention, and also presents a plurality mobile elements 200, two of which 200a, 200b are illustrated, and the server 400.
  • the location system 100 preferably includes a plurality of second circuits 119, each of the second circuits 119 comprising a microcontroller 112. Only two second circuits 119a, 119b are illustrated. Each second circuit 119 is in communication with a first electronic circuit 111 which preferably comprises a sensor 110, a display system 117 and a sensor identification system 118 and optionally calculation means 116. In one embodiment of the invention not illustrated, a second circuit 119 is in communication with several first electronic circuits 111 and / or at least one second circuit 119 electronic circuit 111 comprises more than one sensor 110.
  • each first circuit 111 is merged with the corresponding second circuit 119.
  • Each sensor 110 has a capture cone 121 and perceives the mobile element or elements 200 present in its capture cone 121. In particular, the sensors 110 perceive the signals emitted by the emitters 210 present in their capture cone 121.
  • the sensor 110 is capable of detecting infrared radiation.
  • the sensor 110 preferably comprises a filter 113, a camera 114 and a data processing device 115.
  • the filter 113 is preferably a filter allowing the infrared to pass.
  • the camera 114 is preferably a monochrome camera capable of detecting infrared radiation, and comprises, for example, a matrix of 128 ⁇ 96 pixels.
  • the data processing device 115 is for example an FPGA.
  • the camera 114 takes an image at a first resolution and sends that image to the data processing device 115.
  • the device 115 data processing performs a sub-pixel analysis to increase the resolution of the images taken by the camera 114 and obtain a second resolution greater than the first.
  • This second resolution for example 1024 ⁇ 768 pixels, is the size of a sensor matrix 122 which is an output information of the sensor 110.
  • Each sensor 110 locates up to four moving elements 200 on the sensor matrix 122 of 1024 ⁇ 768 pixels with a frequency of 500 Hz.
  • the display system 117 is preferably composed of a plurality of light-emitting diodes.
  • the display system 117 is more preferably composed of four light-emitting diodes.
  • the display system 117 is in communication with the sensor 110 so that the number of light-emitting diodes illuminated is equal to the number of dots detected by the sensor 110.
  • the sensor identification system 118 is preferably capable of creating an identifier of the sensor 110a.
  • the server 400 identifies the position information 102 coming from the sensor 101a potentially via the microcontroller 112a, as coming from this sensor 110a among the plurality of sensors 110 connected to the server 400.
  • This identification by the server 400 is preferably performed by including the identifier of the sensor 110 in the address of the sensor 110. This allows the server 400 not to read the contents of the position information 102 to identify the sensor at its origin.
  • the sensor identification system 118 is preferably composed of a first plurality of contact elements in which the contact elements have a reference beginning with X and a second plurality of contact elements in which the contact elements have a reference beginning with Y.
  • contacts are created on its contact elements (for example by placing jumpers) so that the position of the sensor in a first direction (coordinate X) is indicated by all the contact elements of the first plurality where a contact occurs, and the position of the sensor in a second direction (Y coordinate) is indicated by all the contact elements of the second plurality where contact occurs.
  • These coordinates X, Y are then taken from an address, for example IP address, the second circuit 119 which allows the server 400 to identify the second circuit 119 and therefore the sensor 110 corresponding to the second circuit 19.
  • the server 400 identifies thus from which sensor 0 comes information thanks to the address from which the information comes. This removes the constraint of having the second circuits 119 or the sensors 110 identified by the server 400 by means of a software element.
  • the information concerning the identification of the sensor 110 is in bytes 3 and 4 of the IP address of the sensor 1 0. That is to say that the last two digits of ⁇ (IPV4) specify the ID of the sensor 110.
  • a function of the microcontroller 112 is to interrogate the sensor 110. Another function of the microcontroller 112 is to transmit information received from the sensor to the server 400. Another function of the microcontroller 112 is to turn on the diodes of the display system 117.
  • the communication between the first electronic circuits 111 and the second circuits 119 is preferentially done by a type I2C data bus.
  • the communication between the second circuits 119 and the server 400 is preferentially done by the Ethernet protocol.
  • Ethernet allows the transfer of data over long distances.
  • the use of Ethernet also allows the use of Power over Ethernet (PoE). PoE provides power to a device connected to the network via the Ethernet cable. The PoE thus provides power to the sensors 110 without having to install sockets and transformers for them.
  • the data communication by the second circuits 119 requires from the microcontrollers 1 2 a processing, which can limit the frequency of the system 100 of localization to 270Hz while the capture frequency of the sensors is 500Hz.
  • the microcontroller 112 corresponding to said sensor 110 decreases the frequency with which it sends information to the server 400 in order to prevent the server 400 from processing unnecessary information.
  • the sensors 110 are preferably placed in height relative to the movable elements 200, on fixing means.
  • the sensors 110 are preferably placed at a height of 3 to 10 m from the ground.
  • the sensors 110 may be placed at a height of about 6m from the ground.
  • the sensors 110 are preferably placed on the fastening means which are themselves placed according to constraints due to the environment in which the location system 100 is implemented. These constraints may be due to a beam structure, the shape of a ceiling, the shape of a pre-existing reinforcement or implementation for the system 100 of location.
  • the sensors 110 are preferably placed in such a way that the cones 121 for capturing the set of sensors 110 of the location system 100 cover a volume, and thus a surface area, in which it is desired to locate moving elements 200.
  • the sensors 110 do not need to be aligned. This represents an advantage of the location system 100 according to the invention because an alignment of the sensors 110 is sometimes complicated to achieve, in particular because of the constraints due to the environment in which the location system 100 is implemented.
  • the location system 100 preferably comprises from 1 to 10,000 sensors 110.
  • the location system 100 more preferably comprises from 100 to 1000 sensors 110.
  • FIG. 9 schematizes an installation 198 of the location system 100 according to the present invention.
  • the location system installation 198 includes a placement 170 of the locating system 100 and a calibration 80 of the location system 100.
  • Placement 170 of hardware of the localization system 100 preferably comprises a placement 171 of the first electronic circuits, placement 172 of the second electronic circuits connected to the first electronic circuits and placement 173 of the Ethernet cables.
  • I2C cables and / or Ethernet cables may be replaced by another means of communication, such as a wireless communication means.
  • the placement 171 of the first electronic circuits which includes the placement of the sensors 110, is made in such a way that the sensor capturing surfaces 120 overlap partially, so that the entire surface in which it is desired to achieve locations is covered by all the sensors 110. In other words, there is no uncaught area between the different surfaces 120 of the different sensors 110 on the entire surface that is to be covered.
  • the sensors 110 are preferably placed according to constraints due to the environment in which the location system 100 is implemented. These constraints may be due to a beam structure, the shape of a ceiling, the shape of a pre-existing reinforcement or implementation for the system 100 of location.
  • the sensors 110 are preferably placed relative to each other to form a grid that covers such that the sensors 110 detect objects on the entire surface on which it is desired to locate objects.
  • the sensors 110 do not need to be aligned. This represents an advantage of the location system 300 according to the invention because an alignment of the sensors 110 is sometimes complicated to achieve, in particular because of the constraints due to the environment in which the location system 00 is implemented.
  • the location system calibration 180 comprises a sensor position determination 181 during which the server 400 determines, on the basis of a prior information, such as that provided for example by the sensor identification system 118, an approximate location for each sensors 110.
  • the server 400 determines the area 123 / to be covered for each sensor 110 / or / is an integer equal to or greater than one (see FIG.
  • the surfaces 123 / to be covered are preferably determined so that the surface 123 / to be covered by a given sensor 110 / is included in the surface 120 / for capturing the sensor 110 / and so that the surfaces 123 / to cover 0 / sensors that follow in the sensor grid are adjacent, there are therefore areas covered by more than one sensor 110 / ' .
  • the surfaces 123 / to be covered are preferably quadrilaterals, more preferably rectangles of about 4m x 2.5m.
  • the server 400 preferably determines an approximately central point for each surface 123 / to be covered and four corner points which are the corners 130 /, 131 /, 132 /, 133 / of the surface 123 / to cover (see figure 10).
  • the calibration 180 of the locating system then comprises a position adjustment 160 of the sensors and a calibration 150.
  • the sensors 160 of position adjustment preferably comprises a loop on the sensors 110. Consider the iteration of this loop to the "16 sensor 110 /.
  • the server 400 indicates to projection system 300 that the projection system 300 is to project an adjustment image indicating in which position to adjust the sensor 110.
  • the projection system 300 projects a point, i.e. an image of adjustment, at the point corresponding to the center point of the surface 123 / to be covered by the sensor 110 /
  • the projection system 300 projects a point at the point corresponding to the central point of the surface 123 / to be covered by the sensor 0 / when a center point projection 162.
  • a portable infrared transmitter is then placed on the projection of the central point at a central point placement 16.
  • the placement 163 may be done manually or may be done by a follower robot, comprising the portable infra-red transmitter, which follows guide lines projected by the projection system 300.
  • An orientation adjustment 164 of the sensor 110 / is then performed manually or automatically.
  • the loop of the adjustment 160 then passes 165 to a next sensor, preferably close to the sensor 110 /.
  • the calibration 150 preferably comprises a loop on the sensors 1 0.
  • the server 400 indicates to the projection system 300 that the projection system 300 must project a mark at the point corresponding to the first corner 130 / of the surface 123 / to be covered by the sensor 110 /.
  • projection system 300 projects a mark at the point corresponding to the first corner 130 / of the surface 123 / to be covered by the sensor 10 / at a projection 136 of the first corner, or at another specific location of the surface 123 / to cover.
  • a portable infra-red transmitter is then placed on the projection of the first corner during a placement 137 of the first corner, or near it.
  • the placement 137 can be done manually or be carried out by a tracking robot, comprising the portable infra-red transmitter, which can follow a guidance route projected by the projection system 300 or a route programmed in its memory and known to the server.
  • the placement 137 can possibly be done by a follower robot which follows a wire placed in the ground.
  • the sensor 110 During a calibration measurement 138, the sensor 110 / measures the position of the portable infra-red transmitter as it perceives it, that is to say that the sensor 110 / determines the coordinates of the position of the portable infrared transmitter in its matrix 122. During a sending 140 of calibration coordinates, the sensor 110 / sends the coordinates of the position of the portable infrared transmitter in its matrix 122, for the first corner 130 / of its surface 123 / to be covered to the server 400, that the server 400 receives during a step 141 for receiving calibration coordinates.
  • the server 400 instructs the inner loop to then move to the next corner 142, until the four corners 130 / ' , 131 /, 132 /, 133 / of the surface 123 / to be covered by the sensor 110 / have been considered.
  • the server 400 received the coordinates, in the matrix 122 / of the sensor 110 /, of the four corners of the surface 123 / to be covered by the sensor 110 /.
  • the server 400 compares these coordinates in the matrix 122 / with the global coordinates that it had requested the projection system 300 to project during the four wedge information sends 135 and thus determines coefficients allowing to pass coordinates in the matrix 122 / of the sensor 110 / to 47 global coordinates. These coefficients are different for each sensor 110 /.
  • the server 400 indicates to the calibration loop 150 to pass 143 to the next sensor, preferably to a sensor close to that which has just been considered, until all the sensors 110 / have been calibrated.
  • some of the steps of the sensor position adjustment 150 and the calibration 150 are performed in a different order. For example, each sensor is adjusted for the four corners of its surface 23 / are measured. It is also possible to measure 137 only once the common corners between different surfaces 123 / to be covered in order to improve the accuracy of the location during a passage of a mobile element 200 of a surface 123 / to be covered to another and save time during calibration 150.
  • the global coordinates of the location system 100 are preferably identical to the overall coordinates of the projection system 300.
  • a position adjustment 160 of the sensors and a calibration 150 also allowing the determination of the global coordinate of a point from its coordinates in the matrix 122 / of a sensor are possible using another technique, for example a technique using a differential GPS and / or a laser range finder.
  • FIG. 10 illustrates the sensor capture surface 120 / and the sensor matrix 122 /.
  • the surface 120 / of the capture of the sensor 110 / is a surface in real space whereas the matrix of the sensor 122 / is the grid of pixels in the location system 100,
  • Sensor 120 / sensing surface 110 / includes surface 123 / to be covered by sensor 110 / and transition surface 125 /.
  • the surface 123 / to be covered by the sensor is preferably a rectangle having four corners 130 / ' , 131 / ' , 132 /, 133 / as described above, but could have any shape, especially a hexagonal shape.
  • the surface 125 / of transition is preferably included in the surface to be covered 123 / of another sensor, or outside the surface on which it is desired to make localizations.
  • the surface 123 / to be covered corresponds to the matrix 122 / sensor to a quadrilateral 124 / any having four corners 130b /, 131b /, 132b / ' , 133b /.
  • Calibration 150 maps the points 130 / -133 / in the global coordinates to points 130b / -133b / in the coordinates of the sensor array 122 /.
  • FIG. 11 schematizes an operation 199 of the locating system 100 according to the present invention, considering that two transmitters 210a, 210b are present in the cone 121 for capturing the sensor 110 / (not shown).
  • a transmission 151a generates an infrared signal 152a for the transmitter 210a.
  • a transmission 151b generates an infrared signal 152b for the transmitter 210b.
  • the two infrared signals 152a, 152b are detected by the camera 114 during a detection 153.
  • the detection 153 corresponds, for each of the signals 152a, 153a, to an event on one or more pixels, preferably adjacent, of a capture matrix of the camera 114.
  • the camera 114 In response, the camera 114 generates an image 154 having a first resolution, which is equal to the resolution of the capture matrix 122 / (see FIG. 10) and sends this first resolution image 154 to the data processing device 115.
  • the image 154 of first resolution preferably comprises a point for all of the two infrared signals 152a, 152b because the two infrared signals 152a, 52b merge into a single point.
  • the data processing device 115 performs a sub-pixel analysis 155 to increase the resolution of the image and obtain an image in a second resolution, which is equal to the resolution of the sensor array 122 (illustrated by reference 122). / in Figure 10).
  • the device 115 also carries out a determination 156 of the coordinates and the sizes of the points corresponding to the two infrared signals 152a, 152b on the matrix of the sensor 122.
  • the data processing device 115 checks, during a check 157, if more than four points are present in the second resolution image. If not, 158, the data processing device 115 sends the coordinates and sizes 159 of the points corresponding to all the infrared signals to the microcontroller 112. If yes, 190, the points corresponding to the infra-red signals are divided into groups of maximum four. points. During a first sending, the data processing device 115 sends the microcontroller 112 the coordinates and sizes 191 of the points of a first group of points, and, during a second sending, the data processing device 115. sends to the microcontroller 112 the coordinates and sizes 192 of the points of the second group of points. If there are more than eight points, in a third send, the data processing device 115 sends the microcontroller 112 the coordinates and sizes of the points of a third group of points, and so on (not shown).
  • the shipments are preferably clocked with a rate identical to that of the analysis steps 155 and 156 determining the coordinates and the sizes of the points. If there are four points or less, then the rate of the sends for each point is equal to the timing of the analysis steps 155 and the determination 156 of the coordinates and the sizes of the points. If there are five or more points, the coordinates and the size of each point are sent less often to the microcontroller 112.
  • the detection 153, the analysis 155 and the determination 156 are done 500 times per second, which allows that even if the location data reaches the microcontroller only one cycle out of two, 250 times per second, the location of the emitters remains very precise.
  • the microcontroller 112 Based on the coordinates and sizes of the points 159 or 191, 192, the microcontroller 112 performs a determination 93 of a position information of the sensor 110 with which it communicates and sends a position information 102 of said sensor to the server 400. This sending requires a certain processing time to the microcontroller 112, so that, if the coordinates and sizes of the points 159 arrived at the microcontroller 500 times per second, the microcontroller 112 sends the position information 102 to the server about 270 times per second, which corresponds to a cycle frequency of 270Hz if there are four points or less. If there are five or more points, the frequency is about 135 Hz.
  • the high cycle frequency obtained in one embodiment of the present invention provides a very short latency for the reaction. from the environment creation system 800 to the location changes of the mobile elements 200.
  • the server 400 Based on the position information 102, and possibly based on other information or predefined settings, the server 400 performs a data processing 410.
  • the operating steps 199 that are performed by the location system 100 are included in a position determination 01 shown in FIG. 12.
  • Figure 12 shows schematically an operation 2000 of the environment creation system 800 according to an embodiment of the present invention.
  • the server 400 performs a data processing 410 which results in a determination 420 of image projection information and a determination 420 of a parameter information.
  • the data processing 410 may be carried out on the basis of an exchange of information with the management device 500 (not shown in FIG. 12).
  • the data processing 410 comprises a determination 420 of a projection information and a determination 430 of a feature information as described above.
  • the server 400 sends parameter information 403 to the mobile element 200.
  • movable member 200 Based on the parameter information 403, movable member 200 performs a feature matching 205 of the movable member.
  • the characteristic adaptation 205 of the movable element can induce a position modification 204 of the movable element 200.
  • the server 400 sends image projection information 402 to the projection system 300.
  • the projection system 300 produces an image projection 301 which results in at least one image 600.
  • the driver 700 makes a perception 201 of the image during which it perceives information contained in the image 600.
  • the driver 700 of the mobile element 200 gives instructions 202 to the mobile element 200.
  • the instructions 202 can result in the adaptation 205 of characteristics of the mobile element 200, information 203 for the server that is sent to the server 400 and / or influence the position 204 of the mobile element 200.
  • the information 203 for the server can be transferred by a transfer step 208 preferentially as described in Figure 4.
  • the position 204 is determined by the location system 100 during a position determination 101.
  • the location system 100 then sends position information 102 to the server 400.
  • Operation 2000 therefore involves a cycle.
  • the environment created by the environment creation system 800 preferably comprises a set of perceptible effects from the mobile element 200 or from another location, that is to say the image 600, the adaptation 205 of the characteristics of the movable element, in particular by means 250 of action, and potentially additional effects such as ambient lighting.
  • Processes possibly included in the data processing 410 carried out by the server 400 are:
  • the server 400 can also manage touch screens displaying a thumbnail of the track and with which observers can interact. These can then add elements on the track in real time for example.
  • These methods can be based on the position information 102 received from the set of sensors 110 of the location system 100 according to the present invention and / or the server information 203 received from the set of mobile elements 200 belonging to the 800 environment creation system.
  • the server 400 uses the position information 102 which indicates the coordinates and the size of a point in the array 122 of the sensor that has performed the detection. of that point.
  • the sensors 110 have previously been calibrated according to the calibration method 180 described with reference to FIG. 9.
  • the location system 100 may potentially have been calibrated in another way.
  • the server 400 determines, preferentially by virtue of the coefficients making it possible to pass coordinates in the matrix 122 of the sensor 110 to the global coordinates and determined during the calibration 180, the global coordinates of each of the points detected by the 100 location system.
  • the global coordinates are used by the tracking method. Tracking maps the most recent global coordinates of a point to a previously identified point.
  • the criterion preferably used for this correspondence is the proximity of the most recent global coordinates with previous global coordinates, if possible with global coordinates of the previous just cycle. For example, at each iteration of the location the location on which the moving element is expected to find at the next iteration is calculated based on the position of the movable element, its direction, speed and acceleration . During the next iteration of the location, a comparison is made between the points received at the points calculated as those where it is expected to find a movable element to associate a perceived point with a moving element. This criterion works well thanks to the high frequency of the location system 100 and the accuracy of the location system 100, because in the interval between two cycles of the location system 100, the mobile elements 200 have not had the time to move a lot.
  • the identification tries to make the connection between the appearance of a point and the lighting of the transmitter requested by the server. If this link exists for a certain time, the global coordinates of the point are identified as those of the mobile element 200 which had lit its transmitter.
  • the collision avoidance method uses the results of global coordinate determination, tracking, and / or identification.
  • the collision avoidance method also potentially uses coordinates of other elements than moving elements, such as the boundaries of the area covered by the projection system 300 or the coordinates of other objects.
  • the server 400 calculates the speed (in intensity and direction) and the acceleration (in intensity and direction) of the mobile elements 200 and / or localized points.
  • the server 400 uses the formulas of the Uniformly Variable Translation Motion (MRVU), the server 400 then calculates the position probabilities of the moving elements 200 at a future time. For example, this can be done by calculating the position the vehicle would have when stopped if it was forced to brake from the current iteration.
  • MMVU Uniformly Variable Translation Motion
  • the guidance method preferably uses the results of the identification, and may optionally use the results of the global coordinate determination and / or tracking.
  • the guidance method also preferably uses information related to the image 600. For example, in the case of a kart race, the guidance method uses the information concerning the global coordinates of the edges of the karting track 911 (FIG. 2).
  • the guidance method analyzes the trajectory of the mobile elements 200 and compares it to a trajectory considered optimal on the track 911. The guidance method then determines the actions that the pilot 700 must perform to follow this optimal trajectory.
  • the server 400 sends, in the feature information 403, a message to the mobile elements 200 so that a message is broadcast to the driver 700. If the message contains audio parts, they are broadcast to the driver 700 by the one or more speakers. 259. If the message contains video parts, they are broadcast to the driver 700 by the dashboard.
  • the message may also contain seat or steering wheel vibrations or an ignition of one or more steering wheel buttons.
  • the audio message may be contained in the feature information 403 or be present in a memory included in the mobile element 200.
  • the audio message may be automatically selected by the server 400 or the on-board computer 230 in a message list. Audio, or automatically built by the server 400 or the on-board computer 230. The audio message can possibly be broadcast in a loudspeaker that is not part of the mobile element 200.
  • the audio message is expressed in real time by a person other than the pilot 700. This may be someone present on the edge of the runway 911 which gives guidance to the pilot 700 in a microphone connected to the server 400.
  • the guidance method allows the pilot 700 to receive real-time guidance.
  • the guidance method also serves to guide a visually impaired pilot.
  • the image projection system can be deactivated, even if the environment exists in the memory of the server 400.
  • the ambient lighting method is linked to the use of a room lighting system which consists of lighting, for example RGB LED strips present on a bar near the image 600, and a microcontroller connected to the server 400.
  • the server 400 calculates, based on lighting information often related to the context, the color of the lights.
  • the lighting information can be a start of a race, the call of an absent player, the use of a special bonus and the theme of the track 911 (track on ice, on land, on grass, etc. .).
  • the display of images captured by the environment creation system 800 is preferentially made to the camera 265 present on the mobile element 200.
  • the camera 265 sends the images that it captures to the on-board computer 230, which sends the server 400 in the instruction information 203.
  • the server 400 then generates messages leading to the display of these images on a giant screen placed near the image or on the Internet.
  • image 600 includes persistent elements, such as track 911, and ephemeral elements as bonus items.
  • a kart 200 rolls on a bonus element which is detected by the system 800 environment creation through a correspondence between the projection position of the bonus element and the location of the kart 200 made by the system 100 of projection, the 200 kart wins the bonus.
  • the various bonuses present in video games of karting, car, fight, can be experienced by the drivers in a real karting, as well as other types of bonuses.
  • the server 400 can determine that a penalty is applied to the kart 200.
  • the server 400 then sends, in the information 403, a message to the kart 200 with the effect of this penalty.
  • This can be for example a stop of the kart 200 or a maximum limited speed. This can result in acceleration clamping, single wheel braking, one wheel braking and acceleration on the other or a vibration of the kart 200.
  • the server 400 considers that a first kart 200a fires a shot on a second kart 200b when the server 400 calculates that the instruction 202 corresponding to the shot was made by the driver of the first kart at a location (determined by the location system 100) and a moment such that the firing having a determined speed has reached the second kart, which is also located by the locating system 100.
  • the firing is preferably carried out by the pilot by pushing on the firing button 224.
  • firing is preferably made visible by an ephemeral image projected by the projection system 300 and rendered audible by the pilot of the first kart in his loudspeaker by a firing sound that moves away and by the driver of the second kart in his loudspeaker.
  • the server 400 indicates the second kart 200b ( Figure 1), in the information 403 feature ( Figure 12) for the second kart 200b, its maximum power is decreased, which has the effect of reducing its maximum speed, and also indicates a message to display on the dashboard.
  • the server 400 also indicates to the first kart 200a, in the feature information 403 destined for the first kart 200a, that it has successfully fired.
  • Another effect made possible by the system 800 for creating an environment according to the invention is the possibility for a first kart 200a to benefit from a suction effect by a second kart 200b. If the first kart is placed at the rear of the second kart, which is detected by the server via the location of the two karts by the location system 100, its maximum speed is increased by the server 400, via a characteristic information 403. , to simulate that its resistance to air is decreased, as in a motor racing suction effect.
  • Another effect made possible by the system 800 for creating an environment according to the invention is the possibility of compensating for the lack of performance of a vehicle (for example due to a wear of a mechanical element or the excessive weight of a vehicle. pilot) by analyzing the speed of the kart in comparison with the requested acceleration and by applying a coefficient to the accelerator.
  • Another effect made possible by the system 800 for creating an environment according to the invention is the possibility of creating a correction factor so as to balance the race by favoring the players who are behind and disadvantaging the players at the front. of the race
  • Another effect made possible by the system 800 for creating an environment according to the invention is a game with "paint” mode in which the pilots "paint” the ground with their kart, ie a drag of a specific color to each kart is shown in the picture 600 behind the kart and remains on the image 600.
  • the goal of the game is to paint a maximum surface with the color assigned to his kart.
  • the video stream computers 303 are informed by the server 400 of the position 204 and the color of each kart. For each kart in its projection cone 611, based on its position 204 and its color, the video stream computer 303 determines the paint areas of that color appearing in its partial image 610.
  • the stream computer video 303 continuously traces a very thick line between the previous position of a kart and its new position.
  • the video stream computer 303 determines in real time the number of pixels covered by the different paints (on their respective projection surface of course). They return to the server a table, continuously, which details the number of pixels counted for each painting and which allows him to calculate the scores.
  • the computer of projection is then able to identify the different traces of paintings and to totalize them ( in pixels). It simply returns to the server the result of each iteration that will take note of it for the processing of the scores.
  • the server 400 may insert an ephemeral sand image on a portion of the track 911 by giving the indication to the projection system 300 via the projection information 402. If a kart 200 rolls on the sand image, which is determined by the location system 100, it receives a penalty.
  • karting can be fun by riding alone and a race between different drivers can be influenced by the projection effects of the image 600 or the effects of the means of action 250 kart, like shooting.
  • a driver can have a level, as in video games, which increases as he plays.
  • a successful shot on one more driver High level can yield a greater bonus than a successful shot on a lower level pilot.
  • the server 400 which knows the position of the mobile elements 200 through the location system 100, adapts the image 600 projected by the projection system so that nothing is projected on the movable elements 200 or that on the contrary a halo of a certain color is projected on the mobile elements 200.
  • Skiing, particularly indoor skiing location of a transmitter on the equipment of skiers, projection of images on the ski slope, with a mobile element formed by the skier and the equipment of the skier
  • Cycling including indoor cycling: locating a transmitter on bicycles or cyclists' helmets, projecting a bicycle track image or images on a bicycle track, with a mobile element formed by the bicycle, cyclist and his equipment
  • remote-controlled car circuit locating a transmitter on cars, the driver of a car being physically out of the car even if it is described here as part of the moving element, projection of a car track
  • location of objects on sports fields for example, location of a ping-pong ball reflecting infrared and illuminated with infrared radiation in an environment (table and floor in particular) that does not reflect by infrared
  • part of the environment creation system 800 can be used independently of the rest of the environment creation system 800.
  • part of the environment creation system 800 can be used independently of the rest of the environment creation system 800.
  • the locating system 100 and the projection system 300 are used, potentially coupled with the server 400,
  • the location system 100 and the mobile element 200 are used, potentially coupled with the server 400, or
  • the projection system 300 and the mobile element 200 are used, potentially coupled with the server 400.
  • the following preferential elements allow a reliable location, accurate to the nearest cm, at a frequency of more than 200 Hz, tens of moving elements on a surface of more than 100 m 2 :
  • a set of sensors 1 0 according to the present invention
  • the caiibration 180 of the locating system according to the present invention.
  • Such precision and location frequency allows moving elements to travel at a speed of 30km / h in the environment created by the environment creation system by having this environment, which includes the kart, potentially projected images of other elements, which adapts to their precise position. This also avoids collisions between moving parts and allows the driver to be guided by the guidance method according to its precise location.
  • the environment creation system 800 preferably incorporating the projection system 300, the location system 100 and one or more movable elements 200, allows the pilot and spectators to be immersed in an environment mixing tangible elements, such as moving elements, and images and where tangible elements and images interact.
  • the combination of the following preferential elements allows the pilot and / or spectators to be immersed in the environment created by the environment creation system 800;
  • Image 600 containing persistent elements and ephemeral elements, these ephemeral elements depending on the location of the moving elements,
  • the environment creation system 800 is movable, light, fast to set up (potentially in one day). It is comfortable, easy to use, provides a high level of safety, and gives the pilot and spectators the feeling of fully experiencing a complete experience.
  • the locating system 100 according to the invention is also movable, lightweight, quick to set up, comfortable and easy to use.
  • the projection system 300 according to the invention is also expendable, lightweight, quick to implement, comfortable and easy to use.
  • the environment creation system 800 combines the advantages of real karting, such as real acceleration, and video game karting such as bonuses, interactions with the environment and that players have a level of experience.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Marketing (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Generation (AREA)
  • Devices That Are Associated With Refrigeration Equipment (AREA)
  • Separation By Low-Temperature Treatments (AREA)
  • Compression-Type Refrigeration Machines With Reversible Cycles (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

La présente invention concerne un système de création d'un environnement. Plus précisément, la présente invention concerne un système de création d'un environnement comprenant un serveur, au moins un élément mobile (200), un système de projection comprenant une pluralité de projecteurs (310) capables de projeter des images partielles (610) qui forment une image globale et un système de localisation comprenant une pluralité de capteurs (110) capables de détecter l'au moins un élément mobile (200) s'il se trouve dans son cône de captation (121). Le serveur détermine, en fonction des informations qu'il reçoit de l'élément mobile (200) et du système de localisation (100), des informations à envoyer à l'élément mobile (200) et au système de projection (300) pour modifier l'environnement perçu par un pilote de l'élément mobile et de potentiels spectateurs.

Description

"Système de création d'un environnement"
Domaine technique
La présente invention concerne un système de création d'un environnement. Plus précisément, la présente invention concerne un système de création d'un environnement dans lequel une image projetée peut être modifiée en fonction de la position d'au moins un élément mobile mesurée par un système de localisation.
Etat antérieur de la technique
Les systèmes de karting actuels comprennent une piste marquée sur le sol et des karts qui roulent sur cette piste.
Malheureusement, la piste est matérialisée sur le sol par des éléments fixes, qui sont longs à installer et longs à enlever, comme de la peinture ou des autocollants. Il n'est donc pas possible de rapidement changer de piste à un endroit donné.
De plus, les karts peuvent entrer en collision les uns avec les autres ou avec des obstacles fixes.
En outre, la course de karting est amusante mais répétitive et le karting à un seul kart n'a guère d'intérêt ludique.
L'invention a donc pour but de proposer un système de création d'environnement qui permet la mise en œuvre d'un système de karting qui ne présente pas ces problèmes.
Divulgation de ['invention
L'invention propose à cet effet un système de création d'un environnement, l'environnement comprenant au moins une image agencée pour être perceptible par au moins un pilote d'au moins un élément mobile, le système comprenant: • Tau moins un élément mobile, qui lui-même comprend une interface électronique et au moins un moyen d'action connecté à l'interface électronique,
• un système de projection agencé pour projeter Tau moins une image,
• un système de localisation agencé pour déterminer une position de chaque élément mobile présent à proximité de l'au moins une image, et
• un serveur agencé pour être connecté à l'interface électronique de chaque élément mobile, au système de localisation et au système de projection, le serveur étant agencé pour contrôler le système de projection et ledit au moins un moyen d'action sur base de la position de chaque élément mobile reçue du système de localisation.
En effet, le système de projection permet de projeter une image, comme une image de piste de karting, qui est remplaçable très rapidement. El est donc très facile de demander au serveur d'indiquer au système de projection qu'une nouvelle image de piste doit être affichée.
De plus, le système de localisation permet de localiser les éléments mobiles qui peuvent être des karts. Leur localisation est envoyée au serveur qui peut agir sur les karts, via leur moyen d'action, pour modifier leur mouvement et empêcher une collision.
En outre, le serveur peut indiquer au système de projection comment modifier l'image pour l'adapter à la position des karts et peut agir sur les karts, via leur moyen d'action, pour en modifier certaines caractéristiques, ce qui rend le karting attrayant, même pour un joueur seul, et rend le karting encore plus attrayant lorsqu'il est pratiqué à plusieurs.
Avantageusement, la connexion entre l'interface électronique et le serveur passe par un ordinateur de bord. Avantageusement, chaque élément mobile comprend en outre au moins un actionneur connecté à l'interface électronique et agencé pour être actionné par le pilote de l'élément mobile, le serveur étant agencé pour agir sur le système de projection et sur l'au moins un moyen d'action sur base d'un actionnement d'au moins un actionneur.
L'actionneur permet au pilote de donner des instructions à l'élément mobile, instructions qui peuvent être transférées au serveur via l'interface et l'ordinateur de bord. Cela permet au pilote d'agir sur l'environnement et au serveur de connaître les instructions du pilote.
Avantageusement, chaque élément mobile comprend en outre un émetteur. L'émetteur permet une excellente localisation de l'élément mobile par le système de localisation.
Avantageusement, l'émetteur comprend au moins une source de rayonnement électromagnétique.
Avantageusement, la source de rayonnement électromagnétique comprend un émetteur infra-rouge. La localisation marche particulièrement bien avec ce type de rayonnement.
Avantageusement, chacune des sources de rayonnement électromagnétique comprend une diode électroluminescente d'une puissance comprise entre 5 et 50 watt.. La localisation marche particulièrement bien avec ce type de rayonnement.
Avantageusement, le système de projection comprend au moins un ordinateur de flux vidéo et au moins un projecteur, chaque ordinateur de flux vidéo étant connecté au serveur et chaque projecteur étant connecté à l'ordinateur de flux vidéo. Une telle réalisation du système de projection permet qu'une grande partie des calculs nécessaires pour générer l'image soient réalisés par les ordinateurs de flux vidéo, ce qui assure une bonne répartition des charges de calcul, notamment si le système de projection comprend un grand nombre de projecteurs afin que l'image couvre une grande surface.
Avantageusement, le système de projection comprend une pluralité de projecteurs, chacun des projecteurs étant agencé pour projeter une image partielle telle que l'ensemble des images partielles projetées par les projecteurs forme l'image. Cela permet d'obtenir une image qui couvre une grande surface, suffisamment lumineuse pour être perçue convenablement par les pilotes et dans laquelle les pixels ne sont pas trop visibles.
Avantageusement, les images partielles se recouvrent au moins partiellement. Cela permet d'éviter des zones non-couvertes par l'image en bordure des images partielles de chacun des projecteurs.
Avantageusement, le système de localisation comprend au moins un microcontrôleur connecté au serveur et au moins un capteur connecté au microcontrôleur. Le microcontrôleur sert notamment de relais entre le capteur et le serveur.
Avantageusement, une connexion entre chaque capteur et le microcontrôleur auquel le capteur est connecté utilise I2C. La connexion par I2C rend le transfert de données du capteur vers le microcontrôleur rapide et fiable.
Avantageusement, une connexion entre chaque microcontrôleur et le serveur utilise Ethernet. La connexion par Ethernet rend le transfert de données du microcontrôleur vers le serveur rapide et fiable. De plus, L'Ethernet permet le transfert de données sur des grandes distances. En outre, l'Ethernet permet de transporter, via l'utilisation de Power over Ethernet (PoE), l'alimentation électrique des capteurs.
Avantageusement, chaque capteur comprend une caméra agencée pour prendre une image et capable de détecter le rayonnement infra-rouge. La localisation marche particulièrement bien avec ce type de rayonnement. Avantageusement, le capteur comprend en outre un dispositif de traitement de données agencé pour augmenter ia résolution de l'image prise par la caméra.
Avantageusement, le système comprend en outre un système d'identification du capteur grâce auquel le serveur est capable d'identifier le capteur duquel une information lui parvient parmi une pluralité de capteurs. Cela permet au serveur d'identifier immédiatement le capteur émetteur de l'information, sans même à devoir lire l'information en elle-même.
Avantageusement, chaque capteur est connecté à un système d'affichage comprenant une pluralité de diodes électroluminescentes, le capteur et le système d'affichage auquel il est connecté étant agencés pour l'allumage d'un nombre de diodes égal au nombre d'éléments mobiles perçus par le capteur. Cela permet de facilement tester les capteurs et d'estimer facilement les limites de leur surface de captation.
Avantageusement, l'au moins un élément mobile est un kart et l'image comprend une piste de karting.
L'invention propose en outre un procédé de création d'un environnement, l'environnement comprenant au moins une image agencée pour être perceptible par au moins un pilote d'au moins un élément mobile, le procédé comprenant un cycle incluant les étapes de:
• détermination d'une information de projection par un serveur,
« transfert de l'information de projection à un système de projection,
• projection de l'image par le système de projection sur base de l'information de projection,
· détermination d'une information de caractéristiques par le serveur pour chaque élément mobile,
• transfert de l'information de caractéristiques à l'élément mobile correspondant, • adaptation de caractéristiques de l'élément mobile sur base de l'information de caractéristiques,
• réception des instructions d'un pilote de l'élément mobile, qui font que l'élément mobile génère une information pour le serveur,
• transfert de l'information pour le serveur de l'élément mobile au serveur,
• modification de la position de î'élément mobile sur base des instructions,
• détermination de la position de l'élément mobile par le système de localisation, qui génère une information de position,
• transfert de l'information de position du système de localisation au serveur, et
• traitement de données par le serveur, incluant la détermination d'une information de projection et la détermination d'une information de caractéristiques, sur base de l'information pour le serveur et de l'information de position.
Le procédé de création d'un environnement selon l'invention permet que l'ensemble de l'environnement s'adapte quasi instantanément à la position des éléments mobiles et aux instructions des pilotes.
Avantageusement, l'adaptation de caractéristiques de l'élément mobile comprend les étapes de:
• détermination d'information pour une interface électronique réalisée par un ordinateur de bord connecté au serveur,
• détermination de signaux pour les moyens d'action réalisée par une interface électronique connectée à l'ordinateur de bord, et
• modification de caractéristiques de moyen d'action réalisée par au moins un moyen d'action connecté à l'interface électronique.
L'interface électronique permet de faire le lien entre l'ordinateur de bord et les moyens d'action, notamment si l'ordinateur de bord n'est capable que de générer des signaux digitaux alors que les moyens d'action ne peuvent être actionnés que via des signaux analogiques.
Avantageusement, l'adaptation de caractéristiques de l'élément mobile comprend les étapes de:
· détermination d'information pour le tableau de bord réalisée par un ordinateur de bord connecté au serveur, et
• modification d'affichage réalisée par un tableau de bord connecté à l'ordinateur de bord.
Le tableau de bord permet d'afficher des informations, notamment en provenance du serveur, susceptibles d'intéresser le pilote.
Avantageusement, la projection de l'image par !e système de projection comprend les étapes de:
• détermination de flux vidéo réalisée par au moins un ordinateur de flux vidéo connecté au serveur, et
· projection d'image réalisée par au moins un projecteur connecté à Tau moins un ordinateur de flux vidéo.
Le fait que le flux vidéo soit déterminé par les ordinateurs de flux vidéo permet de répartir le calcul de celui-ci entre différents dispositifs de calcul.
Avantageusement, la détermination de la position de l'élément mobile par le système de localisation comprend les étapes de:
• détection d'au moins un signal provenant de l'élément mobile par une caméra présente sur un capteur faisant partie du système de localisation,
· génération par la caméra d'une image comprenant au moins un point correspondant au signal détecté,
• transfert de l'image de la caméra à un dispositif de traitement de données du capteur, • détermination des coordonnées et de la taille de chaque point sur une matrice relative au capteur par le dispositif de traitement de données,
• transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur du dispositif de traitement de données à un microcontrôleur faisant partie du système de localisation,
• transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur du microcontrôleur au serveur.
Avantageusement, le transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur du dispositif de traitement de données au microcontrôleur est réalisé en utilisant I2C.
Avantageusement, le transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur du microcontrôleur au serveur est réalisé en utilisant Ethernet.
Avantageusement, le transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur du dispositif de traitement de données au microcontrôleur est réalisé pour un nombre maximum de points à la fois, si l'image contient plus de points que ce nombre maximum, le transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur du dispositif de traitement de données au microcontrôleur est réalisé en plusieurs fois.
L'invention propose en outre un procédé d'installation d'un système de création d'environnement comprenant au moins une image, le système comprenant un système de projection et un système de localisation, la méthode comprenant les étapes de:
• placement du matériel du système de projection,
• calibration du système de projection,
• placement du matériel du système de localisation, et
• calibration du système de localisation. Cela permet que le placement du matériel du système de localisation et/ou la calibration du système de localisation soient réalisées en fonction du système de projection.
Avantageusement, la calibration du système de projection comprend, pour au moins un projecteur faisant partie du système de projection:
• une détermination d'une partie de l'image qui est comprise dans une image partielle projetée par le projecteur,
• une projection par le projecteur de l'image partielle, et
• un ajustement de l'image partielle pour que l'image partielle corresponde à la partie de l'image déterminée lors de la détermination.
Avantageusement, la calibration du système de localisation comprend, pour au moins un capteur faisant partie du système de localisation, les étapes de:
• détermination de la surface à couvrir par chaque capteur, et
• ajustement de position de chaque capteur, l'ajustement de position de chaque capteur comprenant une projection, par le système de projection, d'une image d'ajustement indiquant dans quelle position ajuster le capteur.
Avantageusement, le procédé d'installation comprend en outre un étalonnage qui comprend, pour chacun des coins des surfaces à couvrir, les étapes de:
• projection, par le système de projection, d'un repère à une localisation spécifique de la surface à couvrir de chaque capteur, la localisation spécifique étant indiquée dans un système de coordonnées globales de l'environnement,
• placement d'un émetteur portable à proximité du repère projeté, et • mesure d'étalonnage durant laquelle le capteur détermine les coordonnées de la position de l'émetteur portable dans une matrice de capteur.
Ce procédé rend particulièrement facile et rapide la calibration des capteurs, et permet aussi que le système de localisation et le système de projection soient alignés l'un avec l'autre.
Avantageusement, l'étalonnage comprend en outre une étape de correspondance entre les localisations spécifiques auxquelles les repères ont été projetés et les coordonnées de la position de l'émetteur portable dans la matrice de capteur, la correspondance résultant en un moyen permettant de passer des coordonnées dans la matrice du capteur aux coordonnées globales.
Cela permet de passer de coordonnées propres à chaque capteur car indiquées dans la matrice du capteur aux coordonnées globales.
L'invention propose en outre, dans une réalisation, un procédé de guidage d'un pilote d'un élément mobile, le procédé de guidage comprenant les étapes de:
• détermination d'une trajectoire optimale pour l'élément mobile,
• localisation de l'élément mobile par un système de localisation, · détermination d'au moins une action que le pilote doit réaliser pour que l'élément mobile se rapproche de la trajectoire optimale, et
• diffusion au pilote d'un message contenant des conseils pour que l'élément mobile suive la trajectoire optimale.
Cela permet de donner au pilote des conseils de pilote. Si plusieurs pilotes sont présents, chacun reçoit des conseils correspondant à sa situation propre.
L'invention propose en outre, dans une réalisation, un procédé anticollision d'au moins un élément mobile comprenant les étapes de: • localisation de chaque élément mobile par un système de localisation,
• détermination de la vitesse et de l'accélération de chaque élément mobile,
• calcul des probabilités de positions des éléments mobiles à un moment proche, et
• si la probabilité que plusieurs éléments mobiles soient en-deçà d'une distance seuil est plus grande qu'une probabilité déterminée, freinage automatique des éléments mobiles concernés.
Ce procédé permet d'éviter les collisions entre éléments mobiles.
L'invention propose en outre un programme d'ordinateur pour la mise en œuvre d'un procédé selon l'invention.
L'invention propose en outre un support de stockage non transitoire sur lequel est stocké un produit de programme informatique comprenant des parties de code de logiciel dans un format exécutable sur un dispositif informatique et configurées pour effectuer les étapes d'un procédé selon l'invention.
L'invention propose en outre un élément mobile comprenant :
• une interface électronique (240), agencée pour communiquer avec un serveur (400),
• au moins un actionneur connecté à l'interface électronique et agencé pour être actionné par un pilote de l'élément mobile 200,
• au moins un moyen d'action connecté à l'interface électronique et agencé pour réaliser une modification de caractéristiques de l'élément mobile sur base d'un signal reçu de l'interface électronique.
L'élément mobile peut être utilisé avec le serveur indépendamment de ou en relation avec un ou plusieurs des systèmes de projection et de localisation. Préférentieliement, la connexion entre l'interface électronique et ie serveur passe par un ordinateur de bord.
Avantageusement, l'élément mobile comprend en outre un émetteur.
Avantageusement, l'émetteur comprend au moins une source de rayonnement électromagnétique
Avantageusement, chacune des sources de rayonnement électromagnétique comprend un émetteur infra-rouge.
Avantageusement, la source de rayonnement électromagnétique comprend une diode électroluminescente d'une puissance comprise entre 5 et 50 watt.
L'invention propose en outre un système de projection agencé pour projeter au moins une image, le système comprenant au moins un ordinateur de flux vidéo agencé pour être en communication avec un serveur et au moins un projecteur connecté à l'ordinateur de flux vidéo.
Le système de projection selon l'invention peut être utilisé avec le serveur indépendamment de l'élément mobile et du système de localisation, ou peut être utilisé avec le serveur avec l'élément mobile mais sans système de localisation ou peut être utilisé avec le serveur sans l'élément mobile mais avec système de localisation.
Avantageusement, le système de projection comprend une pluralité de projecteurs, chacun des projecteurs étant agencé pour projeter une image partielle telle que l'ensemble des images partielles projetées par les projecteurs forme l'image.
Avantageusement, les images partielles se recouvrent au moins partiellement.
L'invention propose en outre, un système de localisation comprenant au moins un microcontrôîeur agencé pour être en communication avec un serveur et au moins un capteur connecté au microcontrôleur.
Le système de localisation selon l'invention peut être utilisé avec le serveur indépendamment de l'élément mobile et du système de projection, ou peut être utilisé avec le serveur avec l'élément mobile mais sans système de projection ou peut être utilisé avec le serveur sans l'élément mobile mais avec système de projection.
Avantageusement, une connexion entre chaque capteur et le microcontrôleur auquel le capteur est connecté utilise I2C.
Avantageusement, une connexion entre chaque microcontrôleur et le serveur utilise Ethernet.
Avantageusement, chaque capteur comprend une caméra agencée pour prendre une image et est capable de détecter le rayonnement infrarouge.
Avantageusement, le capteur comprend en outre un dispositif de traitement de données agencé pour augmenter la résolution de l'image prise par la caméra.
Avantageusement, le système de localisation comprend en outre un système d'identification du capteur grâce auquel le serveur est capable d'identifier le capteur duquel une information lui parvient parmi une pluralité de capteurs.
Avantageusement, chaque capteur est connecté à un système d'affichage comprenant une pluralité de diodes électroluminescentes, le capteur et le système d'affichage auquel il est connecté étant agencés pour l'allumage d'un nombre de diodes égal au nombre d'éléments mobiles perçus par le capteur. Brève description des figures
D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description détaillée qui suit pour la compréhension de laquelle on se reportera aux figures annexées parmi lesquelles :
- la figure 1 illustre un diagramme d'un système de création d'environnement selon une réalisation de la présente invention ;
- la figure 2 illustre une réalisation d'environnement selon une réalisation de la présente ;
- la figure 3 illustre un diagramme du serveur, de l'image et des éléments d'un kart dans une réalisation de l'invention ;
- la figure 4 illustre un fonctionnement de i'éléments mobile selon une réalisation de la présente invention ;
- la figure 5 illustre un diagramme du système de projection selon une réalisation de la présente invention ;
- la figure 6 illustre un diagramme d'une installation du système de projection selon la présente invention ;
- la figure 7 illustre la fonctionnement du système de projection selon la présente invention ;
- la figure 8 illustre un diagramme du système de localisation selon une réalisation de la présente invention ;
- la figure 9 illustre un diagramme d'une installation du système de localisation selon la présente invention ;
- la figure 10 illustre une surface de captation du capteur et une matrice du capteur ;
- la figure 11 illustre un fonctionnement du système de localisation selon la présente invention ; et
- la figure 12 illustre un fonctionnement du système de création d'environnement selon une réalisation de la présente invention. Modes de réalisation de l'invention
La présente invention est décrite avec des réalisations particulières et des références à des figures mais l'invention n'est pas limitée par celles- ci. Les dessins ou figures décrits ne sont que schématiques et ne sont pas limitants.
Dans le contexte du présent document, les termes « premier » et « deuxième » servent uniquement à différencier les différents éléments et n'impliquent pas d'ordre entre ces éléments.
Sur les figures, les éléments identiques ou analogues peuvent porter les mêmes références. Un élément présent plusieurs fois, c'est-à-dire ayant plusieurs représentants, peut porter une référence avec un même numéro mais une lettre différente. Dans ce cas, le numéro seul, sans la lettre, indique n'importe lequel des représentants de cet élément présent plusieurs fois. Les différents représentants d'un même élément peuvent avoir certaines caractéristiques différentes. Par exemple, l'élément 200 peut avoir trois représentants 200a, 200b et 200c.
Des éléments provenant de réalisations différentes de l'invention peuvent être combinés tout en restant dans le cadre de l'invention.
La figure 1 schématise un système de création d'environnement 800 selon une réalisation de la présente invention ainsi qu'une image 600 et au moins un pilote 700a, 700b, 700c 700n capable de percevoir l'image
600, n étant un nombre entier égal ou plus grand que . Le système de création d'environnement 800 comprend un système de projection 300 agencé pour projeter l'image 600, au moins un élément mobile 200a, 200b, 200c 200n, chaque élément mobile 200/ étant agencé pour interagir avec le pilote 700/ correspondant, un système de localisation 100 agencé pour déterminer une position de chaque élément mobile 200a, 200b, 200c, 200n, et un serveur 400 capable d'échanger des informations avec le système de projection 300, le système de localisation 100 et chaque élément mobile 200a, 200b, 200c, 200n, /' étant un nombre entier positif et plus petit ou égal à n. Le système de création d'environnement 800 comprend aussi un dispositif de gestion 500 capable d'échanger des informations avec le serveur 400.
Le système de projection 300, chaque élément mobile 200a, 200b,
200c 200n et le système de localisation 00 sont décrits en détails plus loin dans le présent document. L'image 600 sont préférentiellement projetées sur le sol, mais pourraient être projetées sur d'autres supports comme un mur ou une partie de chaque élément mobile 200a, 200b, 200c, ..., 200n.
Dans des réalisations de l'invention, le pilote 700 peut être sur l'élément mobile 200, par exemple si l'élément mobile 200 est un kart, le pilote 700 peut porter l'élément mobile 200, par exemple si l'élément mobile 200 est l'équipement du pilote 700 ou le pilote 700 peut agir à distance sur l'élément mobile 200, par exemple si l'élément mobile 200 est une voiture télécommandée.
Le serveur 400 assure la coordination entre le système de projection 300, l'élément mobile 200, !e système de localisation 100 et îe dispositif de gestion 500 et exécute aussi préférentiellement d'autres tâches. Le serveur 400 peut être réparti sur plusieurs dispositifs et éventuellement être dans un autre lieu que l'environnement créé par le système de création d'environnement 800.
Le dispositif de gestion 500 permet à un gestionnaire du système de création d'environnement de gérer certaines fonctions de celui-ci. Par exemple, le dispositif de gestion 500 permet de visualiser des alarmes émises par le serveur 400 et de les gérer, permet de signaler un kart comme défaillant pour ne plus qu'il soit repris dans une autre partie, ou de modifier des options de veille automatique. Le dispositif de gestion 500 permet aussi d'allumer le système de création d'environnement, de lancer une partie de karting, de retirer un joueur de fa partie, de relancer la partie suite à un appui sur un arrêt d'urgence ou à une autre panne détectée automatiquement.
Le dispositif de gestion 500 permet aussi éventuellement de gérer les informations pour affichage sur des tv dans la salle où est installée !e système de création d'environnement, d'envoyer des informations sur un site web, de contrôler la climatisation de la salle en fonction de l'horaire des parties à venir.
La figure 2 illustre une réalisation de l'invention dans laquelle l'élément mobile 200 est un kart conduit par le pilote 700, le système de projection 300 comprend des projecteurs 310, le système de localisation 100 comprend des capteurs 110 et le dispositif de gestion 500 est un ordinateur. Seulement un kart est représenté pour plus de clarté, mais il sera apprécié que plus d'un kart peut être présent dans l'environnement. De nombreux éléments du système de création d'environnement 800 selon l'invention ne sont pas explicitement représentés à la figure 2, même s'ils sont présents dans la réalisation de l'invention illustrée à la figure 2.
Le système de création d'environnement 800 est installé dans une salle 900 comprenant un sol 910 et une partie supérieure 920. La salle 900 est préférentiellement obscure de façon à ce que l'image 600 soient bien visibles. Le soi 910 est préférentiellement plat. La partie supérieure 920 comprend des moyens de fixation. Par exemple, la partie supérieure 920 peut comprendre un plafond ou une structure de poutrelles où des moyens de fixation peuvent être placés.
La figure 2 représente un cône de projection 611 émis par le projecteur 310 et une image 610 partielle sur le sol résultant de l'intersection du cône 611 de projection avec le sol 910. L'image 600 générée par le système de projection comprend l'ensemble des images 610 partielles projetées par l'ensemble des projecteurs 310. Dans l'exemple de ia figure 2, l'image 600 inclut une piste 911 de karting. Dans le cadre du présent document, un cône peut avoir une base circulaire, rectangulaire ou de n'importe quelle forme.
La figure 2 représente un cône de captation 121 qui correspond à la zone perçue par le capteur 110. L'intersection du cône de captation 121 et du sol 9 0 est une surface de captation 120 du capteur 110. L'ensemble des surfaces de captation 120 des capteurs 110 faisant partie du système de localisation 100 couvre préférentiellement toute l'image 600 de façon à ce que tout élément mobile 200 se trouvant dans à proximité de l'image 600 soit visible par le système de localisation 100.
Dans une réalisation de l'invention, l'ensemble des surfaces de captation 120 des capteurs 110 faisant partie du système de localisation 100 ne couvre pas toute l'image 600.
Dans une réalisation de l'invention, l'image 600 ne couvre pas l'ensemble des surfaces de captation 120 des capteurs 110 faisant partie du système de localisation 100. Par exemple, l'ensemble des surfaces de captation 120 peut s'étendre à des stands situés à côté de la piste de karting alors que l'image 600 n'y est pas projetée.
L'image 600 comprend préférentiellement des éléments persistants comme la piste 911 et des éléments éphémères comme des images de bonus ou de malus. L'environnement comprend préférentiellement un ensemble d'élément et d'effets perceptibles par le pilote du kart, c'est-à-dire notamment l'image 600, le kart lui-même avec ses éléments et les autres karts avec leurs éléments s'il y en a, des effets se produisant sur le(s) kart(s) comme une vibration du volant, l'affichage d'une image sur le tableau de bord, un effet de roue libre, un ralentissement, et des effets supplémentaires comme un éclairage d'ambiance.
Une partie de karting se déroule préférentiellement de la manière suivante. Un administrateur indique sur le dispositif de gestion 500 une forme pour la piste 911 et un type de partie choisis. Sur base de ia piste 911 et du type de partie choisis, et potentiellement d'autres informations, le serveur 400 détermine les informations à envoyer au système de projection 300 et à l'élément mobile 200 {aux éléments mobiles 200 s'il y en a plusieurs) en fonction des informations reçues du dispositif de gestion 500. Le système de projection 300 projette, via les projecteurs 310, l'image 600 correspondant à la piste 911 et au type de partie choisis. L'élément mobile 200 adapte ses caractéristiques à la piste 911 et au type de partie choisis. Par exemple, un variateur présent sur un moteur d'un kart est réglé pour que le kart ne dépasse jamais une certaine vitesse ou un tableau de bord est réglé pour afficher des photos de tous les pilotes participant à la partie. L'élément mobile 200 comprend aussi un émetteur 210 (visible à la figure 3) qui permet qu'il soit localisé par le système de localisation 100.
La figure 3 schématise le serveur 400, l'image 600 et les éléments d'un élément mobile 200 dans une réalisation de l'invention où l'élément mobile 200 est un kart.
L'élément mobile 200 communique avec le serveur 400 et avec le pilote 700 qui perçoit l'image 600. L'élément mobile 200 comprend préférentiellement les éléments suivants:
· un ordinateur de bord 230,
• une interface électronique 240,
• un tableau de bord 260,
• une caméra 265,
• un émetteur 210,
· une pluralité d'actionneurs du pilote 220,
• une pluralité de moyens d'action 250,
• un siège 280,
• une batterie 290 ou un autre moyen de puissance,
• un chargeur 291 de la batterie, • quatre roues 295a, 295b, 295c, 295d.
La pluralité d'actionneurs du pilote 220 comprend préférentiellement:
• un accélérateur 221 ,
• un frein 222,
· un volant 223,
• au moins un bouton de tir 224,
• un bouton d'arrêt d'urgence 225,
• un capteur de présence dans le siège 226,
La pluralité de moyens d'action 250 comprend préférentiellement: · un moteur droit 251 ,
• un moteur gauche 252,
• un vibreur de siège 253,
• un vibreur de volant 254,
• un éclairage de boutons du volant 255,
« un écran arrière 256,
• une pluralité de feux 257,
• un pistolet 258,
• au moins un haut-parleur 259, et
• un système de contrôle de direction.
L'émetteur 210 comprend préférentiellement au moins une source de rayonnement électromagnétique, qui peut être une lampe infra-rouge. L'émetteur 210 comprend plus préférentiellement au moins deux sources de rayonnement électromagnétique. Avoir deux sources permet qu'une des sources soit toujours active en cas de panne de l'autre. L'émetteur 210 comprend encore plus préférentiellement une première lampe infra-rouge 211 et une deuxième lampe infra-rouge 212. La source de rayonnement électromagnétique est préférentiellement d'intensité variable. Préférentiellement, l'ordinateur de bord 230 envoie à l'interface électronique 240 la puissance que doit émettre la LED infra-rouge 211, 212. Dans une réalisation de l'invention, la LED infra-rouge 211, 212 peut prendre deux états: les états éteint et allumé à pleine puissance.
L'élément mobile 200 comprend préférentiellement une antenne reliée à l'ordinateur de bord 230, notamment pour communiquer avec le serveur 400. L'antenne peut par exempte être une antenne wi-fi. Dans une réalisation de l'invention, l'antenne est intégrée dans une tablette qui sert d'ordinateur de bord 230 et de tableau de bord 260. Dans une réalisation de l'invention, le wi-fi est sécurisé par WPA2-PSK, mais une autre type de sécurité pourrait être utilisée.
L'élément mobile 200 peut comprendre d'autres boutons avec des utilités différentes selon le monde de jeu {utilisation bonus, changement de bonus, ..).
Le pilote démarre son kart. Il adapte la conduite du kart, en actionnant des actionneurs 220 comme l'accélérateur 221, le frein 222, le volant 223, à la forme de la piste 911 , aux effets des moyens d'actions 250 et à la présence d'autres karts s'il y en a. Les instructions 202 données par le pilote 700 en actionnant les actionneurs 220 génèrent une information d'instruction qui est envoyée au serveur 400. Le système 100 de localisation détermine en permanence la position du kart, pour autant que le kart soit dans l'ensemble des surfaces 120 de captation des capteurs 110 (la figure 2) et envoie une information de position correspondant au serveur 400.
Le serveur 400 détermine, sur base de l'information d'instruction et sur base de l'information de position, la prochaine étape de la partie. Cette étape peut être la projection de l'image d'un objet en avant du kart, la possibilité pour le kart d'aller plus vite, un changement de forme de la piste, la possibilité pour le pilote 700 de tirer sur un autre pilote grâce à un pistolet 258 monté sur le kart, ... Ce tir peut être virtuel avec une ou plusieurs image(s) partielle(s) le rendant perceptible visuellement. Ce tir peut aussi utiliser un pointeur laser. Cette prochaine étape peut aussi être que rien ne change dans l'image 600 et dans les caractéristiques de l'élément mobiie 200. Le dispositif de gestion 500 peut éventuellement intervenir dans cette détermination de la prochaine étape, par exemple en limitant la vitesse de tous les karts en agissant sur leur moteur 251 , 252 si l'administrateur juge que les pilotes conduisent trop dangereusement.
Le serveur 400 est un dispositif situé à proximité du système de création d'environnement 800 ou à distance de celui-ci. La connexion entre ie serveur 400 et le système de création d'environnement 800 peut se faire par internet. Le serveur 400 peut gérer plusieurs systèmes de création d'environnement 800 en parallèle. Le serveur 400 comprend préférentieliement une antenne, notamment pour communiquer directement avec l'élément mobile 200. Le serveur 400 peut être un ensemble d'éléments comme un ensemble d'ordinateurs.
L'ordinateur de bord 230 communique avec le serveur 400, avec l'interface électronique 240 et avec le tableau de bord 260. L'ordinateur de bord 230 reçoit et envoie des informations sous forme de signaux digitaux. L'ordinateur de bord 230 peut comprendre plusieurs ordinateurs et/ou l'élément mobile 200 peut comprendre plusieurs ordinateurs de bord.
L'interface électronique 240 permet d'envoyer des signaux analogiques, d'envoyer des signaux numériques, de recevoir des signaux analogiques et de recevoir des signaux numériques.
L'interface électronique 240 est préférentieliement une carte de circuit imprimé capable de transformer les signaux digitaux reçus de l'ordinateur de bord 230 en signaux analogiques destinés aux éléments autres que l'ordinateur de bord 230 auxquels elle est connectée, c'est-à- dire l'émetteur 210, la batterie 290, les actionneurs 220 et les moyens d'action 250. Dans une réalisation de l'invention, l'ordinateur de bord 230 et l'interface électronique 240 permettent que l'élément mobile 200 soit en communication en temps réel avec le serveur 400. Dans une autre réalisation de l'invention, l'élément mobile 200 ne comprend pas d'ordinateur de bord 230 et l'interface électronique 240 communique directement avec le serveur 400.
Le serveur 400 peut ainsi influencer le comportement de l'élément mobile 200 via les moyens d'action 250. Le serveur 400 peut aussi ainsi recevoir des informations concernant les instructions données par le pilote 700 en actionnant les actionneurs 220.
Le tableau de bord 260 est un dispositif capable d'afficher des informations pour ie pilote 700. Par exemple, le tableau de bord 260 peut être un écran ou un écran d'une tablette tactile. Le tableau de bord 260 reçoit préférentieilement des informations de l'ordinateur de bord 230 sous forme de signaux digitaux et en envoie potentiellement. Dans une réalisation de l'invention, le tableau de bord 260 et l'ordinateur de bord 230 sont un même appareil. Le tableau de bord 260 peut par exemple afficher des informations concernant l'état du frein, l'état de l'accélérateur, un bonus prêt à être utilisé, un état de points de vie du pilote, un flash aveuglant, de la publicité...
La caméra 265 est capable de prendre des photos et/ou de filmer. La caméra 265 peut être incluse dans la tablette tactile qui inclut aussi le tableau de bord 260. La caméra 265 envoie les images qu'elle capte vers le serveur 400, préférentieilement en passant via l'ordinateur de bord 230.
L'émetteur 210 émet un signal, préférentieilement une onde électromagnétique, permettant la localisation de l'élément mobile 200 par le système 100 de localisation, et en particulier par les capteurs 110. L'émetteur 210 émet un signal principalement vers le haut si les capteurs 10 sont situés en hauteur par rapport à l'élément mobile 200. Les LEDs 211 , 212 sont préférentiellement des LEDs (light-emitting diodes en anglais signifie diodes électroluminescentes) infrarouges de puissance. Les LEDs
211, 212 ont préférentiellement une puissance entre 5 et 50 watt. Les LEDs 211 , 212 on plus préférentiellement 15 watt de puissance. Les LEDs 211, 212 ont préférentiellement 900nm de longueur d'onde. Ces LEDS permettent d'avoir une bonne localisation des éléments mobiles 200 par Se système de localisation 100 quels que soient l'angle d'émission du signal émis par l'émetteur 2 0 et l'angle d'incidence de ce signal sur les capteurs 110.
Le fait que l'émetteur 210 comprenne préférentiellement deux sources de signal, c'est-à-dire les deux LEDs infrarouge de puissance 211 ,
212, permet qu'en cas de panne d'une des deux sources de signal, l'autre permet toujours la localisation de l'élément mobile 200. Au lieu ou en plus des LEDs infrarouges de puissance 211, 212, l'émetteur 210 peut potentiellement comprendre une ou plusieurs des sources de signal suivantes, en un ou plusieurs exemplaires: une lampe à incandescence, une lampe à incandescence infrarouge , un assemblage de LEDs infrarouges qui, prises individuellement n'ont pas une puissance suffisante pour être perçues de façon fiable par les capteurs, mais dont l'ensemble a une puissance suffisante pour être perçu de façon fiable par les capteurs.
Les actionneurs 220 sont des organes qui permettent au pilote 700 de donner des instructions à l'élément mobile 200. Les actionneurs 220 sont préférentiellement indépendants les uns des autres et l'interface électronique 240 communique de façon indépendant avec chacun des actionneurs 220. Les actionneurs 220 reçoivent des informations du pilote 700, sous forme de mouvements (mouvement de pied pour le frein par exemple ou toucher d'une icône) et envoie des informations à l'interface électronique sous forme de signaux analogiques. Le contenu de ces informations est ensuite transmis à l'ordinateur de bord 230 sous forme de signaux digitaux, par exemple par un protocole Ethernet, puis au serveur 400 sous forme de signaux digitaux. Le bouton de tir 224 est préférentieilement situé sur le volant 223. Certaines des actionneurs 220 peuvent être situés sur la tablette tactile dont l'écran forme le tableau de bord 260.
Dans une réalisation alternative de l'invention, un ou plusieurs actionneurs 220 ont une action directe sur un ou plusieurs moyens d'action 250 et/ou éléments de l'élément mobile 200. Par exemple, le volant 223 peut agir sur un axe pour orienter l'élément mobile 200.
Les moyens d'action 250 sont des organes qui permettent à l'interface électronique 240 d'agir sur des éléments appartenant à l'élément mobile 200. Les moyens d'action 250 sont préférentieilement indépendants les uns des autres et moyens d'action 250 communiquent de façon indépendante avec l'interface électronique 240. Dans une réalisation de l'invention, il est possible que certains des actionneurs 220 agissent sur certains moyens d'action 250 sans passer par l'interface électronique 240.
Par exemple, pour créer une sensation de perte de contrôle du kart par le pilote 700, le serveur 400 peut demander que le moteur droit 251 fasse freiner la roue arrière droite 295a tandis que le moteur gauche 252 fait accélérer la roue arrière gauche 295b . Cette demande est relayée du serveur 400 à l'ordinateur de bord 230, puis à l'interface électronique 240 qui la transmet au moteur droit 251 et au moteur gauche 252.
Préférentieilement, pour créer une sensation de perte de contrôle du kart par le pilote 700, le serveur 400 informe l'ordinateur de bord 230 de l'élément mobile 200 (touché par un bonus, risque de collision et potentiellement des effets qui en découlent ...) et l'ordinateur de bord 230 effectue le calcul de la vitesse envoyée à chacun des moteurs 251 , 252. Cela permet que l'information de l'accélérateur n'ait pas besoin d'aller jusqu'au serveur 400 pour être exploitée pour le calcul de l'accélération à envoyer à chaque moteur 251 , 252.
Le calcul de !a vitesse envoyée à chacun des moteurs 251 , 252 peut aussi être dans le serveur 400 ou dans l'interface électronique 240 qui comprend préférentiellement un ou plusieurs microcontrôleurs.
La sensation de perte de contrôle peut aussi être crée par des roues directionnelles tournant indépendamment de la volonté du pilote en débrayant ou non le volant.
Les moteurs 251, 252 agissent préférentiellement sur les roues arrières et peuvent faire accélérer, freiner ou vibrer la roue en accélérant et freinant de manière successive et rapprochée dans le temps
Le ou les haut-parleurs 259 peuvent être présents sur un corps de l'élément mobile 200, par exemple sur le kart, ou sur un casque, par exemple un casque pour sport automobile, porté par le pilote 700. Si le pilote 700a de l'élément mobile 200a utilise son pistolet 258 pour tirer sur un deuxième élément mobile 200b, un bruit de tir avec le bruit d'une balle qui s'éloigne peut être produit par son haut-parleur 259 alors que le pilote 700b du deuxième élément mobile 200b a son haut-parleur qui produit un bruit de balle qui se rapproche, l'intensité de ce bruit de balle qui se rapproche dépendant des positions relatives de l'élément mobile 200a d'où le tir part et du deuxième élément mobile 200b.
L'éclairage de boutons du volant 255 correspond préférentiellement à quatre boutons du volant 255.
L'écran arrière affiche préférentiellement le nom du pilote 700 conduisant l'élément mobile 200, sa position et sa couleur (selon son niveau ou selon son équipe selon le type de partie).
La batterie 290 est une batterie électrique, qui peut être chargée par le chargeur 291 de la batterie. Un réservoir à combustible à la place de la batterie 290 est aussi possible dans le cadre de la présente invention. La batterie 290 est préférentieilement en communication avec le serveur 400 via l'interface électronique 240 et l'ordinateur de bord 230 afin que le serveur 400 reçoive une information concernant l'état de charge de ia batterie 290. Un transformateur DC/DC est par exemple connecté à la batterie 290 pour transformer le 48V généré par la batterie 290 en 12V de manière à alimenter en électricité l'ordinateur de bord 230 qui fonctionne en 12V et l'interface électronique 240 qui fonctionne également en 12V.
Dans une réalisation de l'invention, l'élément mobile 200 inclut quatre cartes électroniques. Trois des cartes électroniques sont alimentées en 12V avec un régulateur qui transforme le 12V en 5V car un microprocesseur présent sur la carte utilise du 5V. La quatrième carte électronique est alimentée directement en 5V.
Les éléments compris dans l'élément mobile 200 dans la réalisation de l'invention où l'élément mobile 200 est un kart ne sont pas nécessairement présents dans toutes les réalisations de l'invention, ou peuvent être présents sans être présents sur l'élément mobile 200.
Dans une réalisation de l'invention, l'élément mobile 200 peut être une voiture téléguidée, auquel cas le pilote 700 commande la voiture téléguidée de loin en regardant l'image 600 et actionnant les actionneurs 220 qui ne sont pas sur la voiture téléguidée.
Dans une réalisation de l'invention, l'élément mobile 200 l'équipement porté par le pilote 700. Par exemple, l'élément mobile 200 est un joueur de laser-game, qui est le pilote 700, et l'équipement de laser- game de cette personne, qui comporte un pistolet 258, un émetteur 210, un bouton de tir 224,... mais ne comporte pas de moteur 251, 252 ou de volant 223.
Dans une réalisation de l'invention, l'élément mobile 200 est un robot se déplaçant dans une usine et qui est actionné par le serveur 400 sans intervention d'un pilote percevant l'image 600. Dans ce cas, les actionneurs 220 ne sont pas présents sur le robot, mais il peut y avoir plus de moyens d'action 250 pour que le serveur 400, via l'ordinateur de bord 230 et l'interface 240 contrôle le robot. Le robot peut potentiellement comprendre une caméra 265 capable de percevoir l'image 600.
La figure 4 schématise un fonctionnement 299 de l'élément mobile
200, tenant compte d'interactions avec le serveur 400, selon une réalisation de la présente invention.
Le serveur 400 réalise une détermination 430 d'une information de caractéristiques qui résulte en une information 403 de caractéristiques qui est envoyée à l'ordinateur de bord 230. L'information 403 de caractéristiques peut être adaptée à chacun des éléments mobiles 200 présents dans le système de création d'environnement 800.
Sur base de l'information 403 de caractéristiques, l'ordinateur de bord 230 réalise une détermination 241 d'information pour le tableau de bord, qui résulte en une information 242 pour le tableau de bord qui est envoyée au tableau de bord 260. Sur base de l'information 242 pour le tableau de bord, le tableau de bord 260 réalise une modification 243 d'affichage qui est perçue par le pilote 700 lors d'une étape de perception 244 de modification de l'affichage.
Sur base de l'information 403 de caractéristiques, l'ordinateur de bord 230 réalise une détermination 231 d'information pour l'interface électronique, qui résulte en une information 232 pour l'interface électronique qui est envoyée à l'interface électronique 240. Sur base de l'information 232 pour l'interface électronique, l'interface électronique 240 réalise une détermination 233 de signaux pour ies moyens d'action. Cette détermination 233 de signaux pour les moyens d'action comprend, pour un ou plusieurs moyens d'action 250, la détermination d'une valeur de signal préférentiellement analogique, qui sera envoyé au moyen d'action 250 en question. La détermination 233 de signaux pour les moyens d'action résulte en un signal 234 pour un premier moyen d'action qui est envoyé à un premier moyen d'action 250a qui, sur base du signal 234 réalise une modification 235 de ses caractéristiques. Potentiellement, la détermination 233 de signaux pour les moyens d'action résulte en un signal 237 pour un deuxième moyen d'action, un signal pour un troisième moyen d'action etc. Ainsi, le deuxième moyen d'action 250b base du signal 237 réalise une modification 238 de ses caractéristiques, etc.
La modification 235 des caractéristiques du premier moyen d'action 250a résulte en un effet 2351 qui est perçu par le pilote 700, lors d'une étape de perception 236 de l'effet provenant du premier moyen d'action 250a. La modification 238 des caractéristiques du deuxième moyen d'action 250b résulte en un effet 2381 qui est perçut par le pilote 700, lors d'une étape de perception 239 de l'effet provenant du deuxième moyen d'action 250b. Pour reprendre l'exemple donné ci-dessus, le pilote 700 perçoit qu'il perd le contrôle de son kart car la roue arrière droite freine tandis que la roue arrière gauche accélère. Le fait que la roue arrière droite freine tandis que la roue arrière gauche accélère correspond à la modification 235 des caractéristiques des roues. Chacun des moyens d'action 250, notamment ceux indiqués à la figure 3, peut, de façon similaire, avoir une modification 235 d'une ou plusieurs de ses caractéristiques techniques.
Le pilote 700 réagit à la perception 277 de l'affichage du tableau de bord et aux perceptions 236, 237 des effets en donnant des instructions 202 via un mouvement 245 sur un ou plusieurs actionneurs 220. Par exemple, le pilote 700 redresse son kart en tournant ie volant 223 en réaction à la perte de contrôle. Le mouvement 245 de chacun des actionneurs 220 actionné enclenche, par l'actionneur en question, une détermination 246 d'un signal d'actionneur qui résulte en un signal 247 d'actionneur qui est transmis à l'interface électronique 240. Sur base des signaux 247 d'actionneurs, l'interface électronique 240 réalise une détermination 248 d'une information pour l'ordinateur de bord, qui résulte en un signal 249 pour l'ordinateur de bord qui est transmis à l'ordinateur de bord 230. Sur base des signaux 247 d'actionneurs, l'interface électronique 240 peut aussi réaliser la détermination 233 de signaux pour les moyens d'action qui relance une première boucle: interface électronique 240→ moyens d'action 250 → pilote 700 → actionneurs 220 → interface électronique 240.
Sur base du signal 249 pour l'ordinateur de bord, l'ordinateur de bord 230 réalise une détermination 271 d'une information pour le serveur qui résulte en une information 203 pour !e serveur qui est envoyée au serveur 400. Sur base du signal 249 pour l'ordinateur de bord, l'ordinateur de bord 230 réalise aussi la détermination 231 d'information pour l'interface électronique ce qui relance une deuxième boucle: ordinateur de bord 230 → interface électronique 240→ moyens d'action 250→ pilote 700 -→ actionneurs 220→ interface électronique 240→ ordinateur de bord 230.
Sur base du signal 249 pour l'ordinateur de bord, l'ordinateur de bord 230 réalise aussi la détermination 241 d'information pour le tableau de bord ce qui relance une troisième boucle: ordinateur de bord 230 → tableau de bord 260 → pilote 700 → actionneurs 220 —► interface électronique 240→ ordinateur de bord 230.
Sur base de l'information 203 pour le serveur, le serveur 400 réalise la détermination 430 d'une information de caractéristiques, une détermination 420 d'une information de projection qui sera décrite plus loin ou d'autres étapes 273 qui peuvent mettre en jeu le dispositif de gestion ou d'autres éléments comme un éclairage d'ambiance .
La réalisation de la détermination 430 d'une information de caractéristiques relance une quatrième boucle, qui est potentiellement double: serveur 400→ ordinateur de bord 230→ interface électronique 240→ moyens d'action 250→ pilote 700→ actionneurs 220→ interface électronique 240→ ordinateur de bord 230→ serveur 400 et serveur 400 → ordinateur de bord 230 → tableau de bord 260→ pilote 700 -→ actionneurs 220→ interface électronique 240—► ordinateur de bord 230→ serveur 400.
Un ou plusieurs des première, deuxième, troisième et quatrième boucles se réalisent en permanence à haute fréquence, par exemple, jusqu'à 100 fois par seconde, durant tout le temps où l'élément mobile 200 fonctionne.
L'ensemble des étapes de détermination 231 d'information pour l'interface électronique, détermination 233 de signaux pour les moyens d'action, modifications 235, 238 des caractéristiques des moyens d'action, détermination 241 d'information pour le tableau de bord et modification 243 d'affichage est reprise par la suite sous l'étape d'adaptation 205 des caractéristiques de l'élément mobile. L'adaptation 205 des caractéristiques de l'élément mobile
Les étapes de détermination 246 d'un signal d'actionneur, détermination 248 d'une information pour l'ordinateur de bord et détermination 271 d'une information pour le serveur est reprise par la suite sous l'étape de transfert 208 des instructions. Le transfert 208 des instructions peut cependant comprendre d'autres étapes.
Dans une réalisation de l'invention, il est possible que certains des actionneurs 220 agissent directement sur certains moyens d'action 250. Par exemple, le frein mécanique d'un kart selon l'invention fonctionne préférentiellement comme sur un kart usuel et a la priorité sur l'accélérateur. Des variateurs (contrôleurs) des moteurs sont programmés de telle sorte que dès que l'accélération demandée par le pilote est nulle, les moteurs freinent. Un relai débranche l'accélérateur dès que le pilote touche à !a pédale de frein de manière à éviter de freiner et d'accélérer en même temps, ce qui a pour effet que dès que l'on touche au frein, l'accélération envoyée aux variateurs est nulle et les moteurs freinent.
Cette solution permet d'avoir plusieurs sécurités pour le freinage du kart et d'éviter le kart ait un comportement indésirable en cas de mauvaise programmation des microcontrôleurs ou de l'ordinateur de bord.
Dans une autre réalisation de l'invention, les variateurs des moteurs sont reprogrammés en temps réel avec l'ordinateur de bord. Les freins mécaniques des karts usuels sont alors éventuellement retirés de l'élément mobile selon l'invention et dans ce cas l'information du freinage passe d'abord par l'interface électronique avant d'agir sur le kart.
Chaque variateur prend le courant continu des batteries et le transforme en courant adapté au moteur auquel il correspond. Les moteurs sont préférentiellement de type « brushless », ce qui fait que le courant est aussi fonction de l'état de rotation du moteur.
L'élément mobile 200 inclut préférentiellement un procédé d'arrêt d'urgence. Grâce au procédé d'arrêt d'urgence, un variateur présent sur le moteur droit 251 et un variateur présent sur le moteur gauche 252 sont configurés pour qu'en l'absence de signal 234 venant de l'interface électronique 240 pour le moteur en question, l'élément mobile 200 freine fortement. Cela permet que l'élément mobile 200 ralentisse fortement en cas de problème, notamment en cas de problème lié à l'interface électronique 240. Un tel procédé peut être aussi utilisé sur tout moyen d'actions 250.
L'élément mobile 200 inclut préférentiellement un procédé de roue libre. Grâce au procédé de roue libre, lorsque le pilote 700 relâche l'accélérateur 221 , l'ordinateur de bord 230 envoie à l'interface électronique 240, dans l'information 232 pour l'interface électronique, un message digital indiquant que leurs moteurs 251, 252 doivent agir comme si les roues étaient en roue libre. Par exemple, lorsque l'élément mobile a une vitesse donnée et que l'accélération passe subitement d'une valeur A1 à une valeur inférieure A2, l'ordinateur de bord 230 envoie à chaque itération A = A1 - p*(A1-A2), avec un paramètre P valant entre 0,001 et 0,1. Ceci permet de faire réduire progressivement la vitesse de l'élément sans le faire freiner brutalement et d'avoir à terme l'accélération demandée. L'interface électronique 240 envoie alors, dans le signal 234 pour le moteur droit et dans le signal 234 pour le moteur gauche, un message analogique indiquant aux moteurs 251, 252 qu'ils doivent agir comme si les roues étaient en roue libre. Cela permet d'éviter que l'élément mobile 200 ne freine brutalement quand l'accélérateur 221 est relâché par le pilote 700.
Le système peut fonctionner sans que certaines actions ne soient transmises au serveur 400. L'ordinateur de bord reçoit des informations du serveur et c'est lui qui détermine de ce qui est envoyé à l'interface électronique sur base des actionneurs actionnés par le pilote et des informations reçues du serveur. L'état du bouton d'arrêt d'urgence est par exemple préférentieliement envoyé au serveur. Par contre, l'état de l'accélérateur n'est préférentieliement pas envoyé au serveur.
Dans une réalisation de l'invention, le variateur du moteur est reprogrammé en temps réel afin que le variateur n'ait pas ie comportement qui fait freiner les moteurs lorsque l'accélération demandée est nulle
La figure 5 schématise le système 300 de projection selon une réalisation de la présente invention, et présente aussi une image 600 projetée par le système 300 de projection et le serveur 400.
Le système 300 de projection comprend une pluralité d'ordinateurs
303 de flux vidéos et une pluralité de projecteurs 310. Chaque ordinateur 303 de flux vidéo communique avec le serveur 400. Le serveur 400 peut faire office d'ordinateur 303 de flux vidéo. Chaque ordinateur 303 de flux vidéo gère au moins un projecteur 310 avec lequel il communique. Chaque projecteur 310 inclut préférentiellement un circuit électronique de type FPGA.
L'ordinateur 303 de flux vidéo réalise préférentiellement l'allumage, la mise en veille des projecteurs 310 qu'il gère, mais cela peut être fait aussi directement par ie serveur 400, le dispositif de gestion 500 ou un autre dispositif L'ordinateur 303 de flux vidéo reçoit de Sa part du projecteur 310 qu'il gère des informations concernant sa température, ses alarmes s'il y en a et transmet ces informations vers le serveur 400 qui les enregistre afin d'anticiper de possibles pannes.
Comme déjà décrit à la figure 2, chaque projecteur 310 émet un cône 611 de projection et l'image résultant de l'intersection du cône 611 avec une surface, qui est préférentiellement un sol, est l'image 610 partielle. Le projecteur 310 est préférentiellement focalisé de façon à ce que l'image 610 partielle soit nette. L'image 600 générée par le système de projection comprend l'ensemble des images 610 partielles générées par l'ensemble des projecteurs 310.
Dans une réalisation de l'invention, les actions réalisées par l'ordinateur 303 de flux vidéo peuvent être réalisées par le serveur 400. Il n'y a alors pas d'ordinateur 303 de flux vidéo en tant que tel.
L'ordinateur 303 de flux vidéo peut être un appareil relativement simple et/ou ayant peu de puissance de calcul, comme un raspberry PI ou un smartphone avec une sortie vidéo. Dans une réalisation de l'invention, l'ordinateur 303 de flux vidéo dispose d'un dispositif d'envoi d'images sans fil ou tout autre dispositif permettant de générer une image et d'envoyer son signal vers un projecteur 3 0.
Dans une réalisation de l'invention, le projecteur 310 et l'ordinateur de flux vidéo 303 ne sont qu'un seul et même appareil, par exemple un smartphone disposant d'un vidéoprojecteur incorporé. La figure 6 schématise une installation 399 du système 300 de projection selon la présente invention. L'installation 399 du système de projection comprend un placement 330 du matériel du système de projection et une calibration 320 du système de projection.
Le placement 330 du matériel du système de projection comprend un placement 331 des projecteurs, un placement des ordinateurs 303 et un placement 333 de câblage (ou une installation d'un système sans fil) entre les projecteurs 310, les ordinateurs 303 de flux vidéo et le serveur 400.
Les projecteurs 310 sont préférentiellement placés en hauteur et projettent leur image 610 partielle vers le sol. L'image 610 partielle projetée par le projecteur 310 est d'autant plus grande que le projecteur 310 et l'image 610 sont loin l'un de l'autre mais plus la distance entre eux grandit, plus la luminosité de l'image 6 0 partielle diminue et plus les pixels sont visibles sur l'image 610 partielle. Un pixel de l'image 610 partielle recouvre préférentiellement une surface inférieure à 1 cm sur 1 cm.
Dans une réalisation de l'invention, les projecteurs 310 sont des projecteurs grand angle placés à une hauteur d'environ 6m par rapport au sol et les images 610 partielles font 10 m x 7,5 m.
Les projecteurs 310 sont préférentiellement placés de façon à ce que les images 610 partielles des différents projecteurs 310 se recouvrent de façon à éviter un espace sans image entre des images 6 0 partielles. Il existe donc une zone de recouvrement à la frontière entre les images 610 partielles de plusieurs projecteurs 310. Afin d'éviter d'avoir une zone de luminosité double dans cette zone de recouvrement, un filtre de dégradé vers le noir est appliqué dans cette zone pour avoir une luminosité uniforme et masquer les frontières de projection. Par exemple, le recouvrement peut se faire sur une zone de 30 pixels.
Il n'est cependant pas nécessaire que les images 610 partielles se recouvrent. Les projecteurs 310 sont préférentiellement placés fonction de contraintes dues à l'environnement dans lequel le système 300 de projection est mis en œuvre. Ces contraintes peuvent être dues à une structure de poutres, à la forme d'un plafond, à la forme d'une armature préexistant ou mise en place pour le système 300 de projection.
Les projecteurs 310 sont préférentiellement placés les uns par rapport aux autres pour former une grille qui recouvre l'ensemble de la surface sur laquelle il est souhaité de projeter l'image 600. Les projecteurs 310 n'ont pas besoin d'être alignés. Cela représente un avantage du système 300 de projection selon l'invention car un alignement des projecteurs 310 est parfois compliqué à réaliser, notamment à cause des contraintes dues à l'environnement dans lequel le système 300 de projection est mis en œuvre.
La surface sur laquelle il est souhaité de projeter l'image 600 est préférentiellement entre 100 et 100000 m2. La surface sur laquelle il est souhaité de projeter l'image 600 est plus préférentiellement entre 1000 et 10000 m2.
Il y a préférentiellement entre 10 et 10000 projecteurs 310. il y a plus préférentiellement entre 20 et 1000 projecteurs 310. Il y a encore plus préférentiellement entre 1 et 200 projecteurs 310.
Les ordinateurs 303 de flux vidéo sont préférentiellement placés de manière à minimiser la longueur des câbles HDMI entre les ordinateurs 303 de flux vidéo et les projecteurs 310. Les ordinateurs 303 de flux vidéo peuvent être placés dans le local serveur et transmettre les images sur de longues distance via de la fibre optique, ou un ordinateur de projection peut être utilisé par projecteur et être placé juste à côté.
La calibration 320 du système de projection comprend, pour chaque projecteur 310, une détermination 321 d'une surface correspondant à l'image 610 partielle, un choix 322 de la résolution d'affichage, une projection 323 de l'image 610 partielle et un ajustement 324 de l'image 610 partielle pour que l'image 610 partielle corresponde effectivement à la surface déterminée. Cet ajustement 324 est préférentieliement réalisé par un ajustement d'un ou plusieurs angles de l'image 610 partielle réalisé par le FPGA du projecteur 310. Cet ajustement 324 est préférentieliement réalisé par une fonction de type « Quick Comer » disponible sur certains projecteurs de marque Epson. L'ajustement 324 pourrait être réalisé par les ordinateurs de flux vidéo 303.
La détermination 321 d'une surface correspondant à l'image 610 partielle détermine la partie de l'image 600 qui est comprise dans l'image 610 partielle et inclut l'enregistrement des coordonnées de l'image 610 partielle dans un système de coordonnées globales. Préférentieliement, si l'image 6 0 partielle est un quadrilatère les coordonnées des quatre coins de l'image 610 partielle sont enregistrées dans le serveur 400 et/ou l'ordinateur 303 de flux vidéo qui gère le projecteur 310.
L'ensemble de la calibration 320 est préférentieliement réalisée de façon automatique par un logiciel tournant sur le serveur 400 et/ou un ou plusieurs ordinateurs 303 de flux vidéo. Plus préférentieliement, l'ensemble de la calibration 320 pour le projecteur 310 est réalisée grâce à un logiciel exécuté sur le dispositif de gestion 500. Par exemple, un opérateur indique au serveur 400 via le dispositif de gestion 500 quel point il souhaite calibrer et le calibre et le serveur 400 enregistre la valeur et/ou l'envoie au projecteur.
La figure 7 schématise un fonctionnement 398 du système 300 de projection selon la présente invention. Le serveur 400 réalise une détermination 420 d'une information de projection qui résulte en une information 402 de projection. L'information 402 de projection comprend des informations concernant l'image 600 (par exemple une piste de karting ou une arène de karting), les différents éléments mobiles 200 et leur position, leur direction, leur état (en apparition, leur vie (en %), en disparition, invisible). La même information 402 de projection est préférentiellement envoyée à tous les ordinateurs 303 de flux vidéo.
Lors d'une étape de détermination 341 de flux vidéo, chaque ordinateur 303 de flux vidéo détermine un flux vidéo pour chaque projecteur 310 qu'il gère, sur base de l'information 402 de projection et des coordonnées des images 610 partielles dudit projecteur 310. La détermination 341 de flux vidéo comprend préférentiellement une fluidification du contenu des images 610 partielles de façon à ce qu'un élément de l'image 600 ne bouge pas de façon hachée. La détermination 341 de flux vidéo comprend une gestion de changement d'état. Par exemple, lorsqu'un atteint sa cible, le missile explose et une animation d'explosion est affichée. La détermination 341 de flux vidéo assure une synchronisation entre les différents ordinateurs 303 de flux vidéo.
La détermination 341 de flux vidéo inclut préférentiellement l'utilisation d'un moteur graphique qui est réparti sur les différents ordinateurs 303 de flux vidéo, chaque ordinateur 303 de flux vidéo réalisant la détermination 341 de flux vidéo correspondant aux images 610 partielles des projecteurs 310 qu'il gère.
La détermination 341 de flux vidéo résulte en un flux vidéo 342 qui est différent pour chaque projecteur 310 et qui comprend le rendu visuel de l'image 610 partielle. Le flux vidéo 342 est envoyé au projecteur 310 correspondant qui, sur base de ce flux vidéo 342, projette 343 l'image 610 en l'ayant éventuellement ajustée pour la déformation. Une projection 301 réalisée par le système 300 de projection, telle que décrite plus loin avec le support de ta figure 12, comprend les étapes de détermination 341 de flux vidéo et de projection 343 d'image.
La figure 8 schématise le système 100 de localisation selon une réalisation de la présente invention, et présente aussi une pluralité d'éléments mobiles 200, dont deux 200a, 200b sont illustrés, et le serveur 400.
Le système 100 de localisation comprend préférentiellement une pluralité de deuxièmes circuits 119, chacun des deuxièmes circuits 119 comprenant un microcontrôleur 112. Seulement deux deuxièmes circuits 119a, 119b sont illustrés. Chaque deuxième circuit 119 est en communication avec un premier circuit électronique 111 qui comprend préférentiellement un capteur 110, un système d'affichage 117 et un système 118 d'identification de capteur et optionneilement des moyens de calculs 116. Dans une réalisation de l'invention non-illustrée, un deuxième circuit 119 est en communication avec plusieurs premiers circuits électroniques 111 et/ou au moins un deuxième circuit 119 circuit électronique 111 comprend plus d'un capteur 110.
Dans une réalisation de l'invention, chaque premier circuit 111 est fusionné avec le deuxième circuit 119 lui correspondant.
Chaque capteur 110 a un cône 121 de captation et perçoit le ou les éléments mobiles 200 présents dans son cône 121 de captation. En particulier, les capteurs 110 perçoivent les signaux émis par les émetteurs 210 présents dans leur cône 121 de captation.
Le capteur 110 est capable de détecter le rayonnement infrarouge.
Le capteur 110 comprend préférentiellement un filtre 113, une caméra 114 et un dispositif 115 de traitement de données. Le filtre 113 est préférentiellement un filtre laissant passer l'infrarouge. La caméra 114 est préférentiellement une caméra monochrome capable de détecter du rayonnement infrarouge, et comprend par exemple une matrice de 128x96 pixels. Le dispositif 115 de traitement de données est par exemple un FPGA.
La caméra 114 prend une image à une première résolution et envoie cette image au dispositif 115 de traitement de données. Le dispositif 115 de traitement de données réalise une analyse en sub-pixels pour augmenter la résolution de l'images prise par la caméra 114 et obtenir une deuxième résolution supérieure à la première. Cette deuxième résolution, par exemple de 1024x768 pixels, est à la dimension d'une matrice 122 de capteur qui est une information de sortie du capteur 110.
Chaque capteur 110 localise jusqu'à quatre éléments mobiles 200 sur la matrice 122 de capteur de 1024x768 pixels avec une fréquence de 500Hz.
Le système d'affichage 117 est préférentieilement composé d'une pluralité de diodes électroluminescentes. Le système d'affichage 117 est plus préférentieilement composé de quatre diodes électroluminescentes. Le système d'affichage 117 est en communication avec !e capteur 110 de façon à ce que le nombre de diodes électroluminescentes allumées soit égal au nombre de points détectés par le capteur 110.
Le système 118 d'identification de capteur est préférentieilement capable de créer un identifiant du capteur 110a. Grâce à l'identifiant du capteur 110a, le serveur 400 identifie l'information 102 de position provenant du capteur 1 0a potentiellement via le microcontrôleur 112a, comme provenant de ce capteur 110a parmi la pluralité de capteurs 110 connectés au serveur 400. Cette identification par le serveur 400 est préférentieilement réalisée en incluant l'identifiant du capteur 110 dans l'adresse du capteur 110. Cela permet que !e serveur 400 ne doive pas lire le contenu de l'information 102 de position pour identifier le capteur à son origine.
Le système 118 d'identification de capteur est préférentieilement composé d'une première pluralité d'éléments de contact dans laquelle les éléments de contact ont une référence commençant par X et d'une deuxième pluralité d'éléments de contact dans laquelle les éléments de contact ont une référence commençant par Y. Lors de l'installation du capteur 110, des contacts sont créés sur ses éléments de contact (par exemple en plaçant des cavaliers) de façon à ce que la position du capteur dans une première direction (coordonnée en X) soit indiquée par l'ensemble des éléments de contact de la première pluralité où un contact se produit, et la position du capteur dans une deuxième direction (coordonnée en Y) soit indiquée par l'ensemble des éléments de contact de la deuxième pluralité où un contact se produit. Ces coordonnées en X, Y sont ensuite reprises dans une adresse, par exemple adresse IP, du deuxième circuit 119 qui permet au serveur 400 d'identifier le deuxième circuit 119 et par conséquent le capteur 110 correspondant au deuxième circuit 19. Le serveur 400 identifie ainsi de quel capteur 0 provient une information grâce à l'adresse d'où provient l'information. Cela retire la contrainte de faire identifier les deuxièmes circuits 119 ou les capteurs 110 par le serveur 400 à l'aide d'un élément logiciel.
Dans une réalisation de l'invention, l'information concernant l'identification du capteur 110 se situe dans les octets 3 et 4 de l'adresse IP du capteur 1 0. C'est-à-dire que les deux derniers chiffres de ΙΊΡ (IPV4) précisent l'ID du capteur 110.
Une fonction du microcontrôleur 112 est d'interroger le capteur 110. Une autre fonction du microcontrôleur 112 est de transmettre des informations reçues du capteur au serveur 400. Une autre fonction du microcontrôleur 112 est d'allumer les diodes du système d'affichage 117.
La communication entre les premiers circuits électroniques 111 et les deuxièmes circuits 119 se fait préférentiellement par un bus de données de type I2C. La communication entre les deuxièmes circuits 119 et le serveur 400 se fait préférentiellement par le protocole Ethernet. L'utilisation d'Ethernet permet le transfert de données sur des grandes distances. L'utilisation d'Ethernet permet aussi l'utilisation de Power over Ethernet (PoE). Le PoE permet d'alimenter en électricité un appareil connecté au réseau via le câble Ethernet. Le PoE permet ainsi d'alimenter en électricité les capteurs 110 sans voir à installer des prises de courant et des transformateurs pour ceux-ci.
La communication de données par les deuxièmes circuits 119 nécessite de la part des microcontrôleurs 1 2 un traitement, ce qui peut limiter la fréquence du système 100 de localisation à 270Hz alors que la fréquence de captation des capteurs est de 500Hz.
Dans le cas où aucun élément mobile 200 n'est détecté par le capteur 110, le microcontrôleur 112 correspondant audit capteur 110 diminue la fréquence à laquelle il envoie des informations au serveur 400 afin d'éviter au serveur 400 de traiter des informations inutiles.
Les capteurs 110 sont préférentiellement placés en hauteur par rapport aux éléments mobiles 200, sur des moyens de fixation. Les capteurs 110 sont préférentiellement placés à une hauteur de 3 à 10m par rapport au sol. Par exemple, les capteurs 110 peuvent être placés à une hauteur d'environ 6m par rapport au sol.
Les capteurs 110 sont préférentiellement placés sur les moyens de fixation qui sont eux-mêmes placés en fonction de contraintes dues à l'environnement dans lequel le système 100 de localisation est mis en œuvre. Ces contraintes peuvent être dues à une structure de poutres, à la forme d'un plafond, à la forme d'une armature préexistant ou mise en place pour le système 100 de localisation.
Les capteurs 110 sont préférentiellement placés de façon à ce que tes cônes 121 de captation de l'ensemble des capteurs 110 du système 100 de localisation couvrent un volume, et ainsi une surface au soi, dans lequel il est souhaité de localiser des éléments mobiles 200. Les capteurs 110 n'ont pas besoin d'être alignés. Cela représente un avantage du système 100 de localisation selon l'invention car un alignement des capteurs 110 est parfois compliqué à réaliser, notamment à cause des contraintes dues à l'environnement dans lequel le système 100 de localisation est mis en œuvre.
Le système 100 de localisation comprend préférentiellement de 1 à 10000 capteurs 110. Le système 100 de localisation comprend plus préférentiellement de 100 à 1000 capteurs 110.
La figure 9 schématise une installation 198 du système 100 de localisation selon la présente invention. L'installation 198 du système de localisation comprend un placement 170 du matériel du système 100 de localisation et une calibration 80 du système 100 de localisation.
Le placement 170 de matériel du système 100 de localisation comprend préférentiellement un placement 171 des premiers circuits électroniques, un placement 172 des deuxièmes circuits électroniques connectés aux premiers circuits électroniques et un placement 173 des câbles Ethernet. Les câbles I2C et/ou les câbles Ethernet peuvent être remplacés par un autre moyen de communication, comme un moyen de communication sans fil.
Le placement 171 des premiers circuits électroniques, qui comprend le placement des capteurs 110, est fait de telle façon que les surfaces 120 de captation des capteurs se recouvrent partiellement, de façon à ce l'ensemble de la surface dans laquelle il est souhaité de réaliser des localisations soit couverte par l'ensemble des capteurs 110. Autrement dit, il n'existe pas de zone non-captée entre les différentes surfaces 120 des différents capteurs 110 sur l'ensemble de la surface que l'on souhaite être couverte.
Les capteurs 110 sont préférentiellement placés fonction de contraintes dues à l'environnement dans lequel le système 100 de localisation est mis en œuvre. Ces contraintes peuvent être dues à une structure de poutres, à la forme d'un plafond, à la forme d'une armature préexistant ou mise en place pour le système 100 de localisation. Les capteurs 110 sont préférentieliement placés les uns par rapport aux autres pour former une grille qui recouvre telle que les capteurs 110 détectent des objets sur l'ensemble de la surface sur laquelle il est souhaité de localiser des objets. Les capteurs 110 n'ont pas besoin d'être alignés. Cela représente un avantage du système 300 de localisation selon l'invention car un alignement des capteurs 110 est parfois compliqué à réaliser, notamment à cause des contraintes dues à l'environnement dans lequel le système 00 de localisation est mis en œuvre.
La calibration 180 du système de localisation comprend une détermination 181 de position de capteurs durant laquelle le serveur 400 détermine, sur base d'une information préalable, comme celle fournie par exemple par le système 118 d'identification des capteurs, une localisation approximative pour chacun des capteurs 110.
Ensuite, durant une détermination 182 des surfaces à couvrir, le serveur 400 détermine, ia surface 123/ à couvrir pour chaque capteur 110/ ou / est un entier égal ou supérieure à un (voir figure 0). Les surfaces 123/ à couvrir sont préférentieliement déterminées de façon à ce que la surface 123/ à couvrir d'un capteur donné 110/ soit comprise dans la surface 120/ de captation du capteur 110/ et de façon à ce que les surfaces 123/ à couvrir de capteurs 0/ qui se suivent dans la grille de capteurs soient adjacentes, il existe donc des zones couvertes par plus d'un capteur 110/'. Les surfaces 123/ à couvrir sont préférentieliement des quadrilatères, plus préférentieliement des rectangles d'environ 4m x 2,5m. Lors de cette détermination 182 des surfaces à couvrir, le serveur 400 détermine préférentieliement un point approximativement central pour chaque surface 123/ à couvrir et quatre points de coins qui sont les coins 130/, 131/, 132/, 133/ de la surface 123/ à couvrir (voir figure 10).
La calibration 180 du système de localisation comprend ensuite un ajustement 160 de position des capteurs et un étalonnage 150. L'ajustement 160 de position des capteurs comprend préférentiellement une boucle sur les capteurs 110. Considérons l'itération de cette boucle pour le "16 capteur 110/. Par l'envoi 161 d'une information de point central, le serveur 400 indique au système 300 de projection que le système 300 de projection doit projeter une image d'ajustement indiquant dans quelle position ajuster le capteur 110/. Par exemple, le système 300 de projection projette un point, c'est-à-dire une image d'ajustement, au point correspondant au point central de la surface 123/ à couvrir par le capteur 110/. Le système 300 de projection projette un point au point correspondant au point central de la surface 123/ à couvrir par le capteur 0/ lors d'une projection 162 de point centrai. Un émetteur infra-rouge portable est alors placé sur la projection du point central lors d'un placement 163 de point central. Le placement 163 peut se faire manuellement ou être réalisé par un robot suiveur, comprenant l'émetteur infra-rouge portable, qui suit des lignes de guidage projetées par le système 300 de projection. Un ajustement 164 d'orientation du capteur 110/ est alors réalisé manuellement ou automatiquement. La boucle de l'ajustement 160 passe alors 165 à un capteur suivant, préférentiellement proche du capteur 110/.
L'étalonnage 150 comprend préférentiellement une boucle sur les capteurs 1 0. Considérons l'itération de cette boucle pour le Z6"16 capteur 110/. Une boucle interne considère alors chaque coin de la surface 123/ à couvrir. Par l'envoi 135 d'une information de premier coin, le serveur 400 indique au système 300 de projection que le système 300 de projection doit projeter un repère au point correspondant au premier coin 130/ de la surface 123/ à couvrir par le capteur 110/. Le système 300 de projection projette un repère au point correspondant au premier coin 130/ de la surface 123/ à couvrir par le capteur 10/ lors d'une projection 136 de premier coin, ou à une autre localisation spécifique de la surface 123/ à couvrir. Un émetteur infra-rouge portable est alors placé sur la projection du premier coin lors d'un placement 137 de premier coin, ou à proximité de celle-ci. Le placement 137 peut se faire manuellement ou être réalisé par un robot suiveur, comprenant l'émetteur infra-rouge portable, qui peut suivre un itinéraire de guidage projeté par le système de projection 300 ou un itinéraire programmé dans sa mémoire et connu du serveur. Le placement 137 peut éventuellement se faire grâce à un robot suiveur qui suit un fil électrique placé dans le sol.
Lors d'une mesure 138 d'étalonnage, le capteur 110/ mesure la position de l'émetteur infra-rouge portable telle qu'il la perçoit, c'est-à-dire que le capteur 110/ détermine les coordonnées de ia position de l'émetteur infra-rouge portable dans sa matrice 122. Lors d'un envoi 140 de coordonnées d'étalonnage, le capteur 110/ envoie les coordonnées de la position de l'émetteur infra-rouge portable dans sa matrice 122, pour le premier coin 130/ de sa surface 123/ à couvrir au serveur 400, que ie serveur 400 reçoit lors d'une étape 141 de réception de coordonnées d'étalonnage.
Après la réception 141 des coordonnées d'étalonnage, le serveur 400 indique à la boucle interne de passer alors au coin suivant 142, jusqu'à ce que les quatre coins 130/', 131/, 132/, 133/ de la surface 123/ à couvrir par le capteur 110/ aient été considéré. A ia fin de la boucle interne, le serveur 400 a reçu les coordonnées, dans la matrice 122/ du capteur 110/, des quatre coins de la surface 123/ à couvrir par le capteur 110/. Lors d'une étape de correspondance 144, le serveur 400 compare ces coordonnées dans la matrice 122/ aux coordonnées globales qu'il avait demandé au système de projection 300 de projeter lors des quatre envois 135 d'information de coin et détermine ainsi des coefficients permettant de passer des coordonnées dans la matrice 122/ du capteur 110/ aux 47 coordonnées globales. Ces coefficients sont différents pour chaque capteur 110/.
Quand les quatre coins 130/, 131/, 132/, 133/ de la surface 123/ à couvrir par le capteur 110/ ont été considérés, le serveur 400 indique à la boucle de l'étalonnage 150 de passer 143 au capteur suivant, préférentiellement à un capteur proche de celui qui vient d'être considéré, jusqu'à ce que tous les capteurs 110/ aient été étalonnés.
Dans une réalisation de l'invention, certaines des étapes de l'ajustement 160 de position des capteurs et de l'étalonnage 150 sont réalisées dans un ordre différent. Par exemple, chaque capteur est ajusté pour les quatre coins de sa surface 23/ sont mesurés. Il est aussi possible de ne mesurer 137 qu'une fois les coins communs entre différentes surfaces 123/ à couvrir afin d'améliorer la précision de la localisation lors d'un passage d'un élément mobile 200 d'une surface 123/ à couvrir à une autre et de gagner du temps lors de l'étalonnage 150.
Les coordonnées globales du système 100 de localisation sont préférentiellement identiques aux coordonnées globales du système 300 de projection.
Le fait que ce soit le système de projection 300 qui indique les points de repère pour la calibration 180 du système 100 de localisation permet qu'un de ces deux systèmes ne puisse pas être décalé par rapport à l'autre. Un décalage des deux systèmes 100, 300 ne serait pas ressenti par les utilisateurs, en particulier par les pilotes des éléments mobiles 200.
Cependant, et même si l'ajustement 160 de position des capteurs et l'étalonnage 150 ont été décrits ci-dessus comme faisant appe! au système de projection 300, un ajustement 160 de position des capteurs et un étalonnage 150 permettant aussi la détermination de la coordonnée globale d'un point à partir de ses coordonnées dans la matrice 122/ d'un capteur sont possibles à i'aide d'une autre technique, par exemple une technique faisant appel à un GPS différentiel et/ou un télémètre laser.
La figure 10 illustre la surface 120/ de captation du capteur et la matrice du capteur 122/. La surface 120/ de captation du capteur 110/, comme illustré à la figure 2, est une surface dans l'espace réel alors que la matrice du capteur 122/ est la grille de pixels dans le système de localisation 100,
La surface 120/ de captation du capteur 110/ comprend la surface 123/ à couvrir par le capteur 110/ et une surface de transition 125/. La surface 123/ à couvrir par le capteur est préférentiellement un rectangle ayant quatre coins 130/', 131/', 132/, 133/ comme décrit ci-dessus, mais pourrait avoir n'importe quelle forme, notamment une forme hexagonale. La surface 125/ de transition est préférentiellement soit comprise dans la surface à couvrir 123/ d'un autre capteur, soit en-dehors de la surface sur laquelle il est souhaité de réaliser des localisations.
A cause notamment du fait que la caméra du capteur 110/ n'a pas toujours un axe optique parfaitement perpendiculaire à la surface 123/ à couvrir, la surface 123/ à couvrir, si elle est rectangulaire, correspond sur la matrice 122/ de capteur à un quadrilatère 124/ quelconque ayant quatre coins 130b/, 131b/, 132b/', 133b/. L'étalonnage 150 fait correspondre les points 130/-133/ dans les coordonnées globales aux points 130b/-133b/ dans les coordonnées de la matrice du capteur 122/.
La figure 11 schématise un fonctionnement 199 du système de localisation 100 selon la présente invention en considérant que deux émetteurs 210a, 210b sont présents dans le cône 121 de captation du capteur 110/ (pas illustré). Une émission 151a génère un signal infrarouge 152a pour l'émetteur 210a. Une émission 151b génère un signal infrarouge 152b pour l'émetteur 210b. Les deux signaux infrarouges 152a, 152b sont détectés par la caméra 114 lors d'une détection 153. La détection 153 correspond, pour chacun des signaux 152a, 153a, à un événement sur un ou plusieurs pixels, préférentiellement adjacents, d'une matrice de captation de la caméra 114. En réponse, la caméra 114 génère une image 154 ayant une première résolution, qui est égale à la résolution de la matrice de captation 122/ (voir figure 10) et envoie cette image 154 de première résolution au dispositif 115 de traitement de données. L'image 154 de première résolution comprend préférentiellement un point pour l'ensemble des deux signaux infrarouges 152a, 152b car les deux signaux infrarouges 152a, 52b se confondent en un seul point.
Le dispositif 115 de traitement de données réalise une analyse 155 en sub-pixels pour augmenter la résolution de l'image et obtenir une image dans une deuxième résolution, qui est égale à la résolution de la matrice 122 du capteur (illustrée par la référence 122/ à la figure 10). Le dispositif 115 réalise aussi une détermination 156 des coordonnées et des tailles des points correspondant aux deux signaux infrarouges 152a, 152b sur la matrice du capteur 122.
Le dispositif 115 de traitement de données vérifie, lors d'une vérification 157, si plus de quatre points sont présents dans l'image de deuxième résolution. Si non, 158, le dispositif 115 de traitement de données envoie les coordonnées et tailles 159 des points correspondant à tous les signaux infrarouges au microcontrôleur 112. Si oui, 190, les points correspondant aux signaux infra-rouges sont divisés en groupes de maximum quatre points. Lors d'un premier envoi, le dispositif 115 de traitement de données envoie au microcontrôleur 112 les coordonnées et des tailles 191 des points d'un premier groupe de points, et, lors d'un deuxième envoi, le dispositif 115 de traitement de données envoie au microcontrôleur 112 les coordonnées et des tailles 192 des points du deuxième groupe de points. S'il y a plus de huit points, lors d'un troisième envoi, le dispositif 115 de traitement de données envoie au microcontrôleur 112 les coordonnées et des tailles des points d'une troisième groupe de points, et ainsi de suite (non-montré).
Les envois sont préférentiellement cadencés avec une cadence identique à celle des étapes d'analyse 155 et de détermination 156 des coordonnées et des tailles des points. S'il y a quatre points ou moins, le rythme des envois pour chaque point est donc égal au rythme des étapes d'analyse 155 et de détermination 156 des coordonnées et des tailles des points. S'il y a cinq points ou plus, les coordonnées et la taille de chaque point est envoyé moins souvent au microcontrôleur 112.
II n'y a donc pas de limites au nombre d'émetteurs 210 pouvant être localisés mais si ce nombre excède quatre, le rafraîchissement des données de localisation, c'est-à-dire des coordonnées et des tailles des points, parvenant au microcontrôleur 112 est plus faible. Dans une réalisation de l'invention, la détection 153, l'analyse 155 et la détermination 156 se font 500 fois par seconde, ce qui permet que même si les données de localisation n'arrivent au microcontrôleur qu'un cycle sur deux, c'est-à- dire 250 fois par seconde, la localisation des émetteurs reste très précise.
Sur base des coordonnées et des tailles des points 159 ou 191 , 192, le mîcrocontrôleur 112 réalise une détermination 93 d'une information de position du capteur 110 avec lequel il communique et envoie une information 102 de position dudit capteur au serveur 400. Cet envoi demande un certain temps de traitement au microcontrôleur 112, ce qui fait que, si les coordonnées et des tailles des points 159 arrivaient au microcontrôleur 500 fois par seconde, le microcontrôleur 112 envoie l'information 102 de position au serveur environ 270 fois par seconde, ce qui correspond à une fréquence de cycle de 270Hz s'il y a quatre points ou moins. S'il y a cinq points ou plus, la fréquence est d'environ 135 Hz.La haute fréquence de cycle obtenue dans une réalisation de la présente invention permet d'obtenir un temps de latence très court pour la réaction du système 800 de création d'environnement aux modifications de localisation des éléments mobiles 200.
Sur base de l'information de position 102, et possiblement sur base d'autres informations ou de réglages prédéfinis, le serveur 400 réalise un traitement de données 410.
Les étapes du fonctionnement 199 qui sont réalisées par le système de localisation 100 sont comprises dans une détermination de position 01 montrée à la figure 12.
La figure 12 schématise un fonctionnement 2000 du système de création d'environnement 800 selon une réalisation de la présente invention.
Le serveur 400 réalise un traitement de données 410 qui résulte en une détermination 420 d'une information de projection d'image et une détermination 420 d'une information de paramètres. Le traitement de données 410 peut être réalisé sur base d'un échange d'information avec le dispositif de gestion 500 (non-illustré à la figure 12). Le traitement de données 410 comprend une détermination 420 d'une information de projection et une détermination 430 d'une information de caractéristiques comme décrit ci-dessus.
Sur base de la détermination 420 d'une information de projection d'image et d'une information de paramètres, le serveur 400 envoie une information 403 de paramètre à l'élément mobile 200. Sur base de l'information 403 de paramètre, l'élément mobile 200 réalise une adaptation de caractéristiques 205 de l'élément mobile. L'adaptation de caractéristiques 205 de l'élément mobile peut induire une modification de position 204 de l'élément mobile 200.
Sur base de la détermination 420 d'une information de projection d'image et d'une information de paramètres, le serveur 400 envoie une information 402 de projection d'image au système de projection 300. Sur base de l'information 402 de projection d'image, le système de projection 300 réalise une projection 301 d'image qui résulte en au moins une image 600. Le pilote 700 réalise une perception 201 de l'image durant laquelle il perçoit des informations contenues dans l'image 600. Sur base de la perception 201 de l'image 600, le pilote 700 de l'élément mobile 200 donne des instructions 202 à l'élément mobile 200. Les instructions 202 peuvent résulter en l'adaptation 205 de caractéristiques de l'élément mobile 200, en une information 203 pour le serveur qui est envoyée au serveur 400 et/ou influencer la position 204 de l'élément mobile 200. L'information 203 pour le serveur peut être transférée par une étape de transfert 208 préférentiellement telle que décrite à la figure 4.
La position 204 est déterminée par le système 100 de localisation lors d'une détermination de position 101. Le système de localisation 100 envoie alors une information 102 de position au serveur 400.
L'information 203 pour le serveur et l'information 102 de position sont ensuite utilisées par le serveur 400 iors d'un traitement de données 410 dans un cycle suivant. Le fonctionnement 2000 implique donc un cycle.
D'autres interactions et envois ou échanges d'informations entre le dispositif de gestion 500, le serveur 400, le système de projection 300, l'élément mobile 200 et le système de localisation 100 sont possibles non- détaillées sur la figure 12 dans le cadre de l'invention.
L'environnement créé par le système 800 de création d'environnement selon l'invention, comprend préférentiellement un ensemble d'effets perceptibles depuis l'élément mobile 200 ou depuis un autre endroit, c'est-à-dire l'image 600, l'adaptation 205 des caractéristiques de l'élément mobile, notamment par les moyens 250 d'action, et potentiellement des effets supplémentaires comme un éclairage d'ambiance. Des procédés possiblement inclus dans le traitement de données 410 réalisé par le serveur 400 sont :
• une détermination de coordonnées globales pour les éléments mobiles 200,
· un suivi des éléments mobiles 200,
• une identification des éléments mobiles 200,
• un procédé anticollision,
• un procédé de guidage,
• un éclairage d'ambiance et
« un affichage d'images captées par le système 800 de création d'environnement.
Le serveur 400 peut aussi gérer des écrans tactiles affichant une miniature de la piste et avec lesquels des observateurs peuvent interagir. Ceux-ci peuvent alors ajouter des éléments sur la piste en temps réel par exemple.
Ces procédés peuvent se baser sur les informations 102 de position reçues de l'ensemble des capteurs 110 du système 100 de localisation selon la présente invention et/ou sur les informations 203 pour îe serveur reçues de l'ensemble des éléments mobiles 200 faisant partie du système 800 de création d'environnement.
Lors de la détermination de coordonnées globales pour les points localisés par le système 100 de localisation, le serveur 400 utilise les informations 102 de position qui indiquent les coordonnées et la taille d'un point dans la matrice 122 du capteur qui a réalisé la détection 153 dudit point. Préférentiellement, les capteurs 110 ont préalablement été calibrés selon la méthode de calibration 180 décrite en se référant à la figure 9. Le système 100 de localisation peut potentiellement avoir été calibré d'une autre façon. Lors de la détermination de coordonnées globales, le serveur 400 détermine, préférentiellement grâce aux coefficients permettant de passer des coordonnées dans la matrice 122 du capteur 110 aux coordonnées globales et déterminés lors de la caiibration 180, les coordonnées globales de chacun des points détecté par le système 100 de localisation.
Les coordonnées globales sont utilisées par le procédé de suivi. Le suivi fait correspondre les coordonnées globales les plus récentes d'un point à un point identifié précédemment. Le critère préférentiellement utilisé pour cette correspondance est la proximité des coordonnées globales les plus récentes avec des coordonnées globales précédentes, si possible avec des coordonnées globales du cycle juste précédent. Par exemple, à chaque itération de la localisation l'emplacement sur lequel on s'attend à trouver l'élément mobile à l'itération suivante est calculé sur base de la position de l'élément mobile, sa direction, sa vitesse et son accélération. Lors de l'itération suivante de la localisation, une comparaison est faite entre les points reçus aux points calculés comme étant ceux où on s'attend à trouver un élément mobile pour associer un point perçu à un élément mobile. Ce critère fonctionne bien grâce à la haute fréquence du système de localisation 100 et à la précision du système de localisation 100, car dans l'intervalle entre deux cycles du système de localisation 100, les éléments mobiles 200 n'ont pas eu le temps de bouger beaucoup.
Si le suivi a pu mettre en correspondance les coordonnées globales les plus récentes d'un point avec un point identifié précédemment, ces coordonnées globales sont identifiées comme étant celles de l'élément mobile 200 qui correspond à ce point identifié précédemment.
Si aucun point dans les informations 102 de position reçues depuis un temps déterminé ne correspond à un élément mobile 200 qui est enregistré par le serveur 400 comme étant normalement localisable par le système de localisation 100, cet élément mobile 200 reçoit le statut de « perdu de vue ». Le serveur 400 envoie alors un message à l'élément mobile 200 lui indiquant d'éteindre son émetteur 210. Le serveur 400 envoie successivement à chaque élément mobile 200 perdu de vue un message demandant que ledit élément mobile 200 allume son émetteur 210.
Si le suivi n'a pas pu mettre en correspondance les coordonnées globales les plus récentes d'un point avec un point identifié précédemment et qu'au moins un des éléments mobiles 200 est perdu de vue, l'identification essaie de faire le lien entre l'apparition d'un point et l'allumage de l'émetteur demandé par le serveur. Si ce lien existe durant un certain temps, les coordonnées globales du point sont identifiées comme étant celles de l'élément mobile 200 qui avait allumé son émetteur.
Le procédé anticollision utilise les résultats de la détermination de coordonnées globales, du suivi et/ou de l'identification. Le procédé anticollision utilise potentiellement aussi des coordonnées d'autres éléments que les éléments mobiles, comme les limites de la surface couverte par le système de projection 300 ou les coordonnées d'autres objets. Sur base des résultats de la détermination de coordonnées globales, du suivi et/ou de l'identification, le serveur 400 calcule la vitesse (en intensité et direction) et l'accélération (en intensité et direction) des éléments mobiles 200 et/ou des points localisés. Grâce aux formules du Mouvement de Translation Rectiîigne Uniformément Varié (MRVU), le serveur 400 calcule ensuite les probabilités de positions des éléments mobiles 200 à un moment futur. Par exemple, cela peut être fait en calculant la position qu'aurait le véhicule lorsqu'il serait arrêté si on le forçait à freiner à partir de l'itération courante. Cela permet d'anticiper les collisions entre éléments mobiles ou avec d'autres objets et de déterminer l'intensité d'une possible future collision en déterminant vitesses relatives au moment du choc, qui sont représentatives de la violence du choc. Si la probabilité que plusieurs éléments mobiles 200 soient en-deçà d'une distance seuil est plus grande qu'une probabilité déterminée le serveur 400 envoie, dans l'information 403 de caractéristique, un message aux éléments mobiles 200 concernés afin qu'ils freinent, ce qui fait que ce freinage est automatique car réalisé sans intervention humaine.
Le procédé de guidage utilise préférentiellement les résultats de l'identification, et peut éventuellement utiliser les résultats de la détermination de coordonnées globales et/ou du suivi. Le procédé de guidage utilise aussi préférentiellement des informations liées à l'image 600. Par exemple, dans le cas d'une course de karts, le procédé de guidage utilise les informations concernant les coordonnées globales des bords de la piste 911 de karting (figure 2).
Le procédé de guidage analyse la trajectoire des éléments mobiles 200 et la compare à une trajectoire considérée comme optimale sur la piste 911. Le procédé de guidage détermine alors les actions que le pilote 700 doit réaliser pour suivre cette trajectoire optimale. Le serveur 400 envoie, dans l'information 403 de caractéristique, un message aux éléments mobiles 200 afin qu'un message soit diffusé au pilote 700. Si le message contient des parties audio, elles sont diffusées au pilote 700 par le ou les haut-parleur(s) 259. Si le message contient des parties vidéos, elles sont diffusées au pilote 700 par le tableau de bord. Le message peut aussi contenir des vibrations du siège ou du volant ou un allumage d'un ou plusieurs boutons du volant. Le message audio peut être contenu dans l'information 403 de caractéristique ou être présent dans une mémoire comprise dans l'élément mobile 200. Le message audio peut être sélectionné automatiquement par le serveur 400 ou l'ordinateur de bord 230 dans une liste de messages audio, ou construit automatiquement par le serveur 400 ou l'ordinateur de bord 230. Le message audio peut éventuellement être diffusé dans un haut-parleur ne faisant pas partie de l'élément mobile 200.
Dans une autre réalisation de l'invention, le message audio est exprimé en temps réel par une personne autre que le pilote 700. Cela peut être quelqu'un présent sur le bord de la piste 911 qui donne des indications de guidage au pilote 700 dans un micro connecté au serveur 400.
Le procédé de guidage permet que le pilote 700 reçoive des conseils de pilotage en temps réel.
Le procédé de guidage permet aussi de guider un pilote malvoyant. Dans le cas où l'invention est utilisée par un ou plusieurs pilotes malvoyants, le système de projection d'images peut être désactivé, même si l'environnement existe en mémoire du serveur 400.
Le procédé d'éclairage d'ambiance est lié à l'utilisation d'un système d'éclairage d'ambiance qui consiste en des éclairages, par exemple des bandes LED RGB présente sur un bar proche de l'image 600, et un microcontrôleur connecté au serveur 400. Le serveur 400 calcule, en fonction d'informations d'éclairage souvent liées au contexte, la couleur des éclairages. Les informations d'éclairage peuvent être un démarrage d'une course, l'appel d'un joueur absent, l'utilisation d'un bonus spécial et ie thème de la piste 911 (piste sur glace, sur terre, sur herbe, etc.).
L'affichage d'images captées par le système 800 de création d'environnement fait préférentiellement à la caméra 265 présente sur l'élément mobile 200. La caméra 265 envoie les images qu'elle capte à l'ordinateur de bord 230, qui les envoie au serveur 400 dans l'information d'instructions 203. Le serveur 400 génère alors des messages menant à l'affichage de ces images sur un écran géant placé près de l'image ou sur internet.
Dans le cas d'une utilisation du système 800 de création d'environnement pour du karting, utilisation déjà illustrée à la figure 2, l'image 600 comprend des éléments persistants, comme la piste 911, et des éléments éphémères comme des éléments bonus. Lorsqu'un kart 200 roule sur un élément bonus, ce qui est détecté par le système 800 de création d'environnement grâce à une correspondance entre la position de projection de l'élément bonus et la localisation du kart 200 réalisée par le système 100 de projection, le kart 200 gagne le bonus. Cela lui fournit un avantage : il gagne la possibilité de tirer avec le pistolet, d'aller plus vite, etc. Les différents bonus présents dans les jeux vidéo de karting, de voiture, de combat, peuvent ainsi être vécus par les pilotes dans un karting réel, ainsi que d'autres types de bonus.
Si le kart 200 sort de la piste 911 , ce qui est perçu par le serveur 400 via le système 100 de localisation, le serveur 400 peut déterminer qu'un malus est appliqué au kart 200. Le serveur 400 envoie alors, dans l'information 403 de caractéristique, un message au kart 200 avec l'effet de ce malus. Cela peut être par exemple un arrêt du kart 200 ou une vitesse maximaie limitée. Cela peut se traduire par un bridage d'accélération, un freinage d'une seule roue, un freinage d'une roue et une accélération de l'autre ou un vibration du kart 200.
Le serveur 400 considère qu'un premier kart 200a réussit un tir sur un deuxième kart 200b quand le serveur 400 calcule que l'instruction 202 correspondant au tir a été réalisée par le pilote du premier kart à un endroit (déterminé par le système de localisation 100) et un moment tel que le tir ayant une vitesse déterminée a atteint le deuxième kart, celui-ci étant aussi localisé par le système de localisation 100. Le tir est préférentiellement réalisé par le pilote en poussant sur le bouton de tir 224. Le tir est préférentiellement rendu visible par une image éphémère projetée par le système de projection 300 et rendu audible par le pilote du premier kart dans son haut-parleur par un son de tir qui s'éloigne et par le pilote du deuxième kart dans son haut-parieur par un son de tir qui s'approche. En cas de tir réussi, le serveur 400 indique au deuxième kart 200b (figure 1 ), dans l'information 403 de caractéristique (figure 12) destinée au deuxième kart 200b, que sa puissance maximale est diminuée, ce qui a pour effet de diminuer sa vitesse maximale, et indique aussi un message à afficher sur le tableau de bord. Le serveur 400 indique aussi au premier kart 200a, dans l'information 403 de caractéristique destinée au premier kart 200a, qu'il a réussi son tir.
Un autre effet rendu possible par le système 800 de création d'environnement selon l'invention est la possibilité pour un premier kart 200a de bénéficier d'un effet d'aspiration par un deuxième kart 200b. Si le premier kart se place à l'arrière du deuxième kart, ce qui est détecté par le serveur via la localisation des deux karts par le système de localisation 100, sa vitesse maximale est augmentée par le serveur 400, via une information 403 de caractéristique, pour simuler que sa résistance à l'air est diminuée, comme dans un effet d'aspiration de course automobile.
Un autre effet rendu possible par le système 800 de création d'environnement selon l'invention est la possibilité de compenser le manque de performance d'un véhicule (par exemple dû à une usure d'un élément mécanique ou du poids excessif d'un pilote) en analysant la vitesse du kart en comparaison avec l'accélération demandée et en appliquant un coefficient à l'accélérateur.
Un autre effet rendu possible par le système 800 de création d'environnement selon l'invention est la possibilité de créer un facteur de correction de manière à équilibrer la course en favorisant les joueurs qui ont du retard et en défavorisant les joueurs à l'avant de la course
Un autre effet rendu possible par le système 800 de création d'environnement selon l'invention est un jeu avec mode « peinture » dans lequel les pilotes « peignent » le sol avec leur kart, c'est-à-dire qu'une traînée d'une couleur spécifique à chaque kart est apparaît dans l'image 600 derrière le kart et reste sur l'image 600. Le but du jeu est de peindre un maximum de surface avec la couleur attribuée à son kart. Dans le mode peinture, les ordinateurs de flux vidéo 303 sont informés, par le serveur 400, de la position 204 et de la couleur de chaque kart. Pour chaque kart se trouvant dans son cône de projection 611 , sur base de sa position 204 et de sa couleur, l'ordinateur de flux vidéo 303 détermine les zones de peinture de cette couleur apparaissant dans son image partielle 610. L'ordinateur de flux vidéo 303 trace en continu une ligne très épaisse entre la position précédente d'un kart et sa nouvelle position. L'ordinateur de flux vidéo 303 détermine en temps réel le nombre de pixels couverts par les différentes peintures (sur leur surface de projection respective bien entendu). Ils retournent au serveur un tableau, en continu, qui détaile le nombre de pixels compté pour chaque peinture et qui lui permet le calcul des scores L'ordinateur de projection est alors en mesure d'identifier les différentes traces de peintures et de les totaliser (en pixels). Il retourne simplement au serveur le résultat de chaque itération qui en prendra note pour le traitement des scores.
Le serveur 400 peut insérer une image éphémère de sable sur une partie de la piste 911 en en donnant l'Indication au système de projection 300 via l'information 402 de projection. Si un kart 200 roule sur l'image de sable, ce qui est déterminé par le système de localisation 100, il reçoit un malus.
Grâce au système de création d'environnement 800 selon l'invention, le karting peut être amusant en roulant seul et une course entre différents pilotes peut être influencée par les effets de projection de l'image 600 ou tes effets des moyens d'action 250 du kart, comme le tir.
Un pilote peut avoir un niveau, comme dans les jeux vidéo, qui augmente au fur et à mesure qu'il joue. Un tir réussi sur un pilote de plus haut niveau peut rapporter un plus grand bonus qu'un tir réussi sur un pilote de plus bas niveau.
Dans une réalisation de l'invention, le serveur 400, qui connaît la position des éléments mobiles 200 grâce au système de localisation 100, adapte l'image 600 projetée par le système de projection pour que rien ne soit projeté sur les éléments mobiles 200 ou qu'au contraire un halo d'une certaine couleur soit projeté sur les éléments mobiles 200.
Des utilisations possibles autres que le karting du système de création d'environnement 800 sont les suivantes :
· ski, notamment ski indoor : localisation d'un émetteur sur l'équipement des skieurs, projection d'images sur la piste de ski, avec un élément mobile formé par le skieur et l'équipement du skieur
• vélo, notamment vélo indoor : localisation d'un émetteur sur les vélos ou le casque des cyclistes, projection d'une image de piste de vélo ou d'images sur une piste de vélo, avec un élément mobile formé par le vélo, le cycliste et son équipement
• circuit de voitures téléguidées : localisation d'un émetteur sur les voitures, le pilote d'une voiture étant physiquement hors de la voiture même s'il est décrit ici comme faisant partie de l'élément mobile, projection d'une piste de voiture
• « laser-game » : localisation d'un émetteur sur l'équipement des joueurs, élément mobile comprenant le joueur et son équipement, dont son pistolet et ses capteurs de tir, projection d'éléments comme des bonus ou des cibles dans des pièces constituant un labyrinthe de jeu · localisation d'objets ou de robots dans une usine : les robots ou objets à localiser ayant un émetteur, il n'y pas préférentiellement pas de système de projection et de pilote dans cette utilisation
• localisation d'objets sur les terrains de sport : par exemple localisation d'une balle de ping-pong réfléchissant l'infrarouge et éclairée avec du rayonnement infrarouge dans un environnement (table et sol notamment) qui ne réfléchit par l'infrarouge
Dans ces utilisations, comme dans d'autres utilisations, une partie du système de création d'environnement 800 peut être utilisée indépendamment du reste du système de création d'environnement 800. Par exemple :
• seul le système de localisation 100 est utilisé, potentiellement couplé avec le serveur 400,
• seul le système de projection 300 est utilisé, potentiellement couplé avec le serveur 400,
• seul l'élément mobile 200 est utilisé, potentiellement couplé avec le serveur 400,
• le système de localisation 100 et le système de projection 300 sont utilisés, potentiellement couplés avec le serveur 400,
« le système de localisation 100 et l'élément mobile 200 sont utilisés, potentiellement couplés avec le serveur 400, ou
• le système de projection 300 et l'élément mobile 200 sont utilisés, potentiellement couplés avec le serveur 400.
Dans chacun des cas, une ou plusieurs des méthodes décrites dans le cadre de l'invention, peuvent être mises en œuvre.
Les éléments préférentiels suivants permettent une localisation fiable, précise au cm près, à une fréquence de plus de 200Hz, des dizaines d'éléments mobiles sur une surface de plus de 100 m2:
• un ensemble de capteurs 1 0 selon la présente invention,
· la connexion des capteurs 110 par I2C aux microcontrôleurs 112,
• la connexion des microcontrôleurs 112 par Ethernet au serveur 400, et
• la caiibration 180 du système de localisation selon la présente invention.
Une telle précision et une telle fréquence de localisation permettent que les éléments mobiles se déplacent à une vitesse de 30km/h dans l'environnement créé par le système de création d'environnement en ayant cet environnement, qui comprend le kart, des images projetées potentiellement d'autres éléments, qui s'adapte à leur position précise. Cela permet aussi d'éviter les collisions entre éléments mobiles et permet que le pilote soit guidé par le procédé de guidage en fonction de sa localisation précise.
Le système de création d'environnement 800, en intégrant préférablement le système de projection 300, le système de localisation 100 et un ou plusieurs éléments mobiles 200, permet que le pilote et des spectateurs soient immergés dans un environnement mélangeant des éléments tangibles, comme les éléments mobiles, et des images et où éléments tangibles et images interagissent. La combinaison des éléments préférentiels suivants permet que le pilote et/ou les spectateurs soient immergés dans l'environnement créé par le système de création d'environnement 800 ;
• l'image 600, contenant des éléments persistants et des éléments éphémères, ces éléments éphémères dépendant de la localisation des éléments mobiles,
• les effets créés par les moyens d'action 250, et
· l'éclairage d'ambiance .
Le système de création d'environnement 800 selon l'invention est déplaçable, léger, rapide à mettre en place (potentiellement en une journée). Il est d'un grand confort, simple d'utilisation, assure un haut niveau de sécurité, et procure au pilote et aux spectateurs la sensation de vivre pleinement une expérience complète.
Le système de localisation 100 selon l'invention est aussi déplaçable, léger, rapide à mettre en place, d'un grand confort et simple d'utilisation. Le système de projection 300 selon l'invention est aussi dépîaçable, léger, rapide à mettre en place, d'un grand confort et simple d'utilisation.
Le système de création d'environnement 800 selon l'invention combine les avantages du karting réel, comme une accélération réelle, et du karting en jeu vidéo comme les bonus, les interactions avec environnement et fait que les joueurs aient un niveau d'expérience.

Claims

Système de création d'un environnement (800), l'environnement comprenant au moins une image (600) agencée pour être perceptible par au moins un pilote (700) d'au moins un élément mobile (200), le système comprenant:
• l'au moins un élément mobile (200), qui lui-même comprend une interface électronique (240) et au moins un moyen d'action (250) connecté à l'interface électronique (240),
• un système de projection (300) agencé pour projeter l'au moins une image (600),
• un système de localisation (100) agencé pour déterminer une position de chaque élément mobile (200) présent à proximité de l'au moins une image (600), et
• un serveur (400) agencé pour être connecté à l'interface électronique (240) de chaque élément mobile (200), au système de localisation (100) et au système de projection (300), le serveur (400) étant agencé pour contrôler le système de projection (300) et ledit au moins un moyen d'action (250) sur base de la position de chaque élément mobile (200) reçue du système de localisation (100).
Système selon la revendication 1, dans lequel la connection entre l'interface électronique (240) et ie serveur (400) passe par un ordinateur de bord (230).
Système selon la revendication 1 ou 2, dans lequel chaque élément mobile (200) comprend en outre au moins un actionneur (220) connecté à l'interface électronique (240) et agencé pour être actionné par le pilote (700) de l'élément mobile (200), le serveur (400) étant agencé pour agir sur le système de projection (300) et sur Tau moins un moyen d'action (250) sur base d'un actionnement d'au moins un actionneur (220).
4. Système selon l'une quelconque des revendications précédentes, dans lequel chaque élément mobile (200) comprend en outre un émetteur
(210).
5. Système selon la revendication 4, dans lequel l'émetteur (210) comprend au moins une source (211) de rayonnement électromagnétique.
6. Système selon la revendication 5, dans lequel la source (211) de rayonnement électromagnétique comprend un émetteur infra-rouge. 7. Système selon la revendication 6, dans lequel la source (211) de rayonnement électromagnétique comprend une diode électroluminescente d'une puissance comprise entre 5 et 50 watt..
8. Système selon l'une quelconque des revendications précédentes, dans lequel le système de projection (300) comprend au moins un ordinateur de flux vidéo (303) et au moins un projecteur (310), chaque ordinateur de flux vidéo étant connecté au serveur (400) et chaque projecteur étant connecté à l'ordinateur de flux vidéo (303). 9. Système selon la revendication 8, dans lequel le système de projection (300) comprend une pluralité de projecteurs (310), chacun des projecteurs (310) étant agencé pour projeter une image partielle (610a- 610e) telle que l'ensemble des images partielles (610a-610e) projetées par les projecteurs (310) forme l'image (600).
10. Système selon la revendication 9, dans lequel les images partielles (610a-610e) se recouvrent au moins partiellement. 1 . Système selon l'une quelconque des revendications précédentes, dans iequel le système de localisation (100) comprend au moins un mîcrocontrôleur (112) connecté au serveur (400) et au moins un capteur (110) connecté au microcontrôieur (112). . Système selon la revendication 11, dans lequel une connexion entre chaque capteur (110) et le microcontrôleur (112) auquel le capteur est connecté utilise I2C.
13. Système selon la revendication 11 ou 12, dans lequel une connexion entre chaque microcontrôleur (112) et le serveur (400) utilise Ethernet.
14. Système selon l'une quelconque des revendications 11 à 13, dans lequel chaque capteur (110) comprend une caméra (114) agencée pour prendre une image et capable de détecter le rayonnement infra-rouge.
15. Système selon la revendication 14, dans lequel le capteur (110) comprend en outre un dispositif de traitement de données (115) agencé pour augmenter la résolution de l'image prise par la caméra (114). 16. Système selon la revendication 14 ou 15, comprenant en outre un système d'identification (118) du capteur grâce auquel le serveur (400) est capable d'identifier le capteur (110) duquel une information (102) lui parvient parmi une pluralité de capteurs (110).
17. Système selon l'une quelconque des revendications 14 à 16, dans lequel chaque capteur (110) est connecté à un système d'affichage (117) comprenant une pluralité de diodes électroluminescentes, le capteur (110) et le système d'affichage ( 17) auquel il est connecté étant agencés pour l'allumage d'un nombre de diodes égal au nombre d'éléments mobiles (200) perçus par le capteur (110).
18. Système selon l'une quelconque des revendications précédentes, dans lequel Tau moins un élément mobile (200) est un kart et l'image (600) comprend une piste (911 ) de karting.
19. Procédé de création d'un environnement, l'environnement comprenant au moins une image (600) agencée pour être perceptible par au moins un pilote (700) d'au moins un élément mobile (200), le procédé comprenant un cycle incluant les étapes de:
• détermination (420) d'une information (402) de projection par un serveur (400),
• transfert de l'information (402) de projection à un système de projection (300),
· projection (301) de l'image (600) par le système de projection (300) sur base de l'information (402) de projection,
• détermination (430) d'une information (403) de caractéristiques par le serveur (400) pour chaque élément mobile (200),
• transfert de l'information (403) de caractéristiques à l'élément mobile (200) correspondant,
• adaptation (205) de caractéristiques de l'élément mobile (200) sur base de l'information (403) de caractéristiques, • réception des instructions (202) d'un pilote de l'élément mobile (200), qui font que l'élément mobile (200) génère une information (203) pour le serveur (400),
• transfert de l'information (203) pour le serveur de l'élément mobile (200) au serveur (400),
• modification de la position (204) de l'élément mobile (200) sur base des instructions (202),
• détermination (101) de !a position de l'élément mobile (200) par le système de localisation (100), qui génère une information (102) de position,
• transfert de l'information (102) de position du système (100) de localisation au serveur (400), et
• traitement de données (410) par le serveur (400), incluant la détermination (420) d'une information (402) de projection et la détermination (430) d'une information (403) de caractéristiques, sur base de l'information (203) pour le serveur (400) et de l'information de position (102).
20. Procédé selon la revendication 19, dans lequel l'adaptation (205) de caractéristiques de l'élément mobile (200) comprend les étapes de:
• détermination (231) d'information pour une interface électronique réalisée par un ordinateur de bord (230) connecté au serveur (400),
• détermination (233) de signaux pour les moyens d'action réalisée par une interface électronique (240) connectée à l'ordinateur de bord (230), et
• modification (235, 238) de caractéristiques de moyen d'action réalisée par au moins un moyen d'action (250) connecté à l'interface électronique (240).
21. Procédé selon la revendication 20 ou 21, dans lequel l'adaptation (205) de caractéristiques de l'élément mobile (200) comprend les étapes de:
• détermination (241) d'information pour le tableau de bord réalisée par un ordinateur de bord (230) connecté au serveur (400), et
• modification d'affichage (243) réalisée par un tableau (260) de bord connecté à l'ordinateur de bord (230).
22. Procédé selon l'une quelconque des revendications 19 à 21 , dans lequel la projection (301 ) de l'image (600) par le système de projection (300) comprend les étapes de:
• détermination de flux vidéo (341) réalisée par au moins un ordinateur de flux vidéo (303) connecté au serveur (400), et
• projection (343) d'image réalisée par au moins un projecteur (310) connecté à l'au moins un ordinateur de flux vidéo (303).
23. Procédé selon l'une quelconque des revendications 19 à 22, dans lequel la détermination (101) de la position de l'élément mobile (200) par le système de localisation (100) comprend les étapes de:
• détection (153) d'au moins un signal (152) provenant de l'élément mobile (200) par une caméra (114) présente sur un capteur (110) faisant partie du système de localisation (100),
• génération par la caméra (114) d'une image (154) comprenant au moins un point correspondant au signal détecté (152),
• transfert de l'image (154) de la caméra (114) à un dispositif de traitement de données (115) du capteur (110),
• détermination (156) des coordonnées et de la taille de chaque point sur une matrice relative au capteur (110) par le dispositif de traitement de données (115), • transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur (110) du dispositif de traitement de données (115) à un microcontrôleur (112) faisant partie du système de localisation (100), et
· transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur (110) du microcontrôleur (112) au serveur (400).
24. Procédé selon la revendication 23, dans lequel le transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur ( 10) du dispositif de traitement de données (115) au microcontrôleur (112) est réalisé en utilisant I2C.
25. Procédé selon la revendication 23 ou 24, dans lequel le transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur (110) du microcontrôleur (112) au serveur (400) est réalisé en utilisant Ethernet.
26. Procédé selon l'une quelconque des revendications 23 à 25, dans lequel le transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur (110) du dispositif (115) de traitement de données au microcontrôleur (112) est réalisé pour un nombre maximum de points à la fois, si l'image (154) contient plus de points que ce nombre maximum, le transfert des coordonnées et de la taille de chaque point sur la matrice relative au capteur (110) du dispositif de traitement de données (115) au microcontrôleur (112) est réalisé en plusieurs fois.
27. Procédé d'installation d'un système (800) de création d'environnement comprenant au moins une image (600), le système (800) comprenant un système de projection (300) et un système de localisation (100), la méthode comprenant les étapes de:
· placement (330) du matériel du système de projection (300),
• calibration (320) du système de projection (300),
• placement (170) du matériel du système de localisation (100), et
• calibration ( 80) du système de localisation (100). 28. Procédé selon la revendication 27, dans lequel !a calibration (320) du système de projection comprend, pour au moins un projecteur (303) faisant partie du système de projection (300):
• une détermination (321) d'une partie de l'image (600) qui est comprise dans une image partielle (610) projetée par le projecteur (303),
• une projection (323) par le projecteur (303) de l'image partielle (610), et
• un ajustement (324) de l'image partielle (610) pour que l'image partielle (610) corresponde à la partie de l'image (600) déterminée lors de la détermination (321 ).
29. Procédé selon la revendication 27 ou 28, dans lequel la calibration (180) du système de localisation (100) comprend, pour au moins un capteur (110) faisant partie du système de localisation (100), les étapes de:
• détermination (182) de la surface à couvrir par chaque capteur (110), et
• ajustement (160) de position de chaque capteur, l'ajustement (160) de position de chaque capteur comprenant une projection, par le système de projection (100), d'une image d'ajustement indiquant dans quelle position ajuster le capteur (110).
30. Procédé selon la revendication 28 ou 29, comprenant en outre un étalonnage (150) qui comprend, pour chacun des coins des surfaces à couvrir, les étapes de:
• projection (136), par le système de projection (300), d'un repère à une localisation spécifique de Sa surface à couvrir de chaque capteur (110), la localisation spécifique étant indiquée dans un système de coordonnées globales de l'environnement,
• placement (137) d'un émetteur portable à proximité du repère projeté, et
• mesure (138) d'étalonnage durant laquelle le capteur (110) détermine les coordonnées de la position de l'émetteur portable dans une matrice (122) de capteur ( 10).
31. Procédé selon la revendication 30, dans lequel l'étalonnage (150) comprend en outre une étape de correspondance (144) entre les localisations spécifiques auxquelles les repères ont été projetés et les coordonnées de la position de l'émetteur portable dans la matrice (12)2 de capteur (110), la correspondance (144) résultant en un moyen permettant de passer des coordonnées dans la matrice (122) du capteur (110) aux coordonnées globales. 32. Procédé de guidage d'un pilote (700) d'un élément mobile (200), le procédé de guidage comprenant les étapes de:
• détermination d'une trajectoire optimale pour l'élément mobile (200),
• localisation de l'élément mobile (200) par un système de localisation (100), • détermination d'au moins une action que le pilote (700) doit réaliser pour que l'élément mobile (200) se rapproche de la trajectoire optimale, et
• diffusion au pilote (700) d'un message contenant des conseils pour que l'élément mobile (200) suive la trajectoire optimale.
33. Procédé anticoilision d'au moins un élément mobile (200) comprenant les étapes de:
• localisation de chaque élément mobile (200) par un système (100) dé localisation,
• détermination de la vitesse et de l'accélération de chaque élément mobile (200),
• calcul des probabilités de positions des éléments mobiles (200) à un moment futur, et
· si la probabilité que plusieurs éléments mobiles (200) soient en-deçà d'une distance seuil est plus grande qu'une probabilité déterminée, freinage automatique des éléments mobiles (200) concernés.
34. Programme d'ordinateur pour ia mise en œuvre d'un procédé selon l'une quelconque des revendications 19 à 26.
35. Programme d'ordinateur pour la mise en œuvre d'un procédé selon l'une quelconque des revendications 27 à 31. 36. Programme d'ordinateur pour la mise en œuvre d'un procédé selon la revendication 32.
37. Programme d'ordinateur pour la mise en œuvre d'un procédé selon la revendication 33.
38. Support de stockage non transitoire sur lequel est stocké un produit de programme informatique comprenant des parties de code de logiciel dans un format exécutable sur un dispositif informatique et configurées pour effectuer les étapes d'un procédé selon l'une quelconque des revendications 19 à 26.
39. Support de stockage non transitoire sur lequel est stocké un produit de programme informatique comprenant des parties de code de logiciel dans un format exécutable sur un dispositif informatique et configurées pour effectuer les étapes d'un procédé selon l'une quelconque des revendications 27 à 31.
40. Support de stockage non transitoire sur lequel est stocké un produit de programme informatique comprenant des parties de code de logiciel dans un format exécutable sur un dispositif informatique et configurées pour effectuer les étapes d'un procédé selon la revendication 32.
41. Support de stockage non transitoire sur lequel est stocké un produit de programme informatique comprenant des parties de code de logiciel dans un format exécutable sur un dispositif informatique et configurées pour effectuer les étapes d'un procédé selon la revendication 33.
42. Elément mobile (200) comprenant :
· une interface électronique (240), agencée pour communiquer avec un serveur (400),
• au moins un actionneur (220) connecté à l'interface électronique (240) et agencé pour être actionné par un pilote (700) de l'élément mobile (200), • au moins un moyen d'action (250) connecté à l'interface électronique (240) et agencé pour réaliser une modification de caractéristiques (235, 238) de l'élément mobile (200) sur base d'un signal (234, 237) reçu de l'interface électronique (240).
43. Elément mobile (200) selon la revendication 41, dans lequel la connection entre l'interface électronique (240) et le serveur (400) passe par un ordinateur de bord (230).. 44. Elément mobile (200) selon la revendication 42 ou 43, comprenant en outre un émetteur (210).
45. Elément mobile (200) selon la revendication 44, dans lequel l'émetteur (210) comprend au moins une source (211) de rayonnement électromagnétique.
46. Elément mobile (200) selon la revendication 45, dans lequel la source (2 1,) de rayonnement électromagnétique comprend un émetteur infra- rouge.
47. Elément mobile (200) selon la revendication 46, dans lequel dans lequel chacune des sources (211, 212) de rayonnement électromagnétique comprend une diode électroluminescente d'une puissance comprise entre 5 et 50 watt.
48. Système de projection (300) agencé pour projeter au moins une image projetée sur au moins un sol (600), le système (300) comprenant au moins un ordinateur de flux vidéo 303 agencé pour être en communication avec un serveur (400) et au moins un projecteur (310) connecté à l'ordinateur de flux vidéo (303).
49. Système seion la revendication 48, comprenant une pluralité de projecteurs (310), chacun des projecteurs (310) étant agencé pour projeter une image partielle (610a-610e) telle que l'ensemble des images partielles (610a-610e) projetées par les projecteurs (310) forme l'image (600). 50. Système selon la revendication 49, dans lequel les images partielles (610) se recouvrent au moins partiellement.
51. Système de localisation (100) comprenant au moins un micracontrôleur (112) agencé pour être en communication avec un serveur (400) et au moins un capteur (110) connecté au microcontrôleur (112).
52. Système selon la revendication 51 , dans lequel une connexion entre chaque capteur (110) et le microcontrôleur (112) auquel le capteur est connecté utilise 12C.
53. Système selon la revendication 51 ou 52, dans lequel une connexion entre chaque micracontrôleur (112) et le serveur (400) utilise Ethernet.
54. Système selon l'une quelconque des revendications 51 à 53, dans lequel chaque capteur (110) comprend une caméra (114) agencée pour prendre une image et est capable de détecter te rayonnement infrarouge.
55. Système selon la revendication 54, dans lequel le capteur (110) comprend en outre un dispositif (115) de traitement de données agencé pour augmenter la résolution de l'image prise par la caméra (114). 56. Système selon l'une quelconque des revendications 51 à 55, comprenant en outre un système (118) d'identification du capteur grâce auquel le serveur (400) est capable d'identifier le capteur (110) duquel une information (102) lui parvient parmi une pluralité de capteurs (110). 57. Système selon l'une quelconque des revendications 51 à 56, dans lequel chaque capteur (110) est connecté à un système (117) d'affichage comprenant une pluralité de diodes électroluminescentes, le capteur (110) et le système (117) d'affichage auquel il est connecté étant agencés pour l'allumage d'un nombre de diodes égal au nombre d'éléments mobiles (200) perçus par le capteur (110).
PCT/EP2015/062731 2015-06-08 2015-06-08 Système de création d'un environnement WO2016198090A1 (fr)

Priority Applications (12)

Application Number Priority Date Filing Date Title
KR1020177037300A KR102105093B1 (ko) 2015-06-08 2015-06-08 환경 생성 시스템
PCT/EP2015/062731 WO2016198090A1 (fr) 2015-06-08 2015-06-08 Système de création d'un environnement
ES15733364T ES2949826T3 (es) 2015-06-08 2015-06-08 Sistema de creación de un entorno
JP2017564034A JP6588574B2 (ja) 2015-06-08 2015-06-08 環境作成システム
EP15733364.2A EP3304522B8 (fr) 2015-06-08 2015-06-08 Système de création d'un environnement
EP23177449.8A EP4235628B1 (fr) 2015-06-08 2015-06-08 Système de création d'un environnement
US15/579,992 US10967279B2 (en) 2015-06-08 2015-06-08 System for creating an environment
DK23177449.8T DK4235628T3 (da) 2015-06-08 2015-06-08 System til frembringelse af en omgivelse
EP23220637.5A EP4322135A3 (fr) 2015-06-08 2015-06-08 Système de création d'un environnement
PL23177449.8T PL4235628T3 (pl) 2015-06-08 2015-06-08 System tworzenia środowiska
FIEP23177449.8T FI4235628T3 (fi) 2015-06-08 2015-06-08 Järjestelmä ympäristön luomiseksi
US17/218,436 US20210213363A1 (en) 2015-06-08 2021-03-31 System for creating an environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2015/062731 WO2016198090A1 (fr) 2015-06-08 2015-06-08 Système de création d'un environnement

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/579,992 A-371-Of-International US10967279B2 (en) 2015-06-08 2015-06-08 System for creating an environment
US17/218,436 Continuation US20210213363A1 (en) 2015-06-08 2021-03-31 System for creating an environment

Publications (1)

Publication Number Publication Date
WO2016198090A1 true WO2016198090A1 (fr) 2016-12-15

Family

ID=53498958

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/062731 WO2016198090A1 (fr) 2015-06-08 2015-06-08 Système de création d'un environnement

Country Status (9)

Country Link
US (2) US10967279B2 (fr)
EP (3) EP3304522B8 (fr)
JP (1) JP6588574B2 (fr)
KR (1) KR102105093B1 (fr)
DK (1) DK4235628T3 (fr)
ES (1) ES2949826T3 (fr)
FI (1) FI4235628T3 (fr)
PL (1) PL4235628T3 (fr)
WO (1) WO2016198090A1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019084583A1 (fr) * 2017-11-02 2019-05-09 Ars Electronica Linz Gmbh & Co Kg Dispositif pour la projection d'informations virtuelles sur une voie de circulation
WO2019171350A1 (fr) * 2018-03-09 2019-09-12 Columbiad Launch Services Inc. Parcours de course dynamique utilisant un essaim de système d'aéronef
CN111152232A (zh) * 2018-11-08 2020-05-15 现代自动车株式会社 服务机器人以及用于操作该服务机器人的方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102114917B1 (ko) * 2018-09-20 2020-05-25 이진식 주행 로봇을 이용한 코딩 교육 제공 시스템
AT522702B1 (de) 2019-06-24 2021-11-15 Brp Rotax Gmbh & Co Kg Interaktives System
AT522577B1 (de) 2019-06-24 2020-12-15 Brp Rotax Gmbh & Co Kg Tunnel oder Überdachung
CN112732848B (zh) * 2020-11-03 2023-06-20 四川锐图威视科技有限公司 基于颜色识别的车辆定位方法、装置及计算机可读存储介质
FR3127622B1 (fr) * 2021-09-28 2023-11-17 Jusdeliens Méthode de détermination en temps réel de coordonnées de dispositifs mécatroniques mobiles posés sur une surface matricielle

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050253699A1 (en) 2004-05-14 2005-11-17 Madonia Joseph R Integrated flat panel display for mounting to exterior surfaces of motor vehicles
US20060098729A1 (en) 2004-11-09 2006-05-11 Lien-Chieh Shen Smart image processing CCTV camera device and method for operating same
US7274389B1 (en) 1997-05-01 2007-09-25 Canon Kabushiki Kaisha Camera apparatus and image processing system with variable resolution
US20080259096A1 (en) * 2005-07-14 2008-10-23 Huston Charles D GPS-Based Location and Messaging System and Method
US20100245233A1 (en) * 2009-03-31 2010-09-30 Codemasters Software Company Ltd. Moving an object within a virtual environment
US20100290529A1 (en) 2009-04-14 2010-11-18 Pankaj Topiwala Real-time superresolution and video transmission
US20140063306A1 (en) 2011-09-06 2014-03-06 Basil Henry Scott Subpixel Resolution by Interpolation of Crosstalk from Adjacent Pixels
US20140379475A1 (en) 2013-06-24 2014-12-25 Ananda Sarangi Content display on moving vehicles
EP2848895A1 (fr) * 2012-08-10 2015-03-18 Aisin Aw Co., Ltd. Système, procédé et programme de guidage à un carrefour

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4322080A (en) * 1980-03-20 1982-03-30 Hugh Pennington Image projecting amusement device
JPH0131260Y2 (fr) * 1984-08-31 1989-09-25
JP3307668B2 (ja) * 1992-02-24 2002-07-24 株式会社ナムコ サーキットレース型ゲーム装置
GB2284957B (en) 1993-12-14 1998-02-18 Gec Marconi Avionics Holdings Optical systems for the remote tracking of the position and/or orientation of an object
US5669821A (en) 1994-04-12 1997-09-23 Prather; James G. Video augmented amusement rides
JP2673112B2 (ja) 1994-06-22 1997-11-05 コナミ株式会社 移動体の遠隔制御装置
US6059657A (en) * 1994-06-22 2000-05-09 Oh; Ketsu Game machine
JP2000262756A (ja) * 1999-03-12 2000-09-26 Snk Corp 遊戯装置
US6211790B1 (en) * 1999-05-19 2001-04-03 Elpas North America, Inc. Infant and parent matching and security system and method of matching infant and parent
WO2001098913A1 (fr) * 2000-06-16 2001-12-27 Vulcan Northwest, Inc. Appareil d'affichage permettant de completer l'experience d'un visiteur
US20040208602A1 (en) * 2001-12-01 2004-10-21 James Plante Free space optical communications link tolerant of atmospheric interference
AU2003291320A1 (en) * 2002-11-05 2004-06-07 Disney Enterprises, Inc. Video actuated interactive environment
US7544137B2 (en) 2003-07-30 2009-06-09 Richardson Todd E Sports simulation system
US7402106B2 (en) * 2004-03-24 2008-07-22 Bay Tek Games, Inc. Computer controlled car racing game
DE112005000738T5 (de) 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
US20050250416A1 (en) * 2004-04-23 2005-11-10 Barthold Mark J Toy and card package
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7657358B2 (en) 2004-07-02 2010-02-02 Greycell, Llc Entertainment system including a vehicle with a simulation mode
US7753756B2 (en) * 2004-10-07 2010-07-13 Mt Remote Systems, Llc Radio controlled system and method of remote location motion emulation and mimicry
WO2006103676A2 (fr) * 2005-03-31 2006-10-05 Ronen Wolfson Surface interactive et systeme d'affichage
US20080217472A1 (en) 2005-10-03 2008-09-11 Rocket Racing, Inc. Rocket-powered vehicle racing reality system
EP2004299A2 (fr) * 2006-03-22 2008-12-24 Home Focus Development Limited Tapis de jeu interactif
US7402964B1 (en) * 2006-05-12 2008-07-22 Bradley Calhoun Race car system
EP2111564B1 (fr) 2007-01-12 2018-04-25 NKT Photonics A/S Extension de durée de vie et améliorations de performances de fibres microstructurées par l'intermédiaire d'un chargement à température élevée
GB2449694B (en) * 2007-05-31 2010-05-26 Sony Comp Entertainment Europe Entertainment system and method
WO2009038797A2 (fr) * 2007-09-20 2009-03-26 Evolution Robotics Systèmes et procédés de jeux robotisés
US20090124382A1 (en) 2007-11-13 2009-05-14 David Lachance Interactive image projection system and method
US8133103B2 (en) * 2008-02-14 2012-03-13 Peter Ciarrocchi Amusement pod entertainment center
WO2014055924A1 (fr) * 2012-10-04 2014-04-10 Disney Enterprises, Inc. Objets interactifs pour environnement immersif
US20100035684A1 (en) * 2008-08-08 2010-02-11 Bay Tek Games, Inc. System and method for controlling movement of a plurality of game objects along a playfield
US8639666B2 (en) * 2008-09-05 2014-01-28 Cast Group Of Companies Inc. System and method for real-time environment tracking and coordination
US7905790B2 (en) * 2008-09-05 2011-03-15 Disney Enterprises, Inc. Theme park ride with ride-through screen system
US8092287B2 (en) 2008-12-04 2012-01-10 Disney Enterprises, Inc. System and method for providing a real-time interactive surface
US8079916B2 (en) * 2008-12-18 2011-12-20 Water Ride Concepts, Inc. Themed amusement river ride system
US20110256927A1 (en) 2009-03-25 2011-10-20 MEP Games Inc. Projection of interactive game environment
DK2435149T3 (en) * 2009-05-28 2015-09-21 Anki Inc Distributed system for autonomous control of toy cars
US8292733B2 (en) 2009-08-31 2012-10-23 Disney Enterprises, Inc. Entertainment system providing dynamically augmented game surfaces for interactive fun and learning
US20110263326A1 (en) 2010-04-26 2011-10-27 Wms Gaming, Inc. Projecting and controlling wagering games
US8854594B2 (en) 2010-08-31 2014-10-07 Cast Group Of Companies Inc. System and method for tracking
US9055226B2 (en) 2010-08-31 2015-06-09 Cast Group Of Companies Inc. System and method for controlling fixtures based on tracking data
US9350923B2 (en) 2010-08-31 2016-05-24 Cast Group Of Companies Inc. System and method for tracking
US9132346B2 (en) 2012-04-04 2015-09-15 Kenneth J. Huebner Connecting video objects and physical objects for handheld projectors
ITMI20130146A1 (it) * 2013-02-01 2014-08-02 Novia E Sistema per il controllo della coppia motrice di un veicolo avente due ruote motrici azionate da motori distinti
US9101824B2 (en) 2013-03-15 2015-08-11 Honda Motor Co., Ltd. Method and system of virtual gaming in a vehicle
CN105359546B (zh) 2013-05-01 2018-09-25 乐盟交互公司 用于交互式视频投影系统的内容产生
US9043056B2 (en) * 2013-07-08 2015-05-26 Disney Enterprises, Inc. Method and system for using dynamic boundaries to manage the progression of ride vehicles that have rider control inputs
CA2858543A1 (fr) 2013-08-12 2015-02-12 GKart Inc. Vehicule pour manege, environnement de manege pour un vehicule et son procede d'utilisation
GB2518602B (en) 2013-09-18 2016-10-05 Gardner David Systems and methods for virtual participation in a real, live event
JP5874717B2 (ja) 2013-12-02 2016-03-02 トヨタ自動車株式会社 訓練システム、及び訓練方法
US10238979B2 (en) * 2014-09-26 2019-03-26 Universal City Sudios LLC Video game ride
JP6352151B2 (ja) * 2014-11-07 2018-07-04 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法
US9358473B2 (en) * 2015-03-24 2016-06-07 Anthony Frolov Interactive amusement attraction
WO2017015290A1 (fr) * 2015-07-20 2017-01-26 Steve Russell Théâtre holographique thématique
US9889860B2 (en) * 2015-12-15 2018-02-13 Universal City Studios Llc Multi-passenger ride vehicle
US20170246534A1 (en) * 2016-02-26 2017-08-31 Kent A. Johnson System and Method for Enhanced Immersion Gaming Room
US10751605B2 (en) * 2016-09-29 2020-08-25 Intel Corporation Toys that respond to projections

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7274389B1 (en) 1997-05-01 2007-09-25 Canon Kabushiki Kaisha Camera apparatus and image processing system with variable resolution
US20050253699A1 (en) 2004-05-14 2005-11-17 Madonia Joseph R Integrated flat panel display for mounting to exterior surfaces of motor vehicles
US20060098729A1 (en) 2004-11-09 2006-05-11 Lien-Chieh Shen Smart image processing CCTV camera device and method for operating same
US20080259096A1 (en) * 2005-07-14 2008-10-23 Huston Charles D GPS-Based Location and Messaging System and Method
US20100245233A1 (en) * 2009-03-31 2010-09-30 Codemasters Software Company Ltd. Moving an object within a virtual environment
US20100290529A1 (en) 2009-04-14 2010-11-18 Pankaj Topiwala Real-time superresolution and video transmission
US20140063306A1 (en) 2011-09-06 2014-03-06 Basil Henry Scott Subpixel Resolution by Interpolation of Crosstalk from Adjacent Pixels
EP2848895A1 (fr) * 2012-08-10 2015-03-18 Aisin Aw Co., Ltd. Système, procédé et programme de guidage à un carrefour
US20140379475A1 (en) 2013-06-24 2014-12-25 Ananda Sarangi Content display on moving vehicles

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MILLECAM SÉBASTIEN: "BattleKart : conception d'un simulateur pour un projet de loisir nouveau inspiré d'un jeu vidéo [Mémoire]", SEARCH RESULT WEB OPAC OF BIBLIOTHÈQUE DE L'UNIVERSITÉ UMONS, BIBLIOTHÈQUE DE L'UNIVERSITÉ UMONS, BELGIUM, Belgium, pages 1 - 2, XP055903074, Retrieved from the Internet <URL:https://biblio.umons.ac.be/webopac/FullBB.csp?WebAction=ShowFullBB&EncodedRequest=A*5C*23*F0*CB*7F*D1*F6Q*87TJc*1A*86*E8&Profile=Default&OpacLanguage=fre&NumberToRetrieve=50&StartValue=2&WebPageNr=1&SearchTerm1=2012%20.2.230350&SearchT1=&Index1=Uindex11&SearchMethod=Find_2&ItemNr=2> [retrieved on 20220318]
PIONNEAU FABIEN: "Un vrai projet de karting façon Mario Kart ! Karts électriques et vidéoprojection du circuit.", LES NUMERIQUES, FR, FR, pages 1 - 5, XP055903053, Retrieved from the Internet <URL:https://www.lesnumeriques.com/loisirs/vrai-projet-karting-facon-mario-kart-n30561.html> [retrieved on 20220318]

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019084583A1 (fr) * 2017-11-02 2019-05-09 Ars Electronica Linz Gmbh & Co Kg Dispositif pour la projection d'informations virtuelles sur une voie de circulation
WO2019171350A1 (fr) * 2018-03-09 2019-09-12 Columbiad Launch Services Inc. Parcours de course dynamique utilisant un essaim de système d'aéronef
US11099556B2 (en) 2018-03-09 2021-08-24 Columbiad Launch Services Inc. Dynamic race course using an aircraft system swarm
CN111152232A (zh) * 2018-11-08 2020-05-15 现代自动车株式会社 服务机器人以及用于操作该服务机器人的方法

Also Published As

Publication number Publication date
US10967279B2 (en) 2021-04-06
EP3304522A1 (fr) 2018-04-11
EP4235628A3 (fr) 2023-10-04
JP6588574B2 (ja) 2019-10-09
KR102105093B1 (ko) 2020-04-28
ES2949826T3 (es) 2023-10-03
EP3304522B1 (fr) 2023-06-07
PL4235628T3 (pl) 2024-04-29
EP4322135A2 (fr) 2024-02-14
EP4235628A2 (fr) 2023-08-30
EP4235628B1 (fr) 2024-01-03
KR20180016426A (ko) 2018-02-14
EP3304522C0 (fr) 2023-06-07
EP3304522B8 (fr) 2023-10-04
US20210213363A1 (en) 2021-07-15
DK4235628T3 (da) 2024-03-11
FI4235628T3 (fi) 2024-03-13
US20180169530A1 (en) 2018-06-21
EP4322135A3 (fr) 2024-05-08
JP2018524063A (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
EP3304522B1 (fr) Système de création d&#39;un environnement
WO2008116982A2 (fr) Procédé de reconnaissance d&#39;objets dans un jeu de tir pour jouets télécommandés
JPH06218136A (ja) 多数参加者運動ビ−クル射的場
EP3397919B2 (fr) Procédé et dispositif de simulation de tourelle
CN111583343B (zh) 视觉定位方法及相关装置、设备、存储介质
US12043384B2 (en) Combat drone with coordinated transmitter and receiver
EP3773041B1 (fr) Casque de protection pour pilote de kart à moyens de réalité augmentée, procédés, système et produits programme d&#39;ordinateur correspondants
US20210024102A1 (en) Autonomous driving unit racing game providing method and racing device and system
WO2021214496A2 (fr) Systèmes et procédés de commande d&#39;un environnement hybride interactif représentant un événement sportif motorisé au niveau d&#39;une piste
US20240210951A1 (en) Media Playback System
BE1022274B1 (fr) Système de création d&#39;un environnement
EP1913326A1 (fr) Dispositif d&#39;entrainement au tir a partir d&#39;une arme
WO2014185764A1 (fr) Simulateur de tir en salle pour armes légères et lance-roquettes antichars
WO2021014018A1 (fr) Systeme et procede de controle d&#39;une pluralite de karts mettant en œuvre au moins deux reseaux de communication
US20160008709A1 (en) Infrared game control system and control method of the same
EP1206129A1 (fr) Système de production d&#39;images assisté par ordinateur
WO2003049425A1 (fr) Système de production d&#39;images assisté par ordinateur
GB2616741A (en) Media playback system
TWI527613B (zh) 紅外線遊戲控制系統及其控制方法
EP3590587A1 (fr) Methodes et systemes de realite mixte appliquees aux evenements collectifs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15733364

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017564034

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15579992

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20177037300

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2015733364

Country of ref document: EP