WO2015063119A1 - Autonomous multi-modal neuro-inspired mobile robot for monitoring and restoring an environment - Google Patents

Autonomous multi-modal neuro-inspired mobile robot for monitoring and restoring an environment Download PDF

Info

Publication number
WO2015063119A1
WO2015063119A1 PCT/EP2014/073168 EP2014073168W WO2015063119A1 WO 2015063119 A1 WO2015063119 A1 WO 2015063119A1 EP 2014073168 W EP2014073168 W EP 2014073168W WO 2015063119 A1 WO2015063119 A1 WO 2015063119A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
environment
information
environmental
sensory
Prior art date
Application number
PCT/EP2014/073168
Other languages
French (fr)
Inventor
Ramesh CAUSSY
Pierre DELARBOULAS
Original Assignee
Partnering 3.0
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Partnering 3.0 filed Critical Partnering 3.0
Publication of WO2015063119A1 publication Critical patent/WO2015063119A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/30Control or safety arrangements for purposes related to the operation of the system, e.g. for safety or monitoring
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/0004Gaseous mixtures, e.g. polluted air
    • G01N33/0009General constructional details of gas analysers, e.g. portable test equipment
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/50Control or safety arrangements characterised by user interfaces or communication
    • F24F11/56Remote control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2110/00Control inputs relating to air properties
    • F24F2110/50Air quality properties
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B30/00Energy efficient heating, ventilation or air conditioning [HVAC]
    • Y02B30/70Efficient control or regulation technologies, e.g. for control of refrigerant flow, motor or heating

Definitions

  • the invention relates to a mobile robot for autonomous monitoring of an environment.
  • the invention is more particularly, but not exclusively, intended for the field of environmental monitoring including the monitoring of air quality in a closed environment.
  • a detection device In the field of monitoring the atmospheric state of a closed environment, it is known to use different detection devices within this enclosed environment.
  • a detection device generally makes it possible to detect a quality parameter of the atmospheric state in a single room of a room, each detection device ensuring the detection of a single environmental status parameter. For example, it is necessary to place, in each room of the room, a smoke detector to detect possible departures of fires. It is also known to install pollution detectors for detecting gases or toxic products in factories and for detecting viruses, bacteria and other allergens in medical premises. It is of course conventional to install thermometers and humidity sensors to know the ambient temperature and the humidity of a room.
  • a security officer is able to instantly assimilate the round trip to perform, not only in terms of travel but also places to visit. It is able to significantly modify its course according to the evolution of the configuration of the places or the priorities, while ensuring the effective control of the places of which it must ensure the security.
  • the robot is autonomous and localized in the environment according to a simultaneous mapping and localization method known by the acronym SLAM or Simultaneous Location And Mapping.
  • SLAM simultaneous mapping and localization method
  • the robot constructs a cartesian cartography of the places by means of its sensors, and stores it in memory means. It is then identified in this map.
  • the construction of the cartography is carried out by means of the sensors of the robot, in particular by stereoscopic vision systems making it possible to estimate distances or laser scanning systems. If the environment evolves, the robot must rebuild its mapping. From a practical point of view, this method requires the recording of an initial mapping and the progressive enrichment of it, so that when the environment is changing, the robot spends more time mapping than performing monitoring tasks, and that memory requirements increase as mapping becomes more complex.
  • sensory means capable of delivering proprioceptive information from the moving and orienting means
  • sensory means capable of delivering information, called environmental information, perceived in the environment of the robot; characterized in that it comprises computer means comprising:
  • a neuromimetic structure comprising a battery of idiothetic gate cells whose neurons are activated by proprioceptive information and a battery of allothetic gate cells;
  • entorhinal cortex a neuromimetic structure, called entorhinal cortex, where each neuron corresponds to a place cell.
  • the robot is able to learn and recognize its environment by the information delivered by its sensory means without using a map but only its cognitive abilities.
  • the robot object of the invention learns and understands an environment that emerges, completely autonomously without acquiring or updating a map.
  • the density of the neuromimetic structures is fixed, the overall number of neurons does not change, so that the learning and recognition of new places or the self-tracking of the robot in a changing environment, do not change the amount of memory needed .
  • the robot object of the invention combines for its navigation proprioceptive sensory information, or idiothetic sensory information and environmental or allothetic, both types of information being acquired continuously during the exploration of its environment.
  • the robot object of the invention comprises:
  • the robot object of the invention is able to locate even in the absence of one or more allothetic information which allows it to move in a changing space without the need to map this space.
  • the robot object of the invention comprises:
  • this matrix structure makes it possible to associate a configuration of the environment's allothetic bitters with a position of the robot and to predict the position of the robot, as a function of the visual bitters picked up by it, whatever its later position vis-à-vis these bitter ones.
  • the proprioceptive sensory means comprise one or more of:
  • the environmental sensory means comprise one or more of:
  • the robot object of the invention is capable of constructing and recognizing a multisensory allothetic image of the environment. This image is used for auto-tracking the environment but also to contextualize measurements made in this environment for monitoring purposes.
  • the vision sensor is a panoramic camera and includes proprioceptive means for measuring the orientation of the vision of said camera.
  • the robot object of the invention comprises means, said digital compass, able to determine the position of the robot with respect to an allothetic mark.
  • the robot object of the invention and capable at least locally to define its position absolutely in the environment in which it evolves.
  • the robot object of the invention comprises a plurality of proximity sensors capable of preventing a collision.
  • the robot object of the invention comprises means, said effectors, able to modify the environment of the robot.
  • the robot object of the invention is able to act on said environment to address the risks as soon as they are detected.
  • said effector means comprise:
  • the robot object of the invention comprises alarm means.
  • the invention also relates to a method for navigating in a closed environment by means of any of the embodiments of the invention, which method comprises the learning steps of:
  • This mechanism allows learning the robot and allows it to adapt to any change in the environment.
  • the method which is the subject of the invention comprises the steps of autonomous navigation consisting of:
  • the navigation system of the robot that is the subject of the invention permanently corrects the errors of cumulating the idiothetic information but also uses this idiothetic information to compensate for the unavailability of certain allothetic information.
  • This mechanism also allows the robot to recognize the location where it is even if the path to reach this place has been changed, for example, following a change in the configuration of the environment.
  • the environmental indices recruited in step ii) are visual bitters and the method comprises the steps of:
  • the method which is the subject of the invention advantageously comprises a step consisting of:
  • step x categorizing the environmental indices recruited in step viii) and that the grid cell association of step ix) is performed by category.
  • Contextualization can detect combinations of potentially undesirable environmental parameters.
  • the method of the invention comprises a navigation step in which the robot enters an unexplored location and which comprises steps i) to iii) so as to integrate this place in its memory.
  • the method comprises the steps of: xi. if the information coming from a sensory means of environment deviates significantly from the known level in this place;
  • xii act on the environment by means of an effector or trigger an alarm.
  • the robot adapts its surveillance and its modes of action to the context of the places visited.
  • the method which is the subject of the invention comprises a step of
  • the robot object of the invention is able to use its cognitive abilities to locate a source outside of its usual routes.
  • Figure 1 is a front view of an embodiment of the robot object of the invention, Figure 1A according to an external view, Figure 1 B in internal view;
  • FIG. 2 is a schematic view of an exemplary embodiment of the neuromimetic control structure of the robot that is the subject of the invention
  • FIG. 3 illustrates in a schematic diagram the neuromimetic structure for learning, memorizing and recognizing the idiothetic indices of a robot according to the invention
  • FIG. 4 shows, in a schematic representation, an exemplary embodiment of the neuromimetic structure for learning, memorizing and recognizing the allothetic indices of the robot that is the subject of the invention.
  • the mobile robot object of the invention is a robot dedicated to the control of the environment in a closed environment to ensure the safety of goods and people in said environment and suitable conditions of comfort.
  • said enclosed environment is a residential or office building, a company, a factory, or any other place delimited in the space requiring a monitoring of its interior environment.
  • the robot object of the invention performs the tasks a vigil by monitoring the premises and generating alarms or acting when anomalies are found.
  • the navigation system of the robot object of the invention is based on a principle of memorization by learning inspired neuroscience.
  • the robot object of the invention recognizes and continuously learns its environment according to a dual process of declarative spatial storage, that is to say the spatiotemporal storage of landmarks or bitter of its environment, and procedural spatial storage, allowing him to acquire a particular motor behavior to achieve his goal. These two processes complement each other continuously.
  • the spatial memory of the robot object of the invention allows it to explore and learn its environment completely independently, even in an initially unknown environment, or more effectively, to change its memory environment from an initial learning, for example the monitoring path to achieve.
  • the robot uses for this purpose a neuromimetic computer system in the form of neural networks.
  • These sets of neurons mimic the functioning of the cells included in the hippocampus, the entorhinal cortex, the set, called PrPh, of the perirhinal cortex and the parahippocampal cortex of the mammalian brain. These areas of the brain include so-called place cells and so-called grid cells.
  • the place cells are the support of the cognitive map. Each neuron corresponds to a precise position of the robot and its activity is maximum when the robot is in this position.
  • the place cells represent the declarative spatial memory.
  • the grid cells are sets of neurons with multiple activity peaks depending on the position of the robot and thus represent a procedural memory of the movement of the robot integrating its path.
  • these storage processes are performed with a constant amount of memory, represented by the number of neurons included in the neural networks implemented in the robot's computer navigation system, the learning being carried out by modifying the weights synaptic connections between neurons.
  • the robot (100) object of the invention comprises motor means, for example a pair of wheels (1 10) motor driven by electric geared motors (11 1).
  • Each geared motor includes an encoder for measuring the angular displacement of the wheels (1 10) and their rotational speed.
  • the relative speed variation between the two drive wheels makes it possible to follow a curved trajectory, a function of the composition of speeds.
  • the robot (100) rotates about its axis (101).
  • the robot (100) comprises vision means (130) comprising a panoramic camera mounted on a rotating shaft (131) whose orientation relative to the robot is also measured by an encoder.
  • This camera is an environmental sensor and allows the robot to recruit allothetic information in its environment.
  • the encoders installed on the driving wheels and the encoder of the orientation shaft of the panoramic camera (130) constitute, according to this example embodiment, proprioceptive sensory means of the robot.
  • the encoders installed on the driving wheels are used to recruit idiothetic information on the position of the robot in its environment, the information of the encoder on the shaft (31) of the orientation of the camera (130) panoramic are used to enrich the allothetic vision information.
  • the robot that is the subject of the invention comprises other sensors enabling it to apprehend its environment.
  • the lower part of the robot (100) comprises a town gas sensor (141), a humidity sensor (143), a pollutant gas sensor (144), for example an ozone sensor, and a sensor. dust (142).
  • the front high part of the robot object of the invention comprises, for example, a toxic product detector (145), a thermometer (146) and a smoke detector (147) without this list being exhaustive.
  • the robot also comprises a microphone (not shown) or a sound level meter enabling it to measure a sound environment or to detect a sound signal, and, in the intended application, these complementary environmental sensors are used as detectors, for example for detect a gas leak, or are also used to obtain allothetic information about the environment and supplement the vision information.
  • the robot which is the subject of the invention also comprises means for acting on the environment, for example a UV lamp reactor (180) capable of destroying allergens, certain pollutants such as formaldehyde or benzene as well as bacteria, or a fragrance diffuser (170).
  • the robot (100) which is the subject of the invention comprises means for communicating, in particular light means (191), for example in the form of a flash, and a loudspeaker (192) for generating signals. alarm.
  • a plurality of proximity sensors (160), for example, ultrasonic transducers are installed on the periphery of the robot and enable it to detect a risk of collision with an obstacle.
  • an on-board computer that includes the neuromimetic system for autonomous navigation of the robot.
  • This on-board computer (150) communicates in particular by means of a display screen (151), and via a wireless network with a base.
  • the neuromimetic system of the robot object of the invention comprises 3 modules (210, 220, 230) neuromimetics.
  • a first module (210) reproduces a cognitive functioning similar to the perirhinal and parahippocampal cortex and allows to memorize, recognize and predict a grid cell configuration (201) from allothetic information combining sensory information on the environment, for example vision, and proprioceptive information, for example the orientation of the panoramic camera.
  • a second module (220) is capable of storing and recognizing grid cells (202) from idiothetic information from proprioceptive sensors, for example wheel speeds of the robot.
  • the third module (230) whose operation is similar to that of the hippocampal operation and the entorhinal cortex, makes it possible to memorize and to recognize place cells from allothetic information or from a grid cell configuration.
  • a fourth module (240) performs a synthesis between the grid cell patterns (202) recognized from the purely idiothetic information in the second module (220) and the grid cells (201) recognized from the allothetic information in the first module (210). This fourth module (240) makes it possible to correct the drifts generated by the cumulative errors of the purely idiothetic locating, but also to the robot to orient itself in conditions of poor visibility when the allothetic indices are not easy to discern.
  • the software components are built using neural networks.
  • the neurons are grouped into groups or neuronal fields each representing a set of neurons following the same rules of learning and activation.
  • the robot is learned from a location allowing the robot to connect to an energy network to recharge its batteries, so that the robot is always able to return to this location in due time.
  • the robot moves in the environment and discovers the places. This learning is faster if the robot is guided, but the robot is able to perform this learning task autonomously.
  • the second module (220) acquires the unit movements (310) of the robot (speed, direction) from the proprioceptive information from the encoders placed on the motricity means of the robot. Unit motion is used to generate grid cells without the need for a Cartesian map.
  • the activity of a pair of neurons (301 1, 3012, 3013, 3014) of the randomly chosen neuronal field (301) is summed and then discretized on other fields (302). These fields are then compressed by modulo projection on smaller fields (303). The conjunction of two of these fields is sufficient to obtain a matrix (304) of grid cells.
  • the first module (210) makes it possible to associate this place cell with actions, that is to say to associate allothetic information with grid cells.
  • the process includes as input environmental sensory information, plus particularly visual information (410) from the panoramic camera of the robot.
  • a treatment of received images makes it possible to extract bitters, that is to say, remarkable visual references, easily recognizable in the environment.
  • Various techniques are known from the prior art for extracting this type of information from an image. The general principle is to apply one or more filters on the image and deduce remarkable points by their contrast, brightness or hue and extract the image portions around each point of interest.
  • These visual cues are positioned in the environment of the robot, for example by determining their angular position in the field of view of the robot.
  • 5 bitterers at defined azimuthal positions uniquely define the planar position of the robot.
  • the azimuthal positions (41 1) of said bitters are determined by image analysis or with the aid of a determined movement of the panoramic camera.
  • all the bitters recruited in the first module constitute a digital compass allowing the robot to determine its position in the environment.
  • the visual and azimuthal information of the bitters is recorded in the robot's memory by recruiting neurons in a PrPh neuron field (420) neuromimetic of the perirhinal and parahippocampal cortex. A place is completely characterized by its image in this matrix (420).
  • the first module (210) learns to predict the configuration of current grid cells corresponding to the new location in which it is located, as they are identified from purely idiothetic information, using the recruited neurons. in the PrPh (420).
  • a grid cell matrix is associated with each location visually recognized by the activity of PrPh neurons (420).
  • the fourth module (240) performs the fusion of the grid cell batteries. (202) issued from the second module (220) and identified from purely idiothetic information, with the grid cells (201) predicted from the PrPh configuration of the first module, that is to say allothetic information .
  • the fourth module (240) inputs a grid cell battery (202) constructed solely with idiothetic information and a grid cell battery (201) constructed solely with allothetic information.
  • this fourth module (240) carries out the gate grid fusion, the two batteries (201, 202) of cells to obtain a more precise and robust robot location.
  • the system calculates, for each pair of grids (201, 202), the distance between the position given by the allothetic information and that given by the idiothetic information. This distance is sent into a two-dimensional dynamic neuron field governed by the Amari equation, as described in "Amari. Dynamics of atern formation in lateral-inhibition type neural fields. Biological cybernetics, 27 (2): 77-87, 1977. Said module (240) realizes a temporal integration of this distance and a competition mechanism makes it possible to retain the best estimate of the distance.
  • the activity of the fused grid cell battery (203) is learned in a last group of neurons modeling the entorhinal cortex of the third module (230). Each neuron of the entorhinal cortex represents a cell of place. Each neuron of the entorhinal cortex reacts, by its activity, to the configuration of grid cells (203) that was present at the time of its recruitment.
  • the first module (210) continuously receives grid cell configurations (203) resulting from the merger performed by the fourth (240) module. It updates the synaptic weights between PrPh and predictions of grid cells according to the quadratic difference minimization algorithm. This adaptation makes it possible to correct incorrect responses induced by changes in the environment in order to preserve coherent grid cell predictions. If the grid cell configurations (203) drift between two In order to maintain a consistent prediction, the third module continuously adapts the synaptic weights between the grid cell configurations (203) from the fourth module (240) and the entorhinal cortex of the third module (230).
  • the robot object of the invention is able to contextualize the level of its sensory perceptions according to the place visited, all this by learning and autonomously. For example, the robot object of the invention will consider as "normal” a higher ozone in a room with many printers. Not because this room contains printers but because during these successive passages in this room he finds this rate. Conversely, he will consider as "abnormal” a lower ozone level in another room where this gas is not usually detected.
  • the measurements from the other sensors are classified by categories or sensor combinations and the measured level configuration for each category is associated with a battery ( 203) of grid cells from the fourth (240) module.
  • the current location represented by the activity of the place cells in the third module (230), and the time, predict the readings of the various environmental sensors.
  • the robot builds a predictive model of the readings of the different environmental sensors expected in the current location at the current time. The difference between the prediction, given by the sensory context, of the expected levels of the measurements delivered by the different environmental sensors and the actual level measured by these sensors, determines the abnormal situations for which the robot must intervene.
  • the robot object of the invention transmits information to its base via the wireless network to which it is connected.
  • This information is advantageously supplemented by position information of the robot.
  • the position of the robot is known by the path taken by said robot to its position current from a known fixed bridge and identified, for example, its charging base, or any other remarkable place recognized by a combination of bitters.
  • the position of the robot and the location of the alarm can be located on a map without any mapping being recorded in the robot and without specific positioning means, such as beacons, being installed in the environment. .
  • the mobile robot (100) purifies the air after detecting the presence of toxic products or at least an atmosphere of poor quality. That is, after establishing the contextualized diagnosis of the ambient atmosphere. Indeed, if the robot detects that one or more of the measured parameters exceed predefined tolerance thresholds, these thresholds being contextualized according to the place or time, then, its computer (150) automatically triggers the setting. operating the reactor (180) to purify the air.
  • the on-board computer (150) controls the perfume diffuser (170) to perfume the enclosed environment.
  • said perfume diffuser (170) diffuses a dry perfume which makes the atmosphere more pleasant.
  • the mobile robot of the invention is thus able to regulate the atmosphere of the enclosed environment to maintain it in an optimal state.
  • the robot measures at each instant the detected value in order to evaluate the direction of the variation gradient and thus to go back to the source and therefore be as efficient as possible: the robot processes the air continuously by moving in the direction of the source of pollution or towards the center of the residual cloud (if the source is not reachable).
  • the robot processes the air continuously by moving in the direction of the source of pollution or towards the center of the residual cloud (if the source is not reachable).
  • the method for learning and recognizing a place is triggered by the detection of a significant variation of one of the environmental parameters enabling the robot to learn to locate the areas to be treated.
  • the ability of raising the gradient is combined with random exploration to allow the robot to be operational in an environment that has never been explored.
  • the human / robot interface comprises an avatar embodying the robot.
  • an avatar can facilitate and enrich the interactions between humans and the mobile robot.
  • this avatar is, for example, in the form of a non-humanoid face embodying the robot and displayed on the screen (150). This face is then able to reproduce expressions (sadness, joy, anger, boredom, surprise, fear, etc.), by means of different postures.
  • the expression of this face thus reflects the internal state of the robot (for example: signaling a sensor failure, discovering a new place, empty battery) and punctuates the interaction with the human (for example: smiling at the initiation of the interaction, nodding at the receipt of an order).
  • the avatar facilitate man-robot interactions, but it also informs about the current task or the task to be performed. It allows the operator to have a feedback (or feedback, in English terms) during the learning phases. Indeed, by his emotion, he can reflect the success or failure of learning the task.
  • the robot that is the subject of the invention is autonomous and able to monitor a changing environment according to contextualized parameters.
  • the robot object of the invention is capable of creating sensory contexts crossing the information of multiple sensors with its location in the environment and the time at which it visits the area.
  • the robot object of the invention thus learns the regularities of the environment and is capable of detecting and treating abnormal situations.

Abstract

The invention relates to a mobile robot (100) comprises movement and orientation means (110) and sensory means, comprising: a. sensory means able to deliver proprioceptive information from the movement and orientation means (110), b. sensory means (130, 141, 142, 143, 144, 145, 146, 147) able to deliver so-called environmental information perceived in the robot's environment; characterised in that it comprises computer means comprising: c. a neuro-mimetic structure comprising a battery of idiothetic grid cells whereof the neurons are activated by proprioceptive information and a battery of allothetic grid cells; d. a neuro-mimetic structure, called entorhinal cortex, each neuron of which corresponds to a place cell.

Description

ROBOT MOBILE NEURO-INSPIRÉ MULTIMODAL AUTONOME POUR LA SURVEILLANCE ET LE RÉTABLISSEMENT D'UN ENVIRONNEMENT  AUTONOMOUS MULTI-MODEL NEURO-INSPIRED MOBILE ROBOT FOR MONITORING AND RECOVERING AN ENVIRONMENT
L'invention concerne un robot mobile pour la surveillance autonome d'un environnement. L'invention est plus particulièrement, mais non exclusivement, destinée au domaine de la surveillance environnementale notamment la surveillance de la qualité de l'air dans un environnement fermé. The invention relates to a mobile robot for autonomous monitoring of an environment. The invention is more particularly, but not exclusively, intended for the field of environmental monitoring including the monitoring of air quality in a closed environment.
Dans le domaine de la surveillance de l'état atmosphérique d'un environnement clos, il est connu d'utiliser différents dispositifs de détection au sein de cet environnement clos. Un dispositif de détection permet généralement de détecter un paramètre de qualité de l'état atmosphérique dans une seule pièce d'un local, chaque dispositif de détection assurant la détection d'un seul paramètre d'état environnemental. Par exemple, il est nécessaire de placer, dans chaque pièce du local, un détecteur de fumée pour détecter d'éventuels départs d'incendies. Il est connu également d'installer des détecteurs de pollution pour détecter des gaz ou produits toxiques dans des usines et pour détecter des virus, des bactéries et autres allergènes, dans des locaux médicaux. Il est bien entendu classique d'installer des thermomètres et des détecteurs d'humidité pour connaître la température ambiante ainsi que le taux d'humidité d'un local.  In the field of monitoring the atmospheric state of a closed environment, it is known to use different detection devices within this enclosed environment. A detection device generally makes it possible to detect a quality parameter of the atmospheric state in a single room of a room, each detection device ensuring the detection of a single environmental status parameter. For example, it is necessary to place, in each room of the room, a smoke detector to detect possible departures of fires. It is also known to install pollution detectors for detecting gases or toxic products in factories and for detecting viruses, bacteria and other allergens in medical premises. It is of course conventional to install thermometers and humidity sensors to know the ambient temperature and the humidity of a room.
Toutefois, avec ces systèmes, il est nécessaire d'installer plusieurs détecteurs répartis dans les différentes pièces ou différents emplacements de l'environnement clos. Pour surveiller plusieurs paramètres d'état environnemental, l'installation des nombreux détecteurs nécessaires à surveiller la totalité de l'environnement clos est donc relativement coûteuse.  However, with these systems, it is necessary to install several detectors distributed in the different rooms or different locations of the enclosed environment. To monitor several environmental status parameters, the installation of the many detectors needed to monitor the entire enclosed environment is therefore relatively expensive.
De plus, ces systèmes présentent l'inconvénient de donner la valeur d'un paramètre d'état environnemental à un emplacement donné, alors que quelques mètres plus loin, le paramètre est susceptible de prendre une valeur différente. C'est le cas, par exemple, d'une température ambiante qui peut varier d'un emplacement à un autre d'un même local en fonction de l'orientation de la pièce par rapport au soleil ou en fonction de la présence de conduits de chauffage, conduits de climatisation, etc. De même, certaines zones peuvent présenter un taux d'humidité différent pour des raisons similaires à celles expliquées précédemment. Ainsi, pour une surveillance adaptée de l'environnement dans un local clos, il est avantageux d'utiliser un ou plusieurs robots de surveillance, à l'image d'agents de sécurité réalisant des rondes régulières. L'automatisation de ces tâches se heurte cependant à des problèmes complexes. En effet, un agent de sécurité est capable d'assimiler instantanément le parcours de ronde à effectuer, non seulement en termes de trajet mais également de lieux à visiter. Il est en mesure de modifier de manière importante son parcours en fonction de l'évolution de la configuration des lieux ou des priorités, tout en assurant le contrôle effectif des lieux dont il doit assurer la sécurité. In addition, these systems have the disadvantage of giving the value of an environmental status parameter at a given location, while a few meters further, the parameter is likely to take a different value. This is the case, for example, of an ambient temperature which may vary from one location to another of the same room depending on the orientation of the room relative to the sun or depending on the presence of ducts. heating, air conditioning ducts, etc. Similarly, some areas may have a different humidity for reasons similar to those explained previously. Thus, for appropriate monitoring of the environment in a closed room, it is advantageous to use one or more surveillance robots, like security agents performing regular rounds. The automation of these tasks, however, faces complex problems. Indeed, a security officer is able to instantly assimilate the round trip to perform, not only in terms of travel but also places to visit. It is able to significantly modify its course according to the evolution of the configuration of the places or the priorities, while ensuring the effective control of the places of which it must ensure the security.
Le document « An intelligent environmental monitoring System based on autonomous mobile robots » de JUNJUN WU et al., IEEE International conférence on robotics and biomimetics, (ROBIO 201 1 ) - 7 décembre 201 1 , décrit un tel système.  The document "An Intelligent Environmental Monitoring System Based on Mobile Mobile Robots" by JUNJUN WU et al., IEEE International Conference on Robotics and Biomimetics, (ROBIO 201 1) - December 7, 201 1, describes such a system.
Ce document décrit le déploiement d'une solution robotique dans des environnements industriels, similaires à de grands entrepôts, dont l'encombrement est simple, stable et prévisible. Le robot est autonome et se localise dans l'environnement selon une méthode de cartographie et de localisation simultanées connue sous l'acronyme anglo-saxon de SLAM ou « Simultaneous Localisation And Mapping ». Selon cette méthode le robot construit une cartographie cartésienne des lieux au moyen de ses capteurs, et l'enregistre dans des moyens de mémoire. Il se repère ensuite dans cette cartographie. La construction de la cartographie est réalisée au moyen des capteurs du robot notamment par des systèmes de vision stéréoscopique permettant d'estimer les distances ou des systèmes de balayage laser. Si l'environnement évolue, le robot doit reconstruire sa cartographie. D'un point de vue pratique cette méthode nécessite l'enregistrement d'une cartographie initiale puis l'enrichissement progressif de celle-ci, de sorte que lorsque l'environnement est changeant, le robot passe plus de temps à cartographier qu'à effectuer les tâches de surveillance, et que les besoins en mémoire s'accroissent à mesure que la cartographie se complexifie.  This document describes the deployment of a robotic solution in industrial environments, similar to large warehouses, whose size is simple, stable and predictable. The robot is autonomous and localized in the environment according to a simultaneous mapping and localization method known by the acronym SLAM or Simultaneous Location And Mapping. According to this method, the robot constructs a cartesian cartography of the places by means of its sensors, and stores it in memory means. It is then identified in this map. The construction of the cartography is carried out by means of the sensors of the robot, in particular by stereoscopic vision systems making it possible to estimate distances or laser scanning systems. If the environment evolves, the robot must rebuild its mapping. From a practical point of view, this method requires the recording of an initial mapping and the progressive enrichment of it, so that when the environment is changing, the robot spends more time mapping than performing monitoring tasks, and that memory requirements increase as mapping becomes more complex.
L'invention vise à résoudre les inconvénients de l'art antérieur et concerne à cette fin un robot mobile pourvu de moyens sensoriels comprenant :  The invention aims to solve the disadvantages of the prior art and concerns for this purpose a mobile robot provided with sensory means comprising:
a. des moyens sensoriels aptes à délivrer une information proprioceptive issue des moyens de déplacement et d'orientation ;  at. sensory means capable of delivering proprioceptive information from the moving and orienting means;
b. des moyens sensoriels aptes à délivrer une information, dite environnementale, perçue dans l'environnement du robot ; caractérisé en ce qu'il comporte des moyens informatiques comprenant : b. sensory means capable of delivering information, called environmental information, perceived in the environment of the robot; characterized in that it comprises computer means comprising:
c. une structure neuromimétique comprenant une batterie de cellules de grille idiothétique dont les neurones sont activés par une information proprioceptive et une batterie de cellules de grille allothétique ;  vs. a neuromimetic structure comprising a battery of idiothetic gate cells whose neurons are activated by proprioceptive information and a battery of allothetic gate cells;
d. une structure neuromimétique, dite cortex entorhinal, dont chaque neurone correspond à une cellule de lieu.  d. a neuromimetic structure, called entorhinal cortex, where each neuron corresponds to a place cell.
Ainsi le robot est apte à apprendre et à reconnaître son environnement par les informations délivrées par ses moyens sensoriels sans faire appel à une cartographie mais uniquement à ses capacités cognitives. Le robot objet de l'invention apprend et comprend un environnement qui émerge, de manière totalement autonome sans acquisition ni mise à jour d'une cartographie. La densité des structures neuromimétiques est fixe, le nombre global de neurones ne change pas, de sorte que l'apprentissage et la reconnaissance de nouveaux lieux ou l'auto-repérage du robot dans un environnement changeant, ne modifient pas la quantité de mémoire nécessaire. Le robot objet de l'invention cumule pour sa navigation des informations sensorielles proprioceptives, ou idiothétiques, et des informations sensorielles environnementales ou allothétiques, les deux types d'informations étant acquises de manière continues au cours de l'exploration de son environnement.  Thus the robot is able to learn and recognize its environment by the information delivered by its sensory means without using a map but only its cognitive abilities. The robot object of the invention learns and understands an environment that emerges, completely autonomously without acquiring or updating a map. The density of the neuromimetic structures is fixed, the overall number of neurons does not change, so that the learning and recognition of new places or the self-tracking of the robot in a changing environment, do not change the amount of memory needed . The robot object of the invention combines for its navigation proprioceptive sensory information, or idiothetic sensory information and environmental or allothetic, both types of information being acquired continuously during the exploration of its environment.
L'invention est avantageusement mise en oeuvre selon les modes de réalisation exposés ci-après, lesquels sont à considérer individuellement ou selon toute combinaison techniquement opérante.  The invention is advantageously implemented according to the embodiments described below, which are to be considered individually or in any technically operative combination.
Avantageusement, le robot objet de l'invention comporte :  Advantageously, the robot object of the invention comprises:
e. des moyens informatiques pour fusionner les informations de la batterie de cellules de grille allothétiques et de la batterie de cellules de grille idiothétiques.  e. computer means for merging the information of the allothetic gate cell battery and the idiothetic gate cell array.
Ainsi le robot objet de l'invention est capable de se repérer même en l'absence d'une ou plusieurs informations allothétiques ce qui lui permet de s'orienter dans un espace changeant sans avoir besoin de cartographier cet espace.  Thus the robot object of the invention is able to locate even in the absence of one or more allothetic information which allows it to move in a changing space without the need to map this space.
Avantageusement, le robot objet de l'invention comporte :  Advantageously, the robot object of the invention comprises:
f. une structure neuromimétique, dite PrPh, dont les neurones sont activés par la combinaison d'une information proprioceptive et d'une information environnementale. Ainsi cette structure matricielle permet d'associer une configuration des amers allothétiques de l'environnement à une position du robot et de prédire la position du robot, en fonctions des amers visuels captés par celui-ci, quelle que soit sa position ultérieure vis-à-vis de ces amers. f. a neuromimetic structure, called PrPh, whose neurons are activated by the combination of proprioceptive information and environmental information. Thus, this matrix structure makes it possible to associate a configuration of the environment's allothetic bitters with a position of the robot and to predict the position of the robot, as a function of the visual bitters picked up by it, whatever its later position vis-à-vis these bitter ones.
Selon un exemple de réalisation, les moyens sensoriels proprioceptifs comprennent un ou plusieurs capteurs parmi :  According to an exemplary embodiment, the proprioceptive sensory means comprise one or more of:
- un odomètre ;  - an odometer;
- un capteur d'orientation ;  an orientation sensor;
- un capteur de vitesse.  - a speed sensor.
La combinaison de toutes ou partie de ces informations permet au robot de se repérer dans l'espace par un processus de mémorisation et de reconnaissance spatiale procédurales, et de naviguer dans l'environnement sans visibilité ou avec une visibilité partielle des informations allothétiques de repérage.  The combination of all or part of this information enables the robot to find its way in space through a procedural memorization and spatial recognition process, and to navigate in the blind environment or with partial visibility of the locating information.
Selon un exemple de réalisation, les moyens sensoriels environnementaux comprennent un ou plusieurs capteurs parmi :  According to an exemplary embodiment, the environmental sensory means comprise one or more of:
- un capteur de vision ;  - a vision sensor;
- un détecteur de poussière ;  - a dust detector;
- un détecteur d'humidité ;  - a humidity detector;
- un détecteur de produit toxique ;  - a toxic product detector;
- un détecteur de gaz ;  - a gas detector;
- un détecteur de fumée ;  - a smoke detector;
- un microphone.  - a microphone.
Ainsi le robot objet de l'invention est apte à construire et à reconnaître une image multisensorielle allothétique de l'environnement. Cette image est utilisée pour l'auto- repérage de l'environnement mais aussi pour contextualiser les mesures réalisées dans cet environnement à des fins de surveillance.  Thus the robot object of the invention is capable of constructing and recognizing a multisensory allothetic image of the environment. This image is used for auto-tracking the environment but also to contextualize measurements made in this environment for monitoring purposes.
Selon un mode de réalisation particulier du robot objet de l'invention, le capteur de vision est une caméra panoramique et il comprend des moyens proprioceptifs pour mesurer l'orientation de la vision de ladite caméra. Ainsi la combinaison de l'information visuelle avec l'information de l'orientation de la caméra permet de recruter des cellules dans le PrPh.  According to a particular embodiment of the robot object of the invention, the vision sensor is a panoramic camera and includes proprioceptive means for measuring the orientation of the vision of said camera. Thus the combination of the visual information with the information of the orientation of the camera makes it possible to recruit cells in the PrPh.
Avantageusement, le robot objet de l'invention comprend des moyens, dits boussole numérique, aptes à déterminer la position du robot par rapport à un repère allothétique. Ainsi le robot objet de l'invention et capable au moins localement de définir sa position de manière absolue dans l'environnement dans lequel il évolue. Advantageously, the robot object of the invention comprises means, said digital compass, able to determine the position of the robot with respect to an allothetic mark. Thus the robot object of the invention and capable at least locally to define its position absolutely in the environment in which it evolves.
Avantageusement, le robot objet de l'invention comporte une pluralité de capteurs de proximité aptes à prévenir une collision.  Advantageously, the robot object of the invention comprises a plurality of proximity sensors capable of preventing a collision.
Selon un mode de réalisation particulier, le robot objet de l'invention comprend des moyens, dit effecteurs, aptes à modifier l'environnement du robot. Ainsi, en plus de réaliser une surveillance de l'environnement, le robot objet de l'invention est en mesure d'agir sur ledit environnement pour traiter les risques dès leur détection.  According to a particular embodiment, the robot object of the invention comprises means, said effectors, able to modify the environment of the robot. Thus, in addition to performing environmental monitoring, the robot object of the invention is able to act on said environment to address the risks as soon as they are detected.
Avantageusement, lesdits moyens effecteurs comprennent :  Advantageously, said effector means comprise:
- un diffuseur de parfum ; ou  - a fragrance diffuser; or
- un réacteur de dépollution chimique ou biologique ; ou  a chemical or biological depollution reactor; or
- un humidificateur d'air.  - an air humidifier.
Avantageusement, le robot objet de l'invention comprend des moyens d'alarme. L'invention concerne également un procédé pour la navigation dans un environnement clos au moyen selon l'un quelconque des modes de réalisation de l'invention, lequel procédé comporte les étapes d'apprentissage consistant à :  Advantageously, the robot object of the invention comprises alarm means. The invention also relates to a method for navigating in a closed environment by means of any of the embodiments of the invention, which method comprises the learning steps of:
i. recruter un neurone cellule de lieu dans le cortex entorhinal ;  i. recruit a place cell neuron into the entorhinal cortex;
ii. recruter des indices environnementaux au moyen du capteur environnemental et fusionner ces indices avec leur position dans l'environnement du robot en recrutant des neurones dans le PrPh ; iii. associer à cette configuration du PrPh la configuration des cellules de grilles ;  ii. recruit environmental clues using the environmental sensor and merge these clues with their position in the robot environment by recruiting neurons into the PrPh; iii. associate with this configuration of the PrPh the configuration of the grid cells;
- de sorte que le neurone recruté dans le cortex entorhinal réagisse à la configuration des cellules de grilles allothétiques et idiothétiques fusionnées correspondant à la configuration apprise.  so that the neuron recruited in the entorhinal cortex reacts to the configuration of the fused allothetic and idiothetic grid cells corresponding to the learned configuration.
Ce mécanisme permet de réaliser l'apprentissage du robot et lui permet de s'auto- adapter à tout changement de l'environnement.  This mechanism allows learning the robot and allows it to adapt to any change in the environment.
Avantageusement, le procédé objet de l'invention comprend les étapes de navigation autonome consistant à :  Advantageously, the method which is the subject of the invention comprises the steps of autonomous navigation consisting of:
iv. fusionner grille à grille les cellules de grille idiothétiques dérivées des informations issues des moyens sensoriels proprioceptifs et les cellules de grilles tirées des prévisions du PrPh ; iv. fuse grid grid idiothetic grid cells derived information from proprioceptive sensory means and cells grids derived from PrPh forecasts;
vi. déterminer la cellule de lieu la plus active du cortex entorhinal en fonction des cellules de grille issues de la fusion ;  vi. determine the cell of the most active place of the entorhinal cortex as a function of the grid cells resulting from the fusion;
vii. en déduire la position du robot et la suite des actions.  vii. to deduce the position of the robot and the sequence of actions.
Ainsi le système de navigation du robot objet de l'invention, corrige en permanence les erreurs de cumul des informations idiothétiques mais utilise également ces informations idiothétiques pour suppléer l'indisponibilité de certaines informations allothétiques. Ce mécanisme permet également au robot de reconnaître le lieu où il se trouve même si le trajet pour arriver à ce lieu a été modifié, par exemple, suite à un changement de configuration de l'environnement.  Thus, the navigation system of the robot that is the subject of the invention permanently corrects the errors of cumulating the idiothetic information but also uses this idiothetic information to compensate for the unavailability of certain allothetic information. This mechanism also allows the robot to recognize the location where it is even if the path to reach this place has been changed, for example, following a change in the configuration of the environment.
Selon un mode de réalisation avantageux du procédé objet de l'invention, mettant en oeuvre un robot comportant une pluralité de capteurs environnementaux, les indices environnementaux recrutés à l'étape ii) sont des amers visuels et le procédé comprend les étapes consistant à :  According to an advantageous embodiment of the method which is the subject of the invention, implementing a robot comprising a plurality of environmental sensors, the environmental indices recruited in step ii) are visual bitters and the method comprises the steps of:
viii. recruter des indices environnementaux au moyen des autres capteurs environnementaux ;  viii. recruiting environmental indices using other environmental sensors;
ix associer à la configuration des indics environnementaux recrutés à l'étape viii) la configuration des cellules de grilles.  ix associate with the configuration of the environmental indicators recruited in step viii) the configuration of the grid cells.
Ainsi les informations environnementales sont contextualisées en regard du lieu où se trouve le robot. L'utilisation des amers visuels, permet au robot de définir de manière précise sa position dans l'environnement.  Thus the environmental information is contextualized in relation to the place where the robot is located. The use of visual amers, allows the robot to precisely define its position in the environment.
Selon ce dernier mode de réalisation, le procédé objet de l'invention comprend avantageusement un étape consistant à :  According to this last embodiment, the method which is the subject of the invention advantageously comprises a step consisting of:
x. catégoriser les indices environnementaux recruté à l'étape viii) et que l'association de cellules de grille de l'étape ix) est réalisée par catégorie. x. categorizing the environmental indices recruited in step viii) and that the grid cell association of step ix) is performed by category.
Ainsi la contextualisation permet de détecter des combinaison des paramètres environnementaux potentiellement indésirables. Contextualization can detect combinations of potentially undesirable environmental parameters.
Avantageusement, le procédé objet l'invention comprend une étape de navigation dans laquelle le robot entre dans un lieu inexploré et qui comprend les étapes i) à iii) de sorte à intégrer ce lieu dans sa mémoire.  Advantageously, the method of the invention comprises a navigation step in which the robot enters an unexplored location and which comprises steps i) to iii) so as to integrate this place in its memory.
Selon un mode de réalisation avantageux du procédé objet de l'invention, celui-ci comprend les étapes consistant à : xi. si l'information issue d'un moyen sensoriel d'environnement s'écarte significativement du niveau connu dans ce lieu ; According to an advantageous embodiment of the method which is the subject of the invention, it comprises the steps of: xi. if the information coming from a sensory means of environment deviates significantly from the known level in this place;
xii. agir sur l'environnement au moyen d'un effecteur ou déclencher une alarme.  xii. act on the environment by means of an effector or trigger an alarm.
Ainsi, le robot adapte sa surveillance et ses modes d'action au contexte des lieux visités.  Thus, the robot adapts its surveillance and its modes of action to the context of the places visited.
Selon un mode de réalisation particulier, le procédé objet de l'invention comprend une étape consistant à  According to a particular embodiment, the method which is the subject of the invention comprises a step of
xiii. déplacer le robot dans l'environnement en suivant le gradient de l'information détectée à l'étape viii) pour remonter à la source de l'émission.  xiii. moving the robot into the environment following the gradient of the information detected in step viii) to go back to the source of the emission.
Ainsi le robot objet de l'invention est apte à utiliser ses capacités cognitives pour localiser une source en dehors de ses itinéraires habituels.  Thus the robot object of the invention is able to use its cognitive abilities to locate a source outside of its usual routes.
L'invention est exposée ci-après selon ses modes de réalisation préférés, nullement limitatifs, et en référence aux figures 1 à 4 dans lesquelles :  The invention is explained below according to its preferred embodiments, in no way limiting, and with reference to FIGS. 1 to 4 in which:
- la figure 1 est une vue de face d'un exemple de réalisation du robot objet de l'invention, figure 1A selon une vue externe, figure 1 B en vue interne ;  - Figure 1 is a front view of an embodiment of the robot object of the invention, Figure 1A according to an external view, Figure 1 B in internal view;
- la figure 2 est une vue schématique d'un exemple de réalisation de la structure neuromimétique de commande du robot objet de l'invention ;  FIG. 2 is a schematic view of an exemplary embodiment of the neuromimetic control structure of the robot that is the subject of the invention;
- la figure 3 illustre selon un schéma de principe la structure neuromimétique pour l'apprentissage, la mémorisation et la reconnaissance des indices idiothétiques d'un robot selon l'invention ;  FIG. 3 illustrates in a schematic diagram the neuromimetic structure for learning, memorizing and recognizing the idiothetic indices of a robot according to the invention;
- et la figure 4 montre selon une représentation schématique, d'un exemple de réalisation de la structure neuromimétique pour l'apprentissage, la mémorisation et la reconnaissance des indices allothétiques du robot objet de l'invention and FIG. 4 shows, in a schematic representation, an exemplary embodiment of the neuromimetic structure for learning, memorizing and recognizing the allothetic indices of the robot that is the subject of the invention.
Le robot mobile objet de l'invention est un robot dédié au contrôle de l'environnement dans un environnement clos afin d'assurer la sécurité des biens et des personnes dans ledit environnement ainsi que des conditions adaptées de confort. Selon des exemples d'application non limitatifs ledit environnement clos est un immeuble d'habitation ou de bureaux, une entreprise, une usine, ou tout autre lieu délimité dans l'espace nécessitant une surveillance de son environnement intérieur. The mobile robot object of the invention is a robot dedicated to the control of the environment in a closed environment to ensure the safety of goods and people in said environment and suitable conditions of comfort. According to non-limiting application examples, said enclosed environment is a residential or office building, a company, a factory, or any other place delimited in the space requiring a monitoring of its interior environment.
Selon un exemple de réalisation, le robot objet de l'invention assure les tâches d'un vigile en surveillant les locaux et en générant des alarmes ou en agissant lorsque des anomalies sont constatées. According to an exemplary embodiment, the robot object of the invention performs the tasks a vigil by monitoring the premises and generating alarms or acting when anomalies are found.
Le système de navigation du robot objet de l'invention est basé sur un principe de mémorisation par apprentissage inspiré des neurosciences. Ainsi le robot objet de l'invention reconnaît et apprend en permanence son environnement selon un double processus de mémorisation spatiale déclarative, c'est-à-dire la mémorisation spatiotemporelle de repères ou d'amers de son environnement, et de mémorisation spatiale procédurale, lui permettant l'acquisition d'un comportement moteur particulier pour atteindre son but. Ces deux processus se complètent en permanence. Ainsi, la mémoire spatiale du robot objet de l'invention lui permet d'explorer et d'apprendre son environnement de manière totalement autonome, même dans un environnement initialement inconnu, ou plus efficacement, de faire évoluer sa mémoire de l'environnement à partir d'un apprentissage initial, par exemple du trajet de surveillance à réaliser. Le robot utilise à cette fin un système informatique neuromimétique sous la forme de réseaux de neurones. Ces ensembles de neurones miment le fonctionnement des cellules comprises dans l'hippocampe, le cortex entorhinal, l'ensemble, dit PrPh, du cortex périrhinal et du cortex parahippocampique du cerveau des mammifères. Ces zones du cerveau comprennent des cellules dites de lieu et des cellules dites de grille.  The navigation system of the robot object of the invention is based on a principle of memorization by learning inspired neuroscience. Thus the robot object of the invention recognizes and continuously learns its environment according to a dual process of declarative spatial storage, that is to say the spatiotemporal storage of landmarks or bitter of its environment, and procedural spatial storage, allowing him to acquire a particular motor behavior to achieve his goal. These two processes complement each other continuously. Thus, the spatial memory of the robot object of the invention allows it to explore and learn its environment completely independently, even in an initially unknown environment, or more effectively, to change its memory environment from an initial learning, for example the monitoring path to achieve. The robot uses for this purpose a neuromimetic computer system in the form of neural networks. These sets of neurons mimic the functioning of the cells included in the hippocampus, the entorhinal cortex, the set, called PrPh, of the perirhinal cortex and the parahippocampal cortex of the mammalian brain. These areas of the brain include so-called place cells and so-called grid cells.
Les cellules de lieux sont le support de la carte cognitive. Chaque neurone correspond à une position précise du robot et son activité est maximale lorsque le robot se trouve dans cette position. Les cellules de lieu représentent ainsi la mémoire spatiale déclarative.  The place cells are the support of the cognitive map. Each neuron corresponds to a precise position of the robot and its activity is maximum when the robot is in this position. The place cells represent the declarative spatial memory.
Les cellules de grilles sont des ensembles de neurones présentant des pics d'activité multiples en fonction de la position du robot et représentent ainsi une mémoire procédurale du déplacement du robot intégrant son trajet.  The grid cells are sets of neurons with multiple activity peaks depending on the position of the robot and thus represent a procedural memory of the movement of the robot integrating its path.
Selon l'invention, ces processus de mémorisation sont réalisés avec une quantité de mémoire constante, représentée par le nombre de neurones compris dans les réseaux de neurones implémentés dans le système informatique de navigation du robot, l'apprentissage étant réalisé par la modification des poids des liaisons synaptiques entre les neurones.  According to the invention, these storage processes are performed with a constant amount of memory, represented by the number of neurons included in the neural networks implemented in the robot's computer navigation system, the learning being carried out by modifying the weights synaptic connections between neurons.
Figure 1 , selon un exemple de réalisation, le robot (100) objet de l'invention comporte des moyens de motricité, par exemple une paire de roues (1 10) motrices actionnées par des moto-réducteurs (11 1 ) électriques. Chaque moto-réducteur comprend un codeur permettant de mesurer le déplacement angulaire des roues (1 10) et leur vitesse de rotation. Selon cet exemple de réalisation, lorsque lesdites roues (110) tournent dans le même sens et à la même vitesse le robot avance selon une trajectoire rectiligne, la variation relative de vitesse entre les deux roues motrices permet de suivre une trajectoire courbe, fonction de la composition des vitesses. Lorsque lesdites roues (110) tournent en sens inverse le robot (100) tourne autour de son axe (101 ). Selon cet exemple de réalisation, le robot (100) comprend des moyens (130) de vision comprenant une caméra panoramique montée sur un arbre (131 ) tournant dont l'orientation par rapport au robot est également mesurée par un codeur. Cette caméra constitue un capteur d'environnement et permet au robot de recruter des informations allothétiques dans son environnement. Les codeurs installés sur les roues motrices et le codeur de l'arbre d'orientation de la caméra panoramique (130), constituent, selon cet exemple de réalisation des moyens sensoriels proprioceptifs du robot. Selon cet exemple de réalisation, les codeurs installés sur les roues motrices sont utilisés pour recruter des informations idiothétique sur la position du robot dans son environnement, les informations du codeur sur l'arbre (31 ) d'orientation de la caméra (130) panoramique sont utilisées pour enrichir les informations allothétiques de vision. Selon cet exemple de réalisation, le robot objet de l'invention comporte d'autres capteurs lui permettant d'appréhender son environnement. Ainsi, la partie basse du robot (100) comporte un capteur de gaz de ville (141 ), un capteur d'humidité (143), un capteur de gaz polluant (144) par exemple un capteur d'ozone, et un capteur de poussière (142). La partie avant haute du robot objet de l'invention comporte, par exemple, un détecteur de produits toxiques (145), un thermomètre (146) et un détecteur de fumée (147) sans que cette liste ne soit exhaustive. Avantageusement, le robot comprend également un microphone (non représenté) ou un sonomètre lui permettant de mesurer une ambiance sonore ou de détecter un signal sonore, elon l'application visée, ces capteurs d'environnement complémentaires sont utilisés comme des détecteurs, par exemple pour déceler une fuite de gaz, ou sont également utilisés pour obtenir des informations allothétiques sur l'environnement et compléter les informations de vision. 1, according to an exemplary embodiment, the robot (100) object of the invention comprises motor means, for example a pair of wheels (1 10) motor driven by electric geared motors (11 1). Each geared motor includes an encoder for measuring the angular displacement of the wheels (1 10) and their rotational speed. According to this exemplary embodiment, when said wheels (110) rotate in the same direction and at the same speed the robot advances in a rectilinear trajectory, the relative speed variation between the two drive wheels makes it possible to follow a curved trajectory, a function of the composition of speeds. When said wheels (110) rotate in opposite directions, the robot (100) rotates about its axis (101). According to this exemplary embodiment, the robot (100) comprises vision means (130) comprising a panoramic camera mounted on a rotating shaft (131) whose orientation relative to the robot is also measured by an encoder. This camera is an environmental sensor and allows the robot to recruit allothetic information in its environment. The encoders installed on the driving wheels and the encoder of the orientation shaft of the panoramic camera (130) constitute, according to this example embodiment, proprioceptive sensory means of the robot. According to this embodiment, the encoders installed on the driving wheels are used to recruit idiothetic information on the position of the robot in its environment, the information of the encoder on the shaft (31) of the orientation of the camera (130) panoramic are used to enrich the allothetic vision information. According to this exemplary embodiment, the robot that is the subject of the invention comprises other sensors enabling it to apprehend its environment. Thus, the lower part of the robot (100) comprises a town gas sensor (141), a humidity sensor (143), a pollutant gas sensor (144), for example an ozone sensor, and a sensor. dust (142). The front high part of the robot object of the invention comprises, for example, a toxic product detector (145), a thermometer (146) and a smoke detector (147) without this list being exhaustive. Advantageously, the robot also comprises a microphone (not shown) or a sound level meter enabling it to measure a sound environment or to detect a sound signal, and, in the intended application, these complementary environmental sensors are used as detectors, for example for detect a gas leak, or are also used to obtain allothetic information about the environment and supplement the vision information.
Ces capteurs et détecteurs sont positionnés sur le robot en fonction du mode de diffusion et de propagation de l'information environnementale à détecter ou à mesurer. Par exemple, les détections concernant la présence de produits plus lourds que l'air est avantageusement détectée par des capteurs ou détecteurs situés en partie basse du robot (100). Au contraire, les détections concernant la présence de produits volatils sont avantageusement réalisées par des détecteurs ou des capteurs situés en partie haute du robot (100). Selon un mode de réalisation particulier, le robot objet de l'invention comporte également des moyens pour agir sur l'environnement, par exemple, un réacteur à lampe à UV (180) capable de détruire les allergènes, certains polluants comme le formaldéhyde ou le benzène ainsi que les bactéries, ou encore un diffuseur de parfum (170). L'air traité par le réacteur (180) entre par des ouvertures périphériques (non représentées) pratiquées dans la partie haute du robot, puis traverse ledit réacteur (180) où il est purifié et finalement s'évacue par des orifices (non représentés) situés en partie basse du robot. Selon un exemple de réalisation, le robot (100) objet de l'invention comprend des moyens pourcommuniquer, notamment des moyens lumineux (191 ), par exemple sous la forme d'un flash et un haut-parleur (192) pour générer des signaux d'alarme. Une pluralité de capteurs de proximité (160), par exemple, des transducteurs ultrasonores sont installés sur la périphérie du robot et lui permettent de détecter un risque de collision avec un obstacle. L'ensemble des fonctions du robot sont pilotées par un ordinateur de bord (150) qui comporte le système neuromimétique permettant la navigation autonome du robot. Cet ordinateur de bord (150) communique notamment au moyen d'un écran d'affichage (151 ), et par l'intermédiaire d'un réseau sans fil avec une base. These sensors and detectors are positioned on the robot according to the mode of diffusion and propagation of the environmental information to be detected or measured. For example, the detections concerning the presence of heavier products than air is advantageously detected by sensors or detectors located at the bottom of the robot (100). On the contrary, the detections concerning the presence of volatile products are advantageously carried out by detectors or sensors located in the upper part of the robot (100). According to a particular embodiment, the robot which is the subject of the invention also comprises means for acting on the environment, for example a UV lamp reactor (180) capable of destroying allergens, certain pollutants such as formaldehyde or benzene as well as bacteria, or a fragrance diffuser (170). The air treated by the reactor (180) enters through peripheral openings (not shown) made in the upper part of the robot, then through said reactor (180) where it is purified and finally evacuated through orifices (not shown) located at the bottom of the robot. According to an exemplary embodiment, the robot (100) which is the subject of the invention comprises means for communicating, in particular light means (191), for example in the form of a flash, and a loudspeaker (192) for generating signals. alarm. A plurality of proximity sensors (160), for example, ultrasonic transducers are installed on the periphery of the robot and enable it to detect a risk of collision with an obstacle. All of the functions of the robot are controlled by an on-board computer (150) that includes the neuromimetic system for autonomous navigation of the robot. This on-board computer (150) communicates in particular by means of a display screen (151), and via a wireless network with a base.
Figure 2, le système neuromimétique du robot objet de l'invention comprend 3 modules (210, 220, 230) neuromimétiques. Un premier module (210) reproduit un fonctionnement cognitif similaire aux cortex périrhinal et parahippocampique et permet de mémoriser, de reconnaître et de prédire une configuration de cellules de grilles (201 ) à partir d'informations allothétiques combinant des informations sensorielles sur l'environnement, par exemple la vision, et des informations proprioceptives, par exemple l'orientation de la caméra panoramique. Un deuxième module (220) est apte à mémoriser et à reconnaître des cellules de grilles (202) à partir d'informations idiothétiques issues des capteurs proprioceptifs, par exemple les vitesses des roues du robot. Le troisième module (230) dont le fonctionnement s'apparente à celui du fonctionnement hippocampique et du cortex entorhinal, permet de mémoriser et de reconnaître des cellules de lieu à partir d'informations allothétiques ou à partir d'une configuration de cellules de grilles. Un quatrième module (240) réalise une synthèse entre les configurations de cellules de grilles (202) reconnues à partir des informations purement idiothétiques dans le deuxième module (220) et les cellules de grille (201 ) reconnues à partir des informations allothétiques dans le premier module (210). Ce quatrième module (240) permet de corriger les dérives engendrées par les erreurs cumulatives du repérage purement idiothétique, mais aussi au robot de s'orienter dans des conditions de mauvaise visibilité lorsque les indices allothétiques ne sont pas aisés à discerner. Figure 2, the neuromimetic system of the robot object of the invention comprises 3 modules (210, 220, 230) neuromimetics. A first module (210) reproduces a cognitive functioning similar to the perirhinal and parahippocampal cortex and allows to memorize, recognize and predict a grid cell configuration (201) from allothetic information combining sensory information on the environment, for example vision, and proprioceptive information, for example the orientation of the panoramic camera. A second module (220) is capable of storing and recognizing grid cells (202) from idiothetic information from proprioceptive sensors, for example wheel speeds of the robot. The third module (230), whose operation is similar to that of the hippocampal operation and the entorhinal cortex, makes it possible to memorize and to recognize place cells from allothetic information or from a grid cell configuration. A fourth module (240) performs a synthesis between the grid cell patterns (202) recognized from the purely idiothetic information in the second module (220) and the grid cells (201) recognized from the allothetic information in the first module (210). This fourth module (240) makes it possible to correct the drifts generated by the cumulative errors of the purely idiothetic locating, but also to the robot to orient itself in conditions of poor visibility when the allothetic indices are not easy to discern.
Les composants logiciels sont construits à l'aide de réseaux de neurones. Les neurones sont regroupés en groupes ou champs neuronaux représentant chacun un ensemble de neurones suivant les mêmes règles d'apprentissage et d'activation.  The software components are built using neural networks. The neurons are grouped into groups or neuronal fields each representing a set of neurons following the same rules of learning and activation.
Selon un mode de mise en oeuvre préféré, l'apprentissage du robot est réalisé en partant d'un emplacement permettant au robot de se connecter à un réseau d'énergie pour recharger ses batteries, de sorte que le robot soit toujours apte à revenir à cet emplacement en temps voulu.  According to a preferred embodiment, the robot is learned from a location allowing the robot to connect to an energy network to recharge its batteries, so that the robot is always able to return to this location in due time.
Figure 3, en phase d'apprentissage, le robot se déplace dans l'environnement et découvre les lieux. Cet apprentissage est plus rapide si le robot est guidé, mais le robot est apte à réaliser cette tâche d'apprentissage de manière autonome. Durant cette phase, le deuxième module (220) fait l'acquisition des déplacements (310) unitaires du robot (vitesse, direction) à partir des informations proprioceptives issues des codeurs placés sur les moyens de motricité du robot. Le mouvement unitaire est utilisé pour générer des cellules de grille sans besoin d'une carte cartésienne. L'activité d'une paire de neurones (301 1 , 3012, 3013, 3014) du champ (301 ) neuronal, choisie aléatoirement, est sommée puis discrétisée sur d'autres champs (302). Ces champs sont ensuite compressés par projection modulo sur des champs plus petits (303). La conjonction de deux de ces champs est suffisante pour obtenir une matrice (304) de cellules de grilles.  Figure 3, in learning phase, the robot moves in the environment and discovers the places. This learning is faster if the robot is guided, but the robot is able to perform this learning task autonomously. During this phase, the second module (220) acquires the unit movements (310) of the robot (speed, direction) from the proprioceptive information from the encoders placed on the motricity means of the robot. Unit motion is used to generate grid cells without the need for a Cartesian map. The activity of a pair of neurons (301 1, 3012, 3013, 3014) of the randomly chosen neuronal field (301) is summed and then discretized on other fields (302). These fields are then compressed by modulo projection on smaller fields (303). The conjunction of two of these fields is sufficient to obtain a matrix (304) of grid cells.
Figure 4, toujours en phase d'apprentissage, lorsque le robot découvre un lieu qu'il ne connaît pas, il recrute une cellule de lieu dans le cortex entorhinal du troisième module. Le premier module (210) permet d'associer cette cellule de lieu à des actions, c'est-à-dire d'associer des informations allothétiques à des cellules de grilles. Le processus comprend en entrée des informations sensorielles environnementales, plus particulièrement des informations (410) visuelles issues de la caméra panoramique du robot. Un traitement des images reçues permet d'en extraire des amers, c'est-à-dire des repères visuels remarquables, facilement reconnaissables dans l'environnement. Différentes techniques sont connues de l'art antérieur pour extraire ce type d'information d'une image. Le principe général consiste à appliquer un ou plusieurs filtres sur l'image et à en déduire des points remarquables par leur contraste, leur luminosité ou leur teinte puis à en extraire les portions d'image autour de chaque point d'intérêt. Ces indices visuels sont positionnés dans l'environnement du robot, par exemple en déterminant leur position angulaire dans le champ de vision du robot. À titre d'exemple non limitatif, 5 amers se trouvant à des positions azimutales déterminées définissent de manière unique la position planaire du robot. Les positions azimutales (41 1 ) desdits amers sont déterminées par analyse d'image ou avec l'aide d'un mouvement déterminé de la caméra panoramique. Ainsi l'ensemble des amers recrutés dans le premier module constituent une boussole numérique permettant au robot de déterminersa position dans l'environnement. Les informations visuelles et azimutales des amers sont enregistrées dans la mémoire du robot en recrutant des neurones dans un champ neuronal PrPh (420) neuromimétiques des cortex périrhinal et parahippocampique. Un lieu est complètement caractérisé par son image dans cette matrice (420). En phase d'apprentissage, le premier module (210) apprend à prédire la configuration de cellules de grille courante correspondant au nouveau lieu dans lequel il se trouve, telles qu'elles sont identifiées à partir des informations purement idiothétiques, en utilisant les neurones recrutés dans le PrPh (420). Ainsi, à l'issue de cet apprentissage, une matrice de cellule de grille est associée à chaque lieu visuellement reconnu par l'activité des neurones du PrPh (420). Cet apprentissage est par exemple réalisé au moyen d'un algorithme minimisant les écarts quadratiques et suivant la règle d'apprentissage Widrow et Hoff, décrite dans «.Gaussier, P., Banquet, J. P., Sargolini, F., Giovannangeli, C, Save, E., and Poucet, B. (2007). A model ofgrid cells involving extra hippocampal path intégration, and the hippocampal loop. Journal of Integrative Neuroscience, 6 (3) : 447-476. 56, 61 , 62, 90, 91 , 92, 93, 114 ». Pour chacune des grilles un apprentissage indépendant est effectué. Figure 4, still in the learning phase, when the robot discovers a place he does not know, he recruits a place cell in the entorhinal cortex of the third module. The first module (210) makes it possible to associate this place cell with actions, that is to say to associate allothetic information with grid cells. The process includes as input environmental sensory information, plus particularly visual information (410) from the panoramic camera of the robot. A treatment of received images makes it possible to extract bitters, that is to say, remarkable visual references, easily recognizable in the environment. Various techniques are known from the prior art for extracting this type of information from an image. The general principle is to apply one or more filters on the image and deduce remarkable points by their contrast, brightness or hue and extract the image portions around each point of interest. These visual cues are positioned in the environment of the robot, for example by determining their angular position in the field of view of the robot. By way of non-limiting example, 5 bitterers at defined azimuthal positions uniquely define the planar position of the robot. The azimuthal positions (41 1) of said bitters are determined by image analysis or with the aid of a determined movement of the panoramic camera. Thus all the bitters recruited in the first module constitute a digital compass allowing the robot to determine its position in the environment. The visual and azimuthal information of the bitters is recorded in the robot's memory by recruiting neurons in a PrPh neuron field (420) neuromimetic of the perirhinal and parahippocampal cortex. A place is completely characterized by its image in this matrix (420). In the learning phase, the first module (210) learns to predict the configuration of current grid cells corresponding to the new location in which it is located, as they are identified from purely idiothetic information, using the recruited neurons. in the PrPh (420). Thus, at the end of this training, a grid cell matrix is associated with each location visually recognized by the activity of PrPh neurons (420). This learning is for example realized by means of an algorithm minimizing the quadratic differences and according to the learning rule Widrow and Hoff, described in ". Gaussier, P., Banquet, JP, Sargolini, F., Giovannangeli, C, Save , E., and Poucet, B. (2007). A model ofgrid cells involving extra hippocampal path integration, and the hippocampal loop. Journal of Integrative Neuroscience, 6 (3): 447-476. 56, 61, 62, 90, 91, 92, 93, 114 ". For each grid an independent learning is done.
En revenant à la figure 2, tant en phase d'apprentissage qu'en phase d'utilisation du robot, le quatrième module (240) réalise la fusion des batteries de cellules de grille (202) issues du deuxième module (220) et identifiées à partir d'informations purement idiothétiques, avec les cellules de grilles (201 ) prédites à partir de la configuration du PrPh du premier module, c'est-à-dire des informations allothétiques. Le quatrième module (240) prend en entrée une batterie (202) de cellules de grilles construites uniquement avec des informations idiothétiques et une batterie (201 ) de cellules de grilles construites uniquement avec des informations allothétiques. Ainsi, ce quatrième module (240) réalise la fusion grille à grille, les deux batteries (201 , 202) de cellules pour obtenir une localisation du robot plus précise et robuste. Le système calcule, pour chaque couple de grilles (201 , 202), la distance entre la position donnée par les informations allothétiques et celle donnée par les informations idiothétiques. Cette distance est envoyée dans un champ de neurones dynamiques en deux dimensions régit par l'équation d'Amari, tel que décrit dans « Amari. Dynamics of attern formation in latéral-inhibition type neural fields. Biological cybernetics, 27 (2):77-87, 1977 ». Ledit module (240) réalise une intégration temporelle de cette distance et un mécanisme de compétition permet de retenir la meilleure estimation de la distance. L'activité de la batterie de cellule de grilles fusionnées (203) est apprise dans un dernier groupe de neurones modélisant le cortex entorhinal du troisième module (230). Chaque neurone du cortex entorhinal représente une cellule de lieu. Chaque neurone du cortex entorhinal réagit, par son activité, à la configuration de cellules de grille (203) qui était présente au moment de son recrutement. Returning to FIG. 2, both in the learning phase and in the use phase of the robot, the fourth module (240) performs the fusion of the grid cell batteries. (202) issued from the second module (220) and identified from purely idiothetic information, with the grid cells (201) predicted from the PrPh configuration of the first module, that is to say allothetic information . The fourth module (240) inputs a grid cell battery (202) constructed solely with idiothetic information and a grid cell battery (201) constructed solely with allothetic information. Thus, this fourth module (240) carries out the gate grid fusion, the two batteries (201, 202) of cells to obtain a more precise and robust robot location. The system calculates, for each pair of grids (201, 202), the distance between the position given by the allothetic information and that given by the idiothetic information. This distance is sent into a two-dimensional dynamic neuron field governed by the Amari equation, as described in "Amari. Dynamics of atern formation in lateral-inhibition type neural fields. Biological cybernetics, 27 (2): 77-87, 1977. Said module (240) realizes a temporal integration of this distance and a competition mechanism makes it possible to retain the best estimate of the distance. The activity of the fused grid cell battery (203) is learned in a last group of neurons modeling the entorhinal cortex of the third module (230). Each neuron of the entorhinal cortex represents a cell of place. Each neuron of the entorhinal cortex reacts, by its activity, to the configuration of grid cells (203) that was present at the time of its recruitment.
En cours d'utilisation, lorsque le robot se déplace dans des lieux connus, il n'y a pas de recrutement de nouveaux neurones ni dans le cortex entorhinal,, ni dans le PrPh. Il n'y a pas non plus de recrutement de nouveaux amers. Cependant, l'environnement étant dynamique, le système adapte son apprentissage afin de maintenir la cohérence de son comportement. Pour cela, il adapte les poids synaptiques des connexions entre les neurones des différents groupes. Le premier module (210) reçoit en permanence les configurations de cellules de grilles (203) issues de la fusion réalisée par le quatrième (240) module. Il actualise les poids synaptiques entre le PrPh et les prédictions de cellules de grilles suivant l'algorithme de minimisation de l'écart quadratique. Cette adaptation permet de corriger des mauvaises réponses induites par des changements de l'environnement afin de conserver des prédictions de cellules de grilles cohérentes. Si les configurations de cellules de grilles (203) dérivent entre deux visites du même lieu, afin de maintenir une prédiction cohérente, le troisième module adapte en permanence les poids synaptiques entre les configurations de cellules de grilles (203) en provenance du quatrième module (240) et le cortex entorhinal du troisième module (230). In use, when the robot travels to known places, there is no recruitment of new neurons either in the entorhinal cortex, or in the PrPh. There is also no recruitment of new landmarks. However, since the environment is dynamic, the system adapts its learning in order to maintain the coherence of its behavior. For this, he adapts the synaptic weights of the connections between the neurons of the different groups. The first module (210) continuously receives grid cell configurations (203) resulting from the merger performed by the fourth (240) module. It updates the synaptic weights between PrPh and predictions of grid cells according to the quadratic difference minimization algorithm. This adaptation makes it possible to correct incorrect responses induced by changes in the environment in order to preserve coherent grid cell predictions. If the grid cell configurations (203) drift between two In order to maintain a consistent prediction, the third module continuously adapts the synaptic weights between the grid cell configurations (203) from the fourth module (240) and the entorhinal cortex of the third module (230).
L'exemple de réalisation exposé ci-avant, montre l'apprentissage du robot vis-à-vis des informations allothétiques visuelles. Toutefois, selon un exemple de réalisation, la reconnaissance sensorielle allothétique des lieux est susceptible de mettre en oeuvre d'autres acquisitions sensorielles complémentaires, à tout le moins d'associer des niveaux de paramètres environnementaux à des cellules de lieu. Ainsi, le robot objet de l'invention est en mesure de contextualiser le niveau de ses perceptions sensorielles en fonction du lieu visité, tout ceci par apprentissage et de manière autonome. À titre d'exemple, le robot objet de l'invention considérera comme « normal » un taux d'ozone plus élevé dans un local comportant de nombreuses imprimantes. Non pas parce que ce local contient des imprimantes mais parce qu'au cours de ces passages successifs dans ce local il constate ce taux. Inversement il considérera comme « anormal » un taux d'ozone plus faible dans un autre local où ce gaz n'est pas habituellement détecté.  The exemplary embodiment described above shows the robot's training vis-à-vis the visual allothetic information. However, according to an exemplary embodiment, the allothetic sensory recognition of the places is likely to implement other complementary sensory acquisitions, at least to associate levels of environmental parameters to place cells. Thus, the robot object of the invention is able to contextualize the level of its sensory perceptions according to the place visited, all this by learning and autonomously. For example, the robot object of the invention will consider as "normal" a higher ozone in a room with many printers. Not because this room contains printers but because during these successive passages in this room he finds this rate. Conversely, he will consider as "abnormal" a lower ozone level in another room where this gas is not usually detected.
Ainsi, selon un exemple de réalisation où la vision est utilisée comme capteur pour le recrutement des indices allothétiques, les mesures issues des autres capteurs sont classées par catégories ou combinaisons de capteur et la configuration de nivaux mesurés pour chaque catégorie est associée à une batterie (203) de cellules de grille issues du quatrième (240) module. Par un modèle inverse, le lieu courant, représenté par l'activité des cellules de lieu dans le troisième module (230), et l'heure, prédisent les relevés des différents capteurs environnementaux. Ainsi, le robot construit un modèle prédictif des relevés des différents capteurs environnementaux attendu dans le lieu courant à l'heure courante. L'écart entre la prédiction, donnée par le contexte sensoriel, des niveaux attendus des mesures délivrés par les différents capteurs environnementaux et le niveau réel mesuré par ces capteurs, détermine les situations anormales pour lesquels le robot doit intervenir. Avantageusement, lorsqu'une anomalie de contexte environnemental est détectée, le robot objet de l'invention transmet une information à sa base via le réseau sans fil auquel il est connecté. Cette information est avantageusement complétée par des informations de position du robot. Par exemple, la position du robot est connue par le trajet réalisé par ledit robot jusqu'à sa position courante depuis un pont fixe connu et identifié, par exemple, sa base de recharge, ou tout autre lieu remarquable reconnu par une combinaison d'amers. Ainsi, la position du robot et du lieu de l'alarme est localisable sur une carte sans qu'aucune cartographie ne soit enregistrée dans le robot et sans que des moyens de positionnement spécifiques, tels que des balises, ne soient installés dans l'environnement. Thus, according to an exemplary embodiment where the vision is used as a sensor for the recruitment of allothetic indices, the measurements from the other sensors are classified by categories or sensor combinations and the measured level configuration for each category is associated with a battery ( 203) of grid cells from the fourth (240) module. By an inverse model, the current location, represented by the activity of the place cells in the third module (230), and the time, predict the readings of the various environmental sensors. Thus, the robot builds a predictive model of the readings of the different environmental sensors expected in the current location at the current time. The difference between the prediction, given by the sensory context, of the expected levels of the measurements delivered by the different environmental sensors and the actual level measured by these sensors, determines the abnormal situations for which the robot must intervene. Advantageously, when an environmental context anomaly is detected, the robot object of the invention transmits information to its base via the wireless network to which it is connected. This information is advantageously supplemented by position information of the robot. For example, the position of the robot is known by the path taken by said robot to its position current from a known fixed bridge and identified, for example, its charging base, or any other remarkable place recognized by a combination of bitters. Thus, the position of the robot and the location of the alarm can be located on a map without any mapping being recorded in the robot and without specific positioning means, such as beacons, being installed in the environment. .
En revenant à la figure 1 , dans un mode de réalisation de l'invention, le robot mobile (100) procède à une purification de l'air après avoir détecté la présence de produits toxiques ou tout au moins d'une atmosphère de faible qualité, c'est-à-dire après avoir établi le diagnostic contextualisé de l'atmosphère ambiante. En effet, si le robot détecte qu'un ou plusieurs des paramètres mesurés dépassent des seuils de tolérance prédéfinis, ces seuils étant contextualisés en fonction du lieu ou de l'heure, alors, son ordinateur de bord (150) déclenche automatiquement la mise en fonctionnement du réacteur (180) afin de purifier l'air. Selon un exemple de mise en oeuvre, après que l'air ait été purifié, l'ordinateur de bord (150) commande le diffuseur de parfum (170) pour parfumer l'environnement clos. Selon un exemple de réalisation, ledit diffuseur de parfum (170) diffuse un parfum sec qui rend l'atmosphère plus agréable. Le module de dépollution de l'air (180) et le diffuseur de parfum (170) étant montés sur le robot mobile (100), l'atmosphère de l'ensemble de l'environnement clos est assainie. En effet, la régulation de l'atmosphère, constitue une opération d'homéostasie qui s'effectue en parallèle avec l'opération de diagnostic. Le robot mobile de l'invention est ainsi apte à réguler l'atmosphère de l'environnement clos pour le maintenir dans un état optimal.  Returning to FIG. 1, in one embodiment of the invention, the mobile robot (100) purifies the air after detecting the presence of toxic products or at least an atmosphere of poor quality. that is, after establishing the contextualized diagnosis of the ambient atmosphere. Indeed, if the robot detects that one or more of the measured parameters exceed predefined tolerance thresholds, these thresholds being contextualized according to the place or time, then, its computer (150) automatically triggers the setting. operating the reactor (180) to purify the air. According to an exemplary implementation, after the air has been purified, the on-board computer (150) controls the perfume diffuser (170) to perfume the enclosed environment. According to an exemplary embodiment, said perfume diffuser (170) diffuses a dry perfume which makes the atmosphere more pleasant. The air pollution control module (180) and the fragrance diffuser (170) being mounted on the mobile robot (100), the atmosphere of the entire enclosed environment is sanitized. Indeed, the regulation of the atmosphere is a homeostasis operation that is performed in parallel with the diagnostic operation. The mobile robot of the invention is thus able to regulate the atmosphere of the enclosed environment to maintain it in an optimal state.
Selon un autre mode de réalisation, dans le cas où un signal environnemental est détecté (fumée, polluant, odeur...), le robot mesure à chaque instant la valeur détectée afin d'évaluer la direction du gradient de variation et ainsi remonter vers la source et donc être le plus efficace possible : le robot traite l'air en continu en se déplaçant dans la direction de la source de pollution ou vers le centre du nuage résiduel (si la source n'est pas atteignable). Plusieurs algorithmes de remontée du gradient sont utilisables à cette fin et dont la mise en oeuvre est rendue possible grâce à l'autonomie du robot dans son apprentissage des lieux :  According to another embodiment, in the case where an environmental signal is detected (smoke, pollutant, odor, etc.), the robot measures at each instant the detected value in order to evaluate the direction of the variation gradient and thus to go back to the source and therefore be as efficient as possible: the robot processes the air continuously by moving in the direction of the source of pollution or towards the center of the residual cloud (if the source is not reachable). Several algorithms of rise of the gradient are usable for this purpose and whose implementation is made possible thanks to the autonomy of the robot in its learning of places:
- se déplacer en ligne droite tant que le gradient augmente et changer de direction aléatoirement dans le cas contraire,  - move in a straight line as the gradient increases and change direction randomly in the opposite case,
- utiliser les valeurs sur trois positions non alignées pour estimer la direction du gradient. Cette information de déplacement et de gradient est mémorisée et associées aux lieux appris par le robot de manière à être plus efficaces les fois suivantes si le traitement doit être chronique. Selon un exemple de réalisation, le procédé d'apprentissage et de reconnaissance d'un lieu est déclenché par la détection d'une variation importante de l'un des paramètres environnementaux permettant au robot d'apprendre à localiser les zones à traiter. - use the values on three non-aligned positions to estimate the direction of the gradient. This displacement and gradient information is stored and associated with the locations learned by the robot so as to be more effective the next times if the treatment is to be chronic. According to an exemplary embodiment, the method for learning and recognizing a place is triggered by the detection of a significant variation of one of the environmental parameters enabling the robot to learn to locate the areas to be treated.
Selon un autre exemple de réalisation, la capacité de remontée du gradient est combinée à une exploration aléatoire pour permettre au robot d'être opérationnel dans un environnement qui n'aurait jamais été exploré.  According to another exemplary embodiment, the ability of raising the gradient is combined with random exploration to allow the robot to be operational in an environment that has never been explored.
Dans un mode de réalisation de l'invention, l'interface homme/robot comporte un avatar incarnant le robot. Un tel avatar permet de faciliter et d'enrichir les interactions entre l'homme et le robot mobile. Selon un exemple de réalisation, cet avatar se présente, par exemple, sous la forme d'un visage non humanoïde incarnant le robot et affiché sur l'écran (150). Ce visage est alors capable de reproduire des expressions (tristesse, joie, colère, ennui, surprise, peur, etc.), au moyen de différentes postures. L'expression de ce visage reflète ainsi l'état interne du robot (par exemple : signaler une défaillance d'un capteur, découverte d'un nouveau lieu, batterie vide) et ponctue l'interaction avec l'humain (par exemple : sourire lors de l'initiation de l'interaction, hochement de tête à la réception d'un ordre).  In one embodiment of the invention, the human / robot interface comprises an avatar embodying the robot. Such an avatar can facilitate and enrich the interactions between humans and the mobile robot. According to an exemplary embodiment, this avatar is, for example, in the form of a non-humanoid face embodying the robot and displayed on the screen (150). This face is then able to reproduce expressions (sadness, joy, anger, boredom, surprise, fear, etc.), by means of different postures. The expression of this face thus reflects the internal state of the robot (for example: signaling a sensor failure, discovering a new place, empty battery) and punctuates the interaction with the human (for example: smiling at the initiation of the interaction, nodding at the receipt of an order).
Non seulement, l'avatar facilite les interactions homme-robot, mais il renseigne également sur la tâche en cours ou celle à effectuer. Il permet à l'opérateur d'avoir un retour (ou feed-back, en termes anglo-saxons) lors des phases d'apprentissage. En effet, par son émotion, il peut refléter le succès ou l'échec de l'apprentissage de la tâche.  Not only does the avatar facilitate man-robot interactions, but it also informs about the current task or the task to be performed. It allows the operator to have a feedback (or feedback, in English terms) during the learning phases. Indeed, by his emotion, he can reflect the success or failure of learning the task.
La description ci-avant et les exemples de réalisation montrent que l'invention atteint les objectifs visés, en particulier, grâce à un système de navigation neuromimétique le robot objet de l'invention est autonome et apte à surveiller un environnement changeant selon des paramètres contextualisés. Ainsi, le robot objet de l'invention est capable de créer des contextes sensoriels croisant les informations des multiples capteurs avec sa localisation dans l'environnement et l'heure à laquelle il visite la zone. Le robot objet de l'invention apprend ainsi les régularités de l'environnement et est capable de détecter et de traiter des situations anormales.  The description above and the exemplary embodiments show that the invention achieves the desired objectives, in particular, thanks to a neuromimetic navigation system, the robot that is the subject of the invention is autonomous and able to monitor a changing environment according to contextualized parameters. . Thus, the robot object of the invention is capable of creating sensory contexts crossing the information of multiple sensors with its location in the environment and the time at which it visits the area. The robot object of the invention thus learns the regularities of the environment and is capable of detecting and treating abnormal situations.

Claims

REVENDICATIONS
Robot mobile (100) comportant des moyens de déplacement (1 10) et d'orientation et des moyens sensoriels comprenant : Mobile robot (100) comprising displacement means (1 10) and orientation means and sensory means comprising:
a. des moyens sensoriels aptes à délivrer une information proprioceptive issue des moyens (1 10) de déplacement et d'orientation ; at. sensory means capable of delivering proprioceptive information from means (1 10) of displacement and orientation;
b. des moyens sensoriels (130, 141 , 142, 143, 144, 145, 146, 147) aptes à délivrer une information, dite environnementale, perçue dans l'environnement du robot ; b. sensory means (130, 141, 142, 143, 144, 145, 146, 147) adapted to deliver a so-called environmental information perceived in the environment of the robot;
caractérisé en ce qu'il comporte des moyens informatiques comprenant: c. une structure neuromimétique (210, 220, 230) comprenant une batterie de cellules de grille idiothétique (202) dont les neurones sont activés par une information proprioceptive et une batterie de cellules de grille (201 ) allothétique ; characterized in that it comprises computer means comprising: c. a neuromimetic structure (210, 220, 230) comprising a battery of idiothetic gate cells (202) whose neurons are activated by proprioceptive information and a battery of allothetic gate cells (201);
d. une structure neuromimétique, dite cortex entorhinal, dont chaque neurone correspond à une cellule de lieu. d. a neuromimetic structure, called entorhinal cortex, where each neuron corresponds to a place cell.
Robot selon la revendication 1 , comprenant : Robot according to claim 1, comprising:
e. des moyens informatiques (240) pourfusionner les informations de la batterie de cellules de grille allothétique (201 ) et de la batterie de cellules de grille idiothétique (202). e. computer means (240) for merging the information of the allothetic gate cell bank (201) and the idiothetic gate cell bank (202).
Robot selon la revendication 2, comprenant : Robot according to claim 2, comprising:
f. une structure neuromimétique, dite PrPh (420), dont les neurones sont activés par la combinaison d'une information (41 1 ) proprioceptive et d'une information (410) environnementale. f. a neuromimetic structure, called PrPh (420), whose neurons are activated by the combination of proprioceptive information (41 1) and environmental information (410).
Robot selon revendication 1 , dans lequel les moyens sensoriels proprioceptif comprennent un ou plusieurs capteurs parmi : Robot according to claim 1, wherein the proprioceptive sensory means comprise one or more of:
un odomètre ;  an odometer;
un capteur d'orientation ;  an orientation sensor;
un capteur de vitesse. a speed sensor.
5. Robot selon la revendication 1 , dans lequel les moyens sensoriels environnementaux comprennent un ou plusieurs capteurs parmi : The robot of claim 1, wherein the environmental sensory means comprises one or more of:
un capteur de vision (130) ;  a vision sensor (130);
un thermomètre (146) ;  a thermometer (146);
- un détecteur de poussière (142) ;  - a dust detector (142);
un détecteur d'humidité (143) ;  a humidity detector (143);
un détecteur de produit toxique (145) ;  a toxic product detector (145);
un détecteur de gaz (141 ) ;  a gas detector (141);
un détecteur de fumée (147) ;  a smoke detector (147);
- un microphone.  - a microphone.
6. Robot selon la revendication 5, dans lequel le capteur (130) de vision est une caméra panoramique et qui comprend des moyens proprioceptifs pour mesurer l'orientation de la vision de ladite caméra. The robot of claim 5, wherein the vision sensor (130) is a panoramic camera and includes proprioceptive means for measuring the viewing orientation of said camera.
7. Robot selon la revendication 6, comprenant des moyens, dits boussole numérique, aptes à déterminer la positon du robot par rapport à un repère allothétique. 7. Robot according to claim 6, comprising means, said digital compass, capable of determining the position of the robot relative to an allothetic mark.
8. Robot selon la revendication 1 , comportant une pluralité de capteurs (160) de proximité aptes à prévenir une collision. 8. Robot according to claim 1, comprising a plurality of proximity sensors (160) capable of preventing a collision.
9. Robot selon la revendication 5, comportant des moyens (170, 180), dit effecteurs, aptes à modifier l'environnement du robot. 9. Robot according to claim 5, comprising means (170, 180), said effectors, able to modify the environment of the robot.
10. Robot selon la revendication 9, dans lequel les moyens effecteurs comprennent : The robot of claim 9 wherein the effector means comprises:
un diffuseur de parfum (170) ; ou  a fragrance diffuser (170); or
un réacteur (180) de dépollution chimique ou biologique ; ou - un humidificateur d'air.  a chemical or biological depollution reactor (180); or - an air humidifier.
11. Robot selon la revendication 5, comprenant des moyens (191 , 192) d'alarme. 11. Robot according to claim 5, comprising alarm means (191, 192).
12. Procédé pour la navigation dans un environnement clos au moyen d'un robot selon la revendication 3, caractérisé en ce qu'il comporte les étapes d'apprentissage consistant à : 12. Method for navigating in a closed environment by means of a robot according to claim 3, characterized in that it comprises the learning steps consisting in:
i. recruter un neurone cellule de lieu dans le cortex entorhinal ; ii. recruter des indices environnementaux au moyen du capteur environnemental et fusionner ces indices avec leur position dans l'environnement du robot en recrutant des neurones dans le PrPh (420) ; i. recruit a place cell neuron into the entorhinal cortex; ii. recruit environmental clues using the environmental sensor and merge these clues with their position in the robot environment by recruiting neurons into PrPh (420);
iii. associer à cette configuration du PrPh la configuration des cellules de grilles (203) ; iii. associating with this configuration of the PrPh the configuration of the grid cells (203);
de sorte que le neurone recruté dans le cortex entorhinal réagisse à la configuration des cellules de grilles allothétiques et idiothétiques fusionnées correspondant à la configuration apprise.  so that the neuron recruited in the entorhinal cortex reacts to the configuration of the fused allothetic and idiothetic grid cells corresponding to the learned configuration.
Procédé selon la revendication 12, comprenant les étapes de navigation autonome consistant à : The method of claim 12, comprising the autonomous navigation steps of:
iv. fusionner grille à grille les cellules de grille idiothétiques dérivées des informations issues des moyens sensoriels proprioceptifs et les cellules de grilles tirées des prévisions du PrPh ; iv. merging grid gate idiothetic grid cells derived from information from proprioceptive sensory means and grid cells derived from predictions of PrPh;
vi. déterminer la cellule de lieu la plus active du cortex entorhinal en fonction des cellules de gilles issues de la fusion ; vi. to determine the cell of the most active place of the entorhinal cortex according to the cells of gilles resulting from the fusion;
vii. en déduire la position du robot et la suite des actions. vii. to deduce the position of the robot and the sequence of actions.
Procédé selon la revendication 13, comprenant une étape de navigation dans laquelle le robot entre dans un lieu inexploré et qui comprend les étapes i) à iii) de sorte à intégrer ce lieu dans sa mémoire. The method of claim 13 including a navigation step in which the robot enters an unexplored location and which comprises steps i) to iii) so as to integrate that location into its memory.
Procédé selon la revendication 13, mettant en oeuvre un robot selon la revendication 5, dans lequel les indices environnementaux recrutés à l'étape ii) sont des amers visuels et qui comprend les étapes consistant à : A method according to claim 13, employing a robot according to claim 5, wherein the environmental indicia recruited in step ii) are visual bitters and which comprises the steps of:
viii. recruter des indices environnementaux au moyen des autres capteurs environnementaux ; viii. recruiting environmental indices using other environmental sensors;
ix associer à la configuration des indics environnementaux recrutés à l'étape viii) la configuration des cellules de grilles (203). ix to be associated with the configuration of the environmental indics recruited in step viii) the configuration of the grid cells (203).
16. Procédé selon la revendication 15, comprenant une étape consistant à : x. catégoriser les indices environnementaux recruté à l'étape viii) et que l'association de cellules de grille (203) de l'étape ix) est réalisée par catégorie. The method of claim 15, comprising a step of: x. categorizing the environmental indices recruited in step viii) and that the association of grid cells (203) of step ix) is performed by category.
17. Procédé selon la revendication 15, mettant un oeuvre un robot selon la revendication 10 ou la revendication 11 , comprenant les étapes consistant à : 17. The method of claim 15, employing a robot according to claim 10 or claim 11, comprising the steps of:
xi. si l'information issue d'un moyen sensoriel d'environnement s'écarte significativemet du niveau connu dans ce lieu ;  xi. if the information from a sensory environment means deviates significantly from the level known in this place;
xii. agir sur l'environnement au moyen d'un effecteur ou déclencher une alarme.  xii. act on the environment by means of an effector or trigger an alarm.
18. Procédé selon la revendication 17, comprenant une étape consistant à xiii. déplacer le robot dans l'environnement en suivant le gradient de l'information détectée à l'étape xi) pour remonter à la source de l'émission. The method of claim 17, comprising a step of xiii. moving the robot into the environment following the gradient of the information detected in step xi) to go back to the source of the emission.
PCT/EP2014/073168 2013-09-12 2014-10-29 Autonomous multi-modal neuro-inspired mobile robot for monitoring and restoring an environment WO2015063119A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1358800A FR3010528A1 (en) 2013-09-12 2013-09-12 MOBILE ENVIRONMENT MONITORING ROBOT
FR1360569A FR3010529B1 (en) 2013-09-12 2013-10-29 MOBILE ENVIRONMENT MONITORING ROBOT
FR1360569 2013-10-29

Publications (1)

Publication Number Publication Date
WO2015063119A1 true WO2015063119A1 (en) 2015-05-07

Family

ID=50543104

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2014/073168 WO2015063119A1 (en) 2013-09-12 2014-10-29 Autonomous multi-modal neuro-inspired mobile robot for monitoring and restoring an environment

Country Status (2)

Country Link
FR (2) FR3010528A1 (en)
WO (1) WO2015063119A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10684264B2 (en) 2015-12-24 2020-06-16 Partnering 3.0 System for monitoring air quality and docking station for a mobile robot equipped with air quality sensors
CN112097769A (en) * 2020-08-05 2020-12-18 北京航空航天大学 Homing pigeon brain-hippocampus-imitated unmanned aerial vehicle simultaneous positioning and mapping navigation system and method
CN112304314A (en) * 2020-08-27 2021-02-02 中国科学技术大学 Distributed multi-robot navigation method
CN112558605A (en) * 2020-12-06 2021-03-26 北京工业大学 Robot behavior learning system based on striatum structure and learning method thereof
US11163311B2 (en) 2015-12-24 2021-11-02 Partnering 3.0 Robotic equipment including a mobile robot, method for recharging a battery of such mobile robot, and mobile robot docking station
WO2023184223A1 (en) * 2022-03-30 2023-10-05 中国电子科技集团公司信息科学研究院 Robot autonomous positioning method based on brain-inspired space coding mechanism and apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112985505B (en) * 2021-03-02 2022-02-01 清华大学 Indoor environment space-time distribution field generation method combining mobile perception and fixed perception

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1553536A1 (en) * 2002-10-04 2005-07-13 Fujitsu Limited Robot system and autonomously traveling robot
WO2006058125A2 (en) * 2004-11-23 2006-06-01 S. C. Johnson & Son, Inc. Device and methods of providing air purification in combination with cleaning of surfaces
US20120078417A1 (en) * 2010-09-28 2012-03-29 International Business Machines Corporartion Detecting Energy and Environmental Leaks In Indoor Environments Using a Mobile Robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1553536A1 (en) * 2002-10-04 2005-07-13 Fujitsu Limited Robot system and autonomously traveling robot
WO2006058125A2 (en) * 2004-11-23 2006-06-01 S. C. Johnson & Son, Inc. Device and methods of providing air purification in combination with cleaning of surfaces
US20120078417A1 (en) * 2010-09-28 2012-03-29 International Business Machines Corporartion Detecting Energy and Environmental Leaks In Indoor Environments Using a Mobile Robot

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DAVID SAMU ET AL: "Robust path integration in the entorhinal grid cell system with hippocampal feed-back", BIOLOGICAL CYBERNETICS ; ADVANCES IN COMPUTATIONAL NEUROSCIENCE, SPRINGER, BERLIN, DE, vol. 101, no. 1, 21 April 2009 (2009-04-21), pages 19 - 34, XP019740426, ISSN: 1432-0770, DOI: 10.1007/S00422-009-0311-Z *
JUNJUN WU ET AL: "An intelligent environmental monitoring system based on autonomous mobile robot", ROBOTICS AND BIOMIMETICS (ROBIO), 2011 IEEE INTERNATIONAL CONFERENCE ON, IEEE, 7 December 2011 (2011-12-07), pages 138 - 143, XP032165773, ISBN: 978-1-4577-2136-6, DOI: 10.1109/ROBIO.2011.6181275 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10684264B2 (en) 2015-12-24 2020-06-16 Partnering 3.0 System for monitoring air quality and docking station for a mobile robot equipped with air quality sensors
US11163311B2 (en) 2015-12-24 2021-11-02 Partnering 3.0 Robotic equipment including a mobile robot, method for recharging a battery of such mobile robot, and mobile robot docking station
CN112097769A (en) * 2020-08-05 2020-12-18 北京航空航天大学 Homing pigeon brain-hippocampus-imitated unmanned aerial vehicle simultaneous positioning and mapping navigation system and method
CN112097769B (en) * 2020-08-05 2022-06-10 北京航空航天大学 Homing pigeon brain-hippocampus-imitated unmanned aerial vehicle simultaneous positioning and mapping navigation system and method
CN112304314A (en) * 2020-08-27 2021-02-02 中国科学技术大学 Distributed multi-robot navigation method
CN112558605A (en) * 2020-12-06 2021-03-26 北京工业大学 Robot behavior learning system based on striatum structure and learning method thereof
WO2023184223A1 (en) * 2022-03-30 2023-10-05 中国电子科技集团公司信息科学研究院 Robot autonomous positioning method based on brain-inspired space coding mechanism and apparatus

Also Published As

Publication number Publication date
FR3010529A1 (en) 2015-03-13
FR3010528A1 (en) 2015-03-13
FR3010529B1 (en) 2019-08-02

Similar Documents

Publication Publication Date Title
WO2015063119A1 (en) Autonomous multi-modal neuro-inspired mobile robot for monitoring and restoring an environment
Duarte et al. Application of swarm robotics systems to marine environmental monitoring
Franz et al. Biomimetic robot navigation
Arleo et al. Cognitive navigation based on nonuniform Gabor space sampling, unsupervised growing networks, and reinforcement learning
US7211980B1 (en) Robotic follow system and method
US7801644B2 (en) Generic robot architecture
US7668621B2 (en) Robotic guarded motion system and method
US8073564B2 (en) Multi-robot control interface
CN110653831A (en) Multi-odor-searching robot for underground comprehensive pipe gallery and positioning system and method for dangerous gas leakage source
FR2960963A1 (en) DEVICE FOR AIDING NAVIGATION, IN PARTICULAR WITHIN BUILDINGS
Jacobson et al. Autonomous Multisensor Calibration and Closed‐loop Fusion for SLAM
Monroy et al. Towards odor-sensitive mobile robots
Jiang et al. Multi-robot formation control: a comparison between model-based and learning-based methods
Jauffret et al. Multimodal integration of visual place cells and grid cells for navigation tasks of a real robot
Palacín et al. Automatic Supervision of Temperature, Humidity, and Luminance with an Assistant Personal Robot
Yan et al. A neural approach for robot navigation based on cognitive map learning
Sales et al. Topological autonomous navigation for mobile robots in indoor environments using ann and fsm
Pessin et al. Intelligent control and evolutionary strategies applied to multirobotic systems
Li et al. Detecting and monitoring time-related abnormal events using a wireless sensor network and mobile robot
Bella et al. A hybrid air-sea cooperative approach combined with a swarm trajectory planning method
Pretorius et al. A neural network-based kinematic and light-perception simulator for simple robotic evolution
US11887317B2 (en) Object trajectory forecasting
Graves et al. Continuous localization in changing environments
Egido et al. Self-generation by a mobile robot of topological maps of corridors
Haque et al. Vision based trajectory following robot and swarm

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14790595

Country of ref document: EP

Kind code of ref document: A1

WPC Withdrawal of priority claims after completion of the technical preparations for international publication

Ref document number: 1360569

Country of ref document: FR

Date of ref document: 20151005

Free format text: WITHDRAWN AFTER TECHNICAL PREPARATION FINISHED

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14790595

Country of ref document: EP

Kind code of ref document: A1