FR3037498A1 - METHOD FOR CONTROLLING A MOBILE DEVICE - Google Patents

METHOD FOR CONTROLLING A MOBILE DEVICE Download PDF

Info

Publication number
FR3037498A1
FR3037498A1 FR1555548A FR1555548A FR3037498A1 FR 3037498 A1 FR3037498 A1 FR 3037498A1 FR 1555548 A FR1555548 A FR 1555548A FR 1555548 A FR1555548 A FR 1555548A FR 3037498 A1 FR3037498 A1 FR 3037498A1
Authority
FR
France
Prior art keywords
data
cerebral
user
instruction
brain wave
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1555548A
Other languages
French (fr)
Other versions
FR3037498B1 (en
Inventor
Hachem Amine Lamti
Philippe Gorce
Khelifa Mohamed Moncef Ben
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universite de Toulon
Original Assignee
Universite de Toulon
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universite de Toulon filed Critical Universite de Toulon
Priority to FR1555548A priority Critical patent/FR3037498B1/en
Publication of FR3037498A1 publication Critical patent/FR3037498A1/en
Application granted granted Critical
Publication of FR3037498B1 publication Critical patent/FR3037498B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F4/00Methods or devices enabling patients or disabled persons to operate an apparatus or a device not forming part of the body 
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/378Visual stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/04Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs motor-driven
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0257Proximity sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/18General characteristics of devices characterised by specific control means, e.g. for adjustment or steering by patient's head, eyes, facial muscles or voice
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/70General characteristics of devices with special adaptations, e.g. for safety or comfort
    • A61G2203/72General characteristics of devices with special adaptations, e.g. for safety or comfort for collision prevention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Abstract

L'invention a pour objet la commande et le contrôle d'un fauteuil roulant (un mobile) se basant sur l'assimilation de données des paramètres visuels et de l'activité cérébrale. La partie commande consiste à valider une position du regard désirée (l'Iris) dans l'environnement grâce à des ondes cérébrales. Ces dernières alimentent le bloc de contrôle et servent à évaluer l'état de fatigue de l'utilisateur. A partir d'autres ondes cérébrales, la température corporelle ainsi que du rythme cardiaque de l'utilisateur ont implémente l'état émotionnel de l'utilisateur. L'assimilation entre ces deux blocs, permet de définir un mode de fonctionnement, qui traduit l'état émotionnel et de fatigue de l'utilisateur ainsi que la caractérisation de l'environnement (la sécurité de la trajectoire, détection des obstacles, et la situation de blocage...). Les consignes du déplacement du fauteuil sont obtenues par l'assimilation en temps réel des données des capteurs de proximité et du mode de déplacement actif.The invention relates to the control and control of a wheelchair (a mobile) based on the assimilation of data of visual parameters and brain activity. The control part is to validate a position of the desired look (the Iris) in the environment through brain waves. These feed the control block and are used to evaluate the state of fatigue of the user. From other brain waves, the body temperature as well as the user's heart rate have implemented the emotional state of the user. The assimilation between these two blocks, allows to define a mode of operation, which reflects the emotional state and fatigue of the user as well as the characterization of the environment (the safety of the trajectory, detection of obstacles, and the blocking situation ...). The chair movement instructions are obtained by real-time assimilation of the proximity sensor data and the active mode of travel.

Description

1 DOMAINE DE L'INVENTION La présente invention est relative notamment au contrôle d'un appareil mobile prenant en compte au moins une donnée cérébrale.FIELD OF THE INVENTION The present invention relates in particular to the control of a mobile device taking into account at least one cerebral data.

Une application préférée concerne l'industrie des fauteuils roulants pour personnes handicapées. ARRIERE-PLAN TECHNOLOGIQUE La très grande majorité des appareils mobiles actuels sont contrôlés par des commandes partiellement mécaniques. Ainsi, un utilisateur doit utiliser un joystick, un volant, une barre, ou tout autre moyen de commande manuelle pour diriger un appareil mobile. Malheureusement, ces appareils sont inutilisables pour certaines personnes, et notamment par les personnes tétraplégiques. Même pour les personnes non tétraplégiques, un moyen de contrôle d'un appareil mobile n'utilisant pas de commande manuelle est intéressant. Cela peut notamment permettre par exemple aux membres de l'utilisateur d'effectuer des taches annexes, non liées au contrôle de l'appareil mobile. Il existe donc un besoin de solution technique pour contrôler un appareil, sans l'utilisation de commande mécanique.A favorite application is the wheelchair industry for people with disabilities. BACKGROUND The vast majority of today's mobile devices are controlled by partially mechanical controls. Thus, a user must use a joystick, a steering wheel, a bar, or any other means of manual control to navigate a mobile device. Unfortunately, these devices are unusable for some people, including people with quadriplegia. Even for non-quadriplegic people, a means of controlling a mobile device not using manual control is interesting. This can, for example, allow the user's members to perform additional tasks, not related to the control of the mobile device. There is therefore a need for a technical solution for controlling an apparatus without the use of mechanical control.

Dans ce dernier domaine, on connait la solution décrite dans le document CN103263324. Cette solution permet le contrôle d'un fauteuil roulant grâce aux données cérébrales de type SSVEP (Steady-State Visual-Evoked Potentials) ou PEVRP (Potentiel Evoqué Visuel de Régime Permanent) en français. Cette technique permet un contrôle dudit fauteuil roulant grâce à l'analyse des ondes cérébrales émises par l'utilisateur lors de la stimulation de ses yeux par une fréquence précise (à partir de 5Hz). Une réponse fréquentielle continue ou harmonique est générée au niveau de la région visuelle du cortex cérébral avec la même fréquence d'apparition du stimulus. Une fois la correspondance établi entre une fréquence lumineuse spécifique et sa réponse par le cerveau, on peut déterminer quelle image l'oail a visualisé grâce à l'analyse d'une encéphalographie (EEG). Afin d'augmenter la sécurité de l'utilisateur, des capteurs détectant les obstacles sont présents sur le fauteuil. Cette solution, présente certains inconvénients. En effet, le contrôle d'un appareil mobile grâce à une commande visuelle est difficile et fatigante. Il en résulte un effet de saccade visuelle, de fixation sporadique de l'oail et d'une diminution de la fiabilité de la commande. Les mouvements de l'appareil sont ainsi peu précis, la sécurité de l'utilisateur n'est pas optimale, et la grande fatigue de l'utilisateur empêche une utilisation prolongée.In the latter field, we know the solution described in CN103263324. This solution allows the control of a wheelchair thanks to the cerebral data type SSVEP (Steady-State Visual-Evoked Potentials) or PEVRP (Visual Evoked Potential of Permanent Diet) in French. This technique allows a control of the wheelchair through the analysis of brain waves emitted by the user during the stimulation of his eyes with a precise frequency (from 5Hz). A continuous or harmonic frequency response is generated at the level of the visual region of the cerebral cortex with the same frequency of appearance of the stimulus. Once the correspondence between a specific light frequency and its response by the brain has been established, it is possible to determine what image the eye has visualized through the analysis of an encephalogram (EEG). In order to increase the safety of the user, sensors detecting obstacles are present on the chair. This solution has some disadvantages. Indeed, the control of a mobile device through a visual control is difficult and tiring. This results in a visual saccade effect, sporadic fixation of the ear and a decrease in the reliability of the command. The movements of the device are thus not very precise, the safety of the user is not optimal, and the great fatigue of the user prevents prolonged use.

3037498 2 Par conséquent il existe un besoin consistant à proposer une solution permettant de supprimer ou tout au moins de réduire certains au moins des inconvénients ci-dessus.Accordingly, there is a need to provide a solution for eliminating or at least reducing at least some of the above disadvantages.

5 RESUME DE L'INVENTION Un aspect de l'invention concerne en particulier un procédé de contrôle du déplacement d'un appareil mobile par un utilisateur dans lequel le contrôle du déplacement est basé sur une consigne de déplacement, ladite consigne de 10 déplacement comprenant une trajectoire consigne et une vitesse consigne, comprenant une étape de détermination de ladite consigne de déplacement. De façon avantageuse, ce procédé est tel que l'étape de détermination comprend les étapes suivantes mises en oeuvre par ordinateur à l'aide d'au moins un microprocesseur : 15 - Génération d'au moins une instruction de déplacement (206) basée au moins sur: ^ au moins une direction (203) issue d'au moins un point de regard (103) de l'utilisateur, ^ au moins une première donnée cérébrale de l'utilisateur, ladite 20 donnée cérébrale étant de préférence issue d'une onde positive cérébrale de l'utilisateur, appelée onde cérébrale P300 (101), apparaissant 300 ms (milliseconde) après une stimulation et/ou issue d'une onde cérébrale de l'utilisateur, appelée onde cérébrale SSVEP (102), apparaissant en réponse à une 25 stimulation visuelle prédéterminée; - Génération d'au moins une donnée de contrôle (340), au moins basée sur : ^ Une deuxième donnée cérébrale de l'utilisateur issue d'une onde cérébrale P300 (101) et/ou issue d'une onde cérébrale SSVEP (102) et/ou issue d'une onde cérébrale de type alpha et/ou beta 30 (112)prise au niveau de la zone pariétale centrale et frontale du cortex cérébral. ^ une donnée physiologique parmi au moins la température (105) de l'utilisateur et/ou sa fréquence cardiaque (104) ; - Génération d'au moins une donnée d'environnement (412) issue d'au 35 moins un capteur identifiant une partie au moins de l'environnement de l'appareil mobile ; 3037498 3 - Génération d'une consigne de déplacement (500) fonction d'au moins : ladite instruction de déplacement (206), ladite donnée de contrôle (340) et ladite donnée d'environnement (412). - Génération d'une trajectoire consigne (520) et d'une vitesse consigne (510) 5 en fonction de ladite consigne de déplacement. Cette disposition permet un contrôle d'un appareil mobile, prenant en compte des données visuelles, cérébrales et physiologique. Ainsi, ledit utilisateur est aidé lors du contrôle ce qui diminue grandement la fatigue liée à l'utilisation. De plus, en prenant en compte l'environnement, la sécurité de l'utilisateur est renforcée. L'instruction de 10 déplacement de l'utilisateur est ainsi dans un premier temps validée par ses données cérébrales, ce qui permet d'éviter les déplacements involontaires. De plus cette même instruction de déplacement est assimilée avec une donnée de contrôle issue des données cérébrales et physiologiques. Cette donnée de contrôle permet d'affiner encore la volonté de déplacement ou non de l'utilisateur tout en prenant en compte des 15 données comme le stress ou la fatigue. Il en résulte un contrôle général de l'appareil moins fatiguant, plus sûr et plus précis. L'invention concerne aussi un appareil mobile dont le déplacement est contrôlé 20 par le procédé. De façon avantageuse cet appareil comprend différents types de capteurs configurés pour capter au moins une donnée fonction d'un point de regard de l'utilisateur, une donnée cérébrale et une donnée physiologique d'un utilisateur, ainsi que des données d'espace.SUMMARY OF THE INVENTION An aspect of the invention relates in particular to a method of controlling the movement of a mobile device by a user in which the motion control is based on a displacement instruction, said displacement instruction including a setpoint trajectory and a target speed, comprising a step of determining said displacement instruction. Advantageously, this method is such that the determination step comprises the following computer-implemented steps using at least one microprocessor: Generating at least one moving instruction (206) based on least on: at least one direction (203) originating from at least one point of view (103) of the user, at least one first cerebral datum of the user, said cerebral datum preferably being derived from a positive cerebral wave of the user, called P300 brain wave (101), appearing 300 ms (millisecond) after stimulation and / or issuing from a brain wave of the user, called brain wave SSVEP (102), appearing in response to predetermined visual stimulation; - Generating at least one control data item (340), at least based on: A second cerebral data of the user resulting from a P300 (101) brain wave and / or from a SSVEP brain wave (102) ) and / or from an alpha and / or beta type brain wave (112) taken at the level of the central and frontal parietal area of the cerebral cortex. physiological data among at least the temperature (105) of the user and / or his heart rate (104); Generating at least one environment data item (412) derived from at least one sensor identifying at least part of the environment of the mobile device; 3037498 3 - Generation of a displacement instruction (500) according to at least: said movement instruction (206), said control data item (340) and said environment data item (412). - Generating a setpoint path (520) and a target speed (510) 5 according to said displacement instruction. This arrangement allows control of a mobile device, taking into account visual, cerebral and physiological data. Thus, said user is helped during the control which greatly reduces the fatigue associated with the use. In addition, taking into account the environment, the security of the user is enhanced. The user's movement instruction is thus first validated by his cerebral data, which makes it possible to avoid involuntary displacements. Moreover this same instruction of displacement is assimilated with a data of control resulting from the cerebral and physiological data. This control data makes it possible to further refine the user's desire to move or not while taking into account data such as stress or fatigue. This results in a general control of the device less tiring, safer and more precise. The invention also relates to a mobile apparatus whose displacement is controlled by the method. Advantageously, this apparatus comprises different types of sensors configured to capture at least one datum according to a point of view of the user, a cerebral data and a physiological data of a user, as well as space data.

25 Cette solution permet de recueillir les données nécessaires au bon fonctionnement du procédé. Ainsi, grâce à ces capteurs, la conduite de l'appareil mobile est plus fluide et moins fatigante. BREVE INTRODUCTION DES FIGURES 30 D'autres caractéristiques, buts et avantages de la présente invention apparaitront à la lecture de la description détaillée qui suit, et en regard des dessins annexés donnés à titre d'exemples non limitatifs et sur lesquels : - La figure 1 est un organigramme représentant le fonctionnement général du 35 procédé de contrôle de l'appareil mobile - La figure 2 détaille le procédé permettant la détermination d'une donnée cérébrale de type P300 en fonction d'une onde cérébrales P300 ; 3037498 4 - La figure 3 détaille le procédé permettant la détermination d'une donnée cérébrale de type SSVEP en fonction d'une onde cérébrales SSVEP ; - La figure 4 est montre le procédé de validation de la direction par les données cérébrale P300 et SSVEP ; 5 - La figure 5 montre le procédé de détermination des seuils d'activation du point de regard ; - La figure 6 détaille le procédé d'assimilation par la logique flou des données P300 et SSVEP pour la validation de la direction. - La figure 7 est une représentation du processus de détermination de l'état 10 émotionnel de l'utilisateur ; - La figure 8 est une représentation du processus de détermination de l'état de fatigue de l'utilisateur. - La figure 9 décrit la prise en compte de multiple données par la logique flou pour déterminer la donnée d'environnement; 15 - La figure 10 est un graphique de la transcription de la vitesse en degré d'appartenance dans la logique floue - La figure 11 est un graphique de la transcription des écarts d'amplitude en degré d'appartenance de la logique floue. - La figure 12 représente la grille visible par l'utilisateur pour déterminer la 20 direction ; - La figure 13 montre une vue de dessus de l'appareil mobile ; - La figure 14 montre une vue latérale de l'appareil mobile ; DESCRIPTION DETAILLEE 25 Avant d'entrer dans le détail de modes préférés de réalisation de l'invention en référence aux dessins notamment, d'autres caractéristiques optionnelles de l'invention, qui peuvent être mises en oeuvre de façon combinée selon toutes combinaisons ou de manière alternative, sont indiquées ci-après : 30 - l'instruction de déplacement détermine une trajectoire d'instruction parmi au moins une ou une combinaison de directions suivantes : avancer, reculer, tourner à droite, tourner à gauche, stop, la trajectoire consigne étant également fonction de la trajectoire d'instruction. - ladite étape de génération de l'instruction de déplacement comprend une 35 validation de la au moins une direction issue d'au moins un point de regard de l'utilisateurpar la au moins une première donnée cérébrale, afin de déterminer la trajectoire d'instruction. 3037498 5 - la première et/ou la deuxième donnée cérébrale est issue d'une onde cérébrale P300 et comprend une étape de génération de la première et/ou de la deuxième donnée cérébrale issue de l'onde cérébrale P300 comprenant les étapes suivantes : 5 - Lecture d'une activité cérébrale de l'utilisateur avec enregistrement du temps d'affichage des commandes (TAC), cette lecture se fait par des électrodes dispersées sur le crâne de l'utilisateur ; - Détection de l'onde cérébrale P300 à partir d'un changement d'amplitude de l'activité cérébrale et enregistrement du temps de 10 changement (TC) ; - Comparaison du TAC au TC ; - Génération de la première et/ou la deuxième donnée cérébrale, appelée donnée cérébrale P300, issue d'une onde cérébrale P300. - l'instruction de déplacement détermine une trajectoire d'instruction, dans 15 lequel ladite étape de génération de l'instruction de déplacement comprend une validation de la au moins une direction issue d'au moins un point de regard de l'utilisateur par la au moins une première donnée cérébrale, afin de déterminer la trajectoire d'instruction, dans laquelle ladite première donnée cérébrale est issue d'une onde cérébrale P300 et dans lequel 20 l'étape de validation par la au moins une première donnée cérébrale, et comprend les étapes suivantes : - Si l'écart entre le TC et le TAC + 300 ms (10-3 secondes) est inférieure ou égale à 100ms alors la trajectoire d'instruction est transmise à la consigne de déplacement avec un statut validé ; 25 Si l'écart entre le TC et le TAC + 300 ms est supérieure à 100ms, alors trajectoire d'instruction est transmise à la consigne de déplacement avec un statut suspendu. la première et/ou la deuxième donnée cérébrale est issue d'une onde cérébrale SSVEP et comprend une étape de génération de la première 30 et/ou deuxième donnée cérébrale issue de l'onde cérébrale SSVEP comprenant les étapes suivantes : - Apparition des commandes avec des fréquences préfixées (entre 10 et 25Hz) (FAC) ; - Détection du changement d'amplitude de l'activité cérébrale et 35 enregistrement de la fréquence de changement (FC) cette lecture se fait par des électrodes dispersées sur le crâne de l'utilisateur ; - Comparaison du FAC au FC ; 3037498 6 - Génération de la première et/ou la deuxième donnée cérébrale, appelée la donnée cérébrale SSVEP, issue d'une onde cérébrale SSVEP. l'instruction de déplacement détermine une trajectoire d'instruction, dans 5 lequel ladite étape de génération de l'instruction de déplacement comprend une validation de la au moins une direction issue d'au moins un point de regard de l'utilisateur par la au moins une première donnée cérébrale, afin de déterminer la trajectoire d'instruction, dans laquelle ladite première donnée cérébrale est issue d'une onde cérébrale SSVEP et dans lequel 10 l'étape de validation par la au moins une première donnée cérébrale, et comprend les étapes suivante - Si l'écart entre le FC et le FAC est inférieure ou égale à 10% alors la trajectoire d'instruction est transmise à la consigne de déplacement avec un statut validé; 15 - Si l'écart entre le FC et le FAC est supérieure à 10%, alors trajectoire d'instruction est transmise à la consigne de déplacement avec un statut suspendu. - l'étape de génération de l'instruction de déplacement comprend une validation de la au moins une direction issue d'au moins un point de regard de l'utilisateur 20 (103)et dans lequel la première et/ou la deuxième donnée cérébrale est issue d'une onde cérébrale P300 et est appelée donnée cérébrale P300 et dans lequel la première et/ou la deuxième donnée cérébrale est issue d'une onde cérébrale SSVEP est appelée la donnée cérébrale SSVEP, ladite validation étant réalisée en fonction de la au moins une donnée cérébrale P300 et de la 25 au moins une donnée cérébrale SSVEP la prise en compte simultanée des au moins deux données cérébrales P300 et SSVEP étant opérée par un système de logique floue. - procédé comprenant une étape de sélection d'un mode de contrôle parmi les modes suivants : manuel, semi-autonome et autonome, la consigne de 30 déplacement étant notamment fonction dudit mode de contrôle sélectionné, ladite sélection du mode de contrôle étant basée sur ladite au moins une donnée de contrôle. - la génération d'au moins une donnée de contrôle comprend la détermination d'un état psychologique et/ou physiologique de l'utilisateur, ledit état 35 psychologique et/ou physiologique de l'utilisateur étant fonction d'un état de fatigue et/ou d'un état émotionnel dudit l'utilisateur. 3037498 7 - la génération de la première et/ou la deuxième donnée cérébrale, appelée donnée cérébrale SSVEP, est issue d'une onde cérébrale SSVEP et/ou la génération de la première et/ou la deuxième donnée cérébrale, appelée donnée cérébrale P300 est issue d'une onde cérébrale P300 et dans lequel, l'état 5 psychologique et/ou physiologique de l'utilisateur est fonction d'un état de fatigue, ledit état de fatigue étant notamment déterminé par une interprétation de la deuxième donnée cérébrale, ladite deuxième donnée cérébrale étant la donnée cérébrale P300 et/ou la donnée cérébrale SSVEP. - l'état de fatigue de l'utilisateur est déterminé en fonction de d'une 10 prédétermination issue de la au moins une donnée cérébrale de type P300 et/ou SSVEP, d'au moins une donnée préenregistrée dans une base de données « fatigue », et en appliquant la théorie de Dempster-Shafer (ou théorie des évidences) comprenant l'application de règles de plausibilités. - la au moins une deuxième donnée cérébrale issue d'une onde cérébrale P300 15 et/ou SSVEP est issue de la même donnée cérébrale P300 et/ou SSVEP que la au moins une première donnée. - ladite deuxième donnée cérébrale est issue d'une onde cérébrale de type alpha et/ou beta prise au niveau de la zone pariétale centrale et frontale du cortex cérébral et dans laquelle ladite génération d'au moins une donnée de contrôle 20 comprend aussi la détermination d'un état psychologique et/ou physiologique de l'utilisateur, ledit état psychologique et/ou physiologique de l'utilisateur étant fonction d'un état émotionnel dudit l'utilisateur et dans lequel l'état émotionnel de l'utilisateur est déterminé en fonction de données physiologiques comprenant au moins une température de l'utilisateur et/ou une fréquence 25 cardiaque de l'utilisateur, et la au moins une deuxième donnée cérébrale issue d'une onde cérébrale de type beta et/ou alpha appelée onde cérébrale alpha et/ou béta, et d'au moins une donnée préenregistrée dans une base de données « émotions », ladite détermination étant opérée par un réseau de neurones. 30 - l'état psychologique et/ou physiologique de l'utilisateur est déterminé par un système de logique floue prenant en compte l'état de fatigue et/ou l'état émotionnel de l'utilisateur. - le au moins un capteur est configuré pour permettre la détection de la distance entre l'appareil et des obstacles situés à proximité de l'appareil et/ou pour 35 permettre la localisation de l'appareil. - ladite donnée d'environnement est issue de plusieurs types de capteur et les données de chaque type de capteur sont traitées par un système de logique 3037498 8 floue, les données traitées sont ensuite interprétées par un réseau de neurones permettant la détermination de la localisation et/ou de la distance de l'appareil par rapport aux obstacles, ainsi que du nombre d'obstacles entourant ledit appareil. 5 - Appareil mobile dans lequel : - la au moins une première donnée cérébrale est capté par un capteur EEG (Electroencéphalographie), ledit capteur EEG étant configuré pour détecter et/ou enregistrer au moins une onde cérébrale P300 et/ou SSVEP. - la au moins une deuxième donnée cérébrale d'un utilisateur est issue d'une 10 onde positive cérébrale de l'utilisateur, appelée onde cérébrale P300, apparaissant 300 ms (milliseconde) après une stimulation et/ou est issue d'une onde cérébrale de l'utilisateur, appelée onde cérébrale SSVEP, apparaissant en réponse à une stimulation visuelle prédéterminée et/ou est issue d'une onde alpha et/ou béta est capté par un capteur EEG 15 (Electroencéphalographie), ledit capteur EEG étant configuré pour détecter et/ou enregistrer au moins une onde cérébrales P300 et/ou SSVEP et/ou alpha et/ou beta dudit utilisateur. - appareil mobile comprenant un écran configuré pour afficher une grille comprenant des directions et dans lequel chaque direction présente sur la grille 20 affiche une fréquence lumineuse différente. - ledit au moins un point de regard de l'utilisateur est capté par un capteur d'oculométrie configuré pour détecter et/ou enregistrer le au moins un point de regard d'au moins un iris de l'utilisateur lorsque l'utilisateur regarde l'écran. - lequel la au moins une données physiologiques de l'utilisateur est issue d'un 25 thermomètre et/ou d'un cardio-fréquence mètre configuré pour détecter et enregistrer respectivement la température et la fréquence cardiaque dudit utilisateur. - les données d'environnement sont issues d'au moins un capteur d'ultrasons et d'au moins un capteur de mouvement configurés pour localiser l'appareil mobile 30 ainsi que sa distance vis-à-vis des objets l'entourant. - appareil mobile présentant au moins une face avant, une face arrière et deux faces latérales comprenant dix capteurs d'ultrasons positionnés comme il suit : - deux capteurs sur chacune des faces avant et arrière de l'appareil mobile ; - trois capteurs sur chacune des faces latérales de l'appareil mobile. 35 - appareil présentant au moins une face avant, une face arrière et deux faces latérales comprenant quatre capteurs de mouvements positionnés sur chacune des faces avant, arrière et latérales de l'appareil mobile.This solution makes it possible to collect the data necessary for the proper operation of the process. Thus, thanks to these sensors, the driving of the mobile device is more fluid and less tiring. BRIEF INTRODUCTION OF THE FIGURES Other features, objects and advantages of the present invention will appear on reading the detailed description which follows, and with reference to the appended drawings given by way of non-limiting examples and in which: FIG. 1 is a flowchart showing the general operation of the mobile device control method - Figure 2 details the method for determining a P300 type cerebral data as a function of a P300 brain wave; FIG. 3 details the method allowing the determination of a SSVEP-type cerebral data as a function of a SSVEP brain wave; FIG. 4 is the process of validation of the direction by the cerebral data P300 and SSVEP; FIG. 5 shows the method for determining the activation thresholds of the gaze point; - Figure 6 details the process of assimilation by fuzzy logic P300 and SSVEP data for the validation of the direction. Figure 7 is a representation of the process of determining the emotional state of the user; - Figure 8 is a representation of the process of determining the state of fatigue of the user. FIG. 9 describes the taking into account of multiple data by the fuzzy logic to determine the environment data; FIG. 10 is a graph of the transcription of speed in degree of membership in fuzzy logic; FIG. 11 is a graph of the transcription of amplitude differences in degree of membership of the fuzzy logic. Figure 12 shows the grid visible to the user to determine the direction; - Figure 13 shows a top view of the mobile device; Fig. 14 shows a side view of the mobile apparatus; DETAILED DESCRIPTION Before going into the details of preferred embodiments of the invention with reference to the drawings in particular, other optional features of the invention, which can be implemented in combination in any combination or in a manner Alternative, are given below: - the movement instruction determines an instruction trajectory among at least one or a combination of directions: advance, reverse, turn right, turn left, stop, the set trajectory being also a function of the instruction trajectory. said step of generating the displacement instruction comprises a validation of the at least one direction coming from at least one point of view of the user by the at least one first cerebral datum, in order to determine the instruction trajectory . The first and / or second cerebral data is derived from a P300 brain wave and comprises a step of generating the first and / or second cerebral data from the P300 brain wave comprising the following steps: - Reading a brain activity of the user with recording of the display time of the commands (TAC), this reading is done by electrodes dispersed on the skull of the user; - Detection of the P300 brain wave from a change in amplitude of brain activity and recording of the change time (TC); - Comparison of TAC with TC; - Generation of the first and / or second cerebral data, called P300 cerebral data, resulting from a P300 brain wave. the displacement instruction determines an instruction trajectory, wherein said step of generating the movement instruction comprises a validation of the at least one direction from at least one user's point of view by the at least a first cerebral data, in order to determine the instruction trajectory, wherein said first cerebral data originates from a P300 brain wave and in which the validation step by the at least one first cerebral data, and comprises the following steps: - If the difference between the TC and the TAC + 300 ms (10-3 seconds) is less than or equal to 100 ms then the instruction trajectory is transmitted to the displacement instruction with a validated status; If the gap between the TC and the TAC + 300 ms is greater than 100 ms, then instruction path is transmitted to the displacement instruction with a suspended status. the first and / or second cerebral data is derived from a SSVEP brain wave and comprises a step of generating the first and / or second cerebral data from the SSVEP brain wave comprising the following steps: - Appearance of the commands with prefixed frequencies (between 10 and 25Hz) (FAC); Detection of the change in amplitude of brain activity and recording of the frequency of change (FC) this reading is done by electrodes dispersed on the skull of the user; - Comparison of the FAC with the CF; 3037498 6 - Generation of the first and / or second cerebral data, called the SSVEP cerebral data, derived from a brain wave SSVEP. the move instruction determines an instruction path, wherein said step of generating the move instruction includes a validation of the at least one direction from at least one user's point of view by the at least one direction of the user. least a first cerebral data, in order to determine the instruction trajectory, wherein said first cerebral data originates from a SSVEP brain wave and in which the validation step by the at least one first cerebral data, and comprises the next steps - If the gap between the FC and the FAC is less than or equal to 10% then the instruction path is transmitted to the displacement instruction with a validated status; 15 - If the gap between the FC and the FAC is greater than 10%, then instruction path is transmitted to the movement instruction with a suspended status. the step of generating the displacement instruction comprises a validation of the at least one direction coming from at least one user's point of view (103) and in which the first and / or second cerebral datum is derived from a P300 brain wave and is called the P300 cerebral data and in which the first and / or second cerebral data is derived from a brain wave SSVEP is called the SSVEP cerebral data, said validation being performed according to the least one P300 cerebral data and at least one SSVEP cerebral data the simultaneous taking into account of the at least two brain data P300 and SSVEP being operated by a fuzzy logic system. a method comprising a step of selecting a control mode from among the following modes: manual, semi-autonomous and autonomous, the displacement instruction being in particular a function of said selected control mode, said selection of the control mode being based on said at least one control data. the generation of at least one control data item comprises the determination of a psychological and / or physiological state of the user, said psychological and / or physiological state of the user being a function of a state of fatigue and / or an emotional state of the user. The generation of the first and / or second cerebral data, called SSVEP cerebral data, is derived from a SSVEP brain wave and / or the generation of the first and / or second cerebral data, called the P300 cerebral data. derived from a P300 brain wave and in which the psychological and / or physiological state of the user is a function of a state of fatigue, said state of fatigue being in particular determined by an interpretation of the second cerebral data, said second cerebral data being the P300 cerebral data and / or the SSVEP cerebral data. the state of fatigue of the user is determined as a function of a predetermination resulting from the at least one P300 and / or SSVEP type cerebral data, of at least one pre-recorded data item in a "fatigue" database And applying the theory of Dempster-Shafer (or theory of evidence) including the application of plausibility rules. - The at least one second cerebral data from a brain wave P300 and / or SSVEP is derived from the same cerebral data P300 and / or SSVEP as the at least one first datum. said second cerebral datum is derived from an alpha and / or beta type brain wave taken at the level of the central and frontal parietal area of the cerebral cortex and in which said generation of at least one control datum also comprises the determination of of a psychological and / or physiological state of the user, said psychological and / or physiological state of the user being a function of an emotional state of said user and in which the emotional state of the user is determined by physiological data function comprising at least one user's temperature and / or a cardiac frequency of the user, and the at least one second cerebral data derived from a beta and / or alpha brain wave called alpha brain wave and / or beta, and at least one prerecorded data in an "emotions" database, said determination being made by a neural network. The psychological and / or physiological state of the user is determined by a fuzzy logic system taking into account the state of fatigue and / or the emotional state of the user. the at least one sensor is configured to allow the detection of the distance between the apparatus and obstacles located near the apparatus and / or to allow the location of the apparatus. said environment datum is derived from several types of sensor and the data of each type of sensor are processed by a fuzzy logic system, the processed data are then interpreted by a neural network allowing the determination of the location and / or the distance from the device to the obstacles, as well as the number of obstacles surrounding said apparatus. Mobile device in which: the at least one first cerebral data is captured by an EEG (electroencephalography) sensor, said EEG sensor being configured to detect and / or record at least one P300 and / or SSVEP brain wave. the at least one second cerebral datum of a user is derived from a positive cerebral wave of the user, called the P300 brain wave, appearing 300 ms (millisecond) after stimulation and / or is derived from a brain wave of the user, called SSVEP brain wave, appearing in response to a predetermined visual stimulation and / or is derived from an alpha wave and / or beta is captured by an EEG sensor (Electroencephalography), said EEG sensor being configured to detect and / or record at least one P300 and / or SSVEP brain wave and / or alpha and / or beta of said user. mobile apparatus comprising a screen configured to display a grid comprising directions and in which each direction present on the grid 20 displays a different light frequency. said at least one point of view of the user is captured by an eye-tracking sensor configured to detect and / or record the at least one point of view of at least one eye of the user when the user is looking at the 'screen. the at least one physiological data of the user is derived from a thermometer and / or a cardio-frequency meter configured to detect and record respectively the temperature and the heart rate of said user. - The environment data are derived from at least one ultrasound sensor and at least one motion sensor configured to locate the mobile device 30 and its distance vis-à-vis objects surrounding it. mobile device having at least one front face, a rear face and two lateral faces comprising ten ultrasonic sensors positioned as follows: two sensors on each of the front and rear faces of the mobile apparatus; three sensors on each of the lateral faces of the mobile device. 35 - Apparatus having at least one front face, a rear face and two side faces comprising four motion sensors positioned on each of the front, rear and side faces of the mobile device.

3037498 9 Afin d'assurer une parfaite compréhension des termes de la description, et sauf disposition contraire lors de la description, on entendra par 5 - onde cérébrale de type P300 : Activité cérébrale liée à une stimulation et se manifestant 300 milliseconde (ms) après ladite stimulation. - onde cérébrale de type SSVEP (Steady-State Visueal-Evoked Potential) ou PEVRP (Potentiel Evoqué de Régime Permanent) en Français : activité 10 cérébrale en réponse à une stimulation de l'oail. En fonction de la fréquence lumineuse captée par l'oail, le cerveau émet une réponse fréquentielle continue ou harmonique au niveau du cortex visuel à la même fréquence d'apparition du stimulus. - Théorie de Dempster-Shafer ou théorie des évidences : La théorie de 15 Dempster-Shafer est une théorie mathématique basée sur la notion de preuves utilisant les fonctions de croyance et le raisonnement plausible. Le but de cette théorie est de permettre de combiner des preuves distinctes pour calculer la probabilité d'un évènement. Ainsi il est possible de prendre en compte des notions telles que l'incertitude ou encore la fiabilité. 20 - Système de logique floue : La logique floue est une extension de la logique classique qui permet la modélisation des imperfections des données en se basant sur le concept des ensembles flous. Il peut contenir des éléments avec seulement un degré d'appartenance partielle et se rapproche dans une certaine mesure de la flexibilité du raisonnement humain. La logique floue est par 25 exemple décrite dans la publication suivante : Multisensor data fusion: A review of the state-of-the-art, Bahador Khaleghi, Alaa Khamis, Fakhreddine O. Karray information fusion journal, 2011 - Les réseaux de neurones : Un réseau de neurones est un modèle de calcul dont la conception est inspirée du fonctionnement 30 des neurones biologiques. Ils sont optimisés par des méthodes d'apprentissage. Ils sont placés dans la famille des méthodes de l'intelligence artificielle auxquelles ils fournissent un mécanisme perceptif indépendant des idées propres de l'implémenteur, et fournissant des informations d'entrée au raisonnement logique formel. Les réseaux de neurones sont décrits dans la 35 publication suivante : Rifai Chai; Sai Ho Ling; Hunter, G.P.; Tran, Y.; Nguyen, H.T., "Brain-Computer Interface Classifier for Wheelchair Commands Using 3037498 10 Neural Network With Fuzzy Particle Swarm Optimization," Biomedical and Health lnformatics, IEEE Journal of , vol.18, no.5, pp.1614,1624, Sept. 2014. Une réalisation préférée de l'invention concerne un procédé de contrôle du 5 déplacement d'un fauteuil roulant pour personne handicapé. Bien entendu l'invention n'est pas limitative à ce type d'appareil mobile et une application pour le contrôle d'une voiture, d'un aéronef ou d'un drone est par exemple possible. Plus généralement, tout appareil piloté par un utilisateur mobile peut utiliser ledit procédé pour se mouvoir.In order to ensure a complete understanding of the terms of the description, and unless otherwise provided in the description, the term 5-wave brain of type P300 will be understood to mean: Brain activity related to stimulation and manifesting 300 milliseconds (ms) after said stimulation. SSVEP-type brain wave (Steady-State Visueal-Evoked Potential) or PEVRP (Evoked Potential for Permanent Diet) in French: cerebral activity in response to a stimulation of the ear. Depending on the light frequency sensed by the ear, the brain emits a continuous or harmonic frequency response at the level of the visual cortex at the same frequency of appearance of the stimulus. - Dempster-Shafer Theory or Theory of Evidence: The Dempster-Shafer theory is a mathematical theory based on the notion of evidence using belief functions and plausible reasoning. The purpose of this theory is to allow the combination of separate proofs to calculate the probability of an event. Thus it is possible to take into account notions such as uncertainty or reliability. Fuzzy logic system: Fuzzy logic is an extension of the classical logic that allows the modeling of data imperfections based on the concept of fuzzy sets. It can contain elements with only a partial degree of belonging and is to a certain extent close to the flexibility of human reasoning. The fuzzy logic is, for example, described in the following publication: Multisensor data fusion: A review of the state-of-the-art, Bahador Khaleghi, Alaa Khamis, Fakhreddine O. Karray information fusion journal, 2011 - Neural networks: A neural network is a computational model whose design is inspired by the functioning of biological neurons. They are optimized by learning methods. They are placed in the family of artificial intelligence methods to which they provide a perceptive mechanism independent of the implementer's own ideas, and providing input information to formal logical reasoning. Neural networks are described in the following publication: Rifai Chai; Sai Ho Ling; Hunter, G.P .; Tran, Y .; Nguyen, HT, "Neural Network With Fuzzy Particle Swarm Optimization," Biomedical and Health Informatics, IEEE Journal of Vol. 2014. A preferred embodiment of the invention relates to a method of controlling the movement of a wheelchair for a disabled person. Naturally, the invention is not limited to this type of mobile device and an application for the control of a car, an aircraft or a drone is possible for example. More generally, any device controlled by a mobile user can use said method to move.

10 La figure 1 permet d'avoir une vision générale de l'invention. Avantageusement le procédé de contrôle du déplacement de l'appareil mobile est basé sur une consigne de déplacement 500. La consigne de déplacement 500 se traduit notamment par la génération d'une trajectoire consigne 501 et d'une vitesse consigne 502 qui influeront sur la trajectoire réelle et la vitesse réelle de l'appareil mobile 15 Afin de générer ladite consigne de déplacement 500 le procédé comprend dans un premier temps l'acquisition de données d'utilisateur 100 et de données d'espace 400. Les données d'utilisateur 100 comprennent au moins une donnée, et de 20 préférence toutes les données suivantes : un point de regard de l'utilisateur 103 ou une séquence de point de regard d'un utilisateur, au moins une donnée cérébrale du type P300 110 ou SSVEP 120 et de préférence en fonction des deux type ondes cérébrale P300 101 et SSVEP 102 ainsi que des données physiologiques. Les données physiologiques comprennent de préférence au moins une donnée parmi les données 25 suivantes : donnée cardiaque 104 et de température 105. D'autres types de données peuvent bien entendu être ajoutés. Les ondes cérébrales sont captées par au moins un capteur EEG (Electroencéphalographie) 106. Les données cérébrales P300 110 sont déterminées par l'écart des ondes cérébrales P300 101 lors d'un changement d'amplitude. Les données cérébrales 30 SSVEP 120 sont déterminées par l'écart de leurs ondes cérébrales SSVEP 102 lors d'un changement de leur densité spectrale de puissance (CDSP). Avantageusement, pour déterminer l'écart dans le changement d'amplitude d'une onde cérébrale de type P300 101 ont va réaliser les étapes suivantes : - Lecture d'une activité cérébrale et enregistrement du temps d'affichage des 35 commandes (TAC) ; - Détection du changement d'amplitude en réponse à une stimulation et enregistrement du temps de changement (TC) ; 3037498 11 - Comparaison du TC au TAC+300ms. - Détermination de l'écart entre le TC et le TAC+300ms. Ces étapes sont illustrées dans la figure 2. De manière préférentielle, pour déterminer l'écart dans le changement de CDSP des 5 ondes SSVEP 102 ont va réaliser les étapes suivantes : - Lecture d'une activité cérébrale et enregistrement de la fréquence d'apparition des commandes (FAC) ; - Détection du changement de CDSP en réponse à une stimulation et enregistrement de la fréquence de changement (FC) ; 10 - Comparaison du FC au FAC ; Ces étapes sont illustrées dans la figure 2. Dans un second temps, lesdites données de l'utilisateur 100 et d'espace 400 vont permettre la génération d'une instruction de déplacement 206, d'une donnée de contrôle 340 et d'une donnée 15 d'environnement 412. L'instruction de déplacement 206 comprend l'analyse et l'interprétation dudit au moins un point de regard 103 ou de la séquence d'un point de regard de l'utilisateur et de d'au moins une première et de préférence de deux premières données cérébrales de type P300 110 et/ou SSVEP 120 (figure 3). Ladite interprétation de ces données 20 permet la génération d'une trajectoire d'instruction validée 210 ou non validée 220 qui sera intégrée à la consigne de déplacement (figure 4). Cette génération est effectuée par l'étape de détermination de l'instruction de déplacement 200. Le point de regard de l'utilisateur 103 est acquis par un capteur d'oculométrie 107 (Eye-tracking en anglais) disposé de préférence au-dessous d'un écran 202. Dans 25 d'autre réalisation le capteur est au-dessus de l'écran, ou à tout autre position permettant de capter le regard de l'utilisateur de manière optimale. Avantageusement le capteur d'oculométrie 107 permet de détecter le point de regard de l'utilisateur sur l'écran 202. La figure 5 détaille une réalisation du fonctionnement du capteur d'oculométrie 107 et de la captation d'au moins un point de regard de l'utilisateur 103.Figure 1 provides a general view of the invention. Advantageously, the method for controlling the displacement of the mobile device is based on a displacement instruction 500. The displacement instruction 500 is translated in particular by the generation of a reference trajectory 501 and a reference speed 502 which will influence the trajectory In order to generate said displacement setpoint 500, the method first comprises the acquisition of user data 100 and space data 400. The user data 100 comprises the actual speed and the actual speed of the mobile device. at least one piece of data, and preferably all the following data: a user's point of view 103 or a user's point of view sequence, at least one type of data item P300 110 or SSVEP 120 and preferably according to the two types of brain waves P300 101 and SSVEP 102 as well as physiological data. The physiological data preferably comprises at least one of the following data: cardiac data 104 and temperature data 105. Other types of data may of course be added. The brain waves are picked up by at least one EEG sensor (electroencephalography) 106. The P300 brain data 110 is determined by the deviation of the P300 brain waves 101 during an amplitude change. The SSVEP 120 brain data is determined by the deviation of their SSVEP 102 brain waves upon a change in their power spectral density (CDSP). Advantageously, in order to determine the difference in the amplitude change of a P300 type 101 brain wave, the following steps will be performed: - Reading of a brain activity and recording of the display time of the commands (TAC); - Amplitude change detection in response to stimulation and recording of change time (TC); 3037498 11 - Comparison of TC to TAC + 300ms. - Determination of the gap between the TC and the TAC + 300ms. These steps are illustrated in FIG. 2. Preferably, in order to determine the difference in the CDSP change of the SSVEP waves 102, the following steps will be performed: - Reading of a brain activity and recording of the frequency of appearance orders (FAC); - Detecting the change of CDSP in response to stimulation and recording the change frequency (FC); 10 - CF comparison to CAF; These steps are illustrated in FIG. 2. In a second step, said data of the user 100 and of space 400 will make it possible to generate a displacement instruction 206, a control datum 340 and a datum 412. The displacement instruction 206 includes the analysis and interpretation of said at least one look point 103 or the sequence of a look-point of the user and at least a first and preferably two first P300 type data 110 and / or SSVEP 120 (Figure 3). Said interpretation of these data 20 allows the generation of a validated or non-validated instruction path 220 which will be integrated into the displacement instruction (FIG. 4). This generation is performed by the step of determining the displacement instruction 200. The point of view of the user 103 is acquired by an eye tracking sensor 107 (Eye-tracking in English) preferably arranged below In another embodiment, the sensor is above the screen, or at any other position to capture the view of the user optimally. Advantageously, the eye-tracking sensor 107 makes it possible to detect the point of view of the user on the screen 202. FIG. 5 details an embodiment of the operation of the eye-tracking sensor 107 and the capture of at least one point of view. of the user 103.

30 Ledit écran 202 affiche au moins une grille 201. La figure 9 détaille les séquences de points de regard présent sur la grille 201 (figure 12). La grille 201 comprend au moins deux colonnes et deux lignes et de préférence trois colonnes et trois lignes. Chacune des cases de ladite grille 201 correspondant à une direction. La direction affichée par une case de la grille est au moins l'une des directions suivantes : avancée, reculée, 35 droite, gauche et stop. De plus chacune des cases a une fréquence lumineuse spécifique. La fréquence lumineuse de chacune des cases de la grille est comprise entre 10Hz et 25Hz Dans une réalisation préférée de l'invention, derrière la grille 201 3037498 12 est affichée une représentation de l'environnement se trouvant face de l'appareil mobile. Afin de représenter l'environnement en face de l'appareil, une première caméra est présente sur la face avant de l'appareil mobile. Avantageusement une seconde caméra est présente à l'arrière d'appareil mobile. Cette seconde caméra peut aussi 5 permettre un affichage de l'environnement se trouvant derrière la face arrière de l'appareil mobile. Les deux caméras n'étant pas représentées sur les figures. L'affichage s'effectuant sur l'écran 202 lors de la marche arrière de l'appareil mobile. Ainsi, la détermination de l'instruction de déplacement 206 comprend la sélection par l'utilisateur d'une direction 203 affichée sur une case de la grille 201. La 10 sélection d'une case de la grille 201 est une stimulation du cerveau qui va générer une onde cérébrale de type P300 101. De plus, la case ayant une fréquence lumineuse spécifique, une onde cérébrale SSVEP 102 va aussi être générée. Les ondes cérébrales P300 101 et SSVEP 102 vont permettre la détermination d'une première donnée cérébrale P300 110 et SSVEP 120. La prise en compte simultanée des deux 15 premières données cérébrales de type P300 110 et SSVEP 120 pour l'instruction de déplacement est opéré par un système de logique floue. Un exemple de l'assimilation des premières données P300 et SSVEP 204 par la logique floue est donné dans la figure 6. L'interprétation desdites premières données cérébrales de type P300 110 et SSVEP 20 120 par le système de logique floue va permettre d'effectuer une étape de validation 205 de la direction sélectionnée 203. Ainsi, si l'écart entre le TC et le TAC + 300ms est inférieure ou égale à 100 ms et/ou l'écart entre la FC et la FAC est supérieure à Y, alors la direction est validée par la première donnée cérébrale P300 110 et/ou la première donnée SSVEP 120. Si l'écart 25 entre le TC et le TAC + 300ms est supérieur à 100 ms et/ou l'écart entre la FC et la FAC est supérieure à Y, alors la direction n'est pas validée par la première donnée cérébrale SSVEP 120 et/ou la première donnée SSVEP. En cas de validation de la direction sélectionnée par l'utilisateur, une trajectoire d'instruction est générer avec un statut validé.Said screen 202 displays at least one grid 201. FIG. 9 details the sequences of viewing points present on the grid 201 (FIG. 12). The grid 201 comprises at least two columns and two lines and preferably three columns and three lines. Each of the boxes of said grid 201 corresponding to a direction. The direction displayed by one box of the grid is at least one of the following directions: forward, backward, right, left and stop. In addition each of the boxes has a specific light frequency. The light frequency of each of the cells of the grid is between 10Hz and 25Hz. In a preferred embodiment of the invention, behind the grid 201 is displayed a representation of the environment facing the mobile device. In order to represent the environment in front of the device, a first camera is present on the front of the mobile device. Advantageously a second camera is present at the rear of mobile device. This second camera can also provide a display of the environment behind the back side of the mobile device. The two cameras are not shown in the figures. The display being performed on the screen 202 during the reverse of the mobile device. Thus, the determination of the moving instruction 206 includes the selection by the user of a direction 203 displayed on a square of the grid 201. The selection of a square of the grid 201 is a stimulation of the brain which will generate a P300-type brain wave 101. In addition, the box having a specific light frequency, a brain wave SSVEP 102 will also be generated. The P300 101 and SSVEP 102 brainwaves will make it possible to determine a first cerebral data P300 110 and SSVEP 120. The simultaneous taking into account of the first two first P300 110 and SSVEP 120 cerebral data for the displacement instruction is performed. by a fuzzy logic system. An example of the assimilation of the first data P300 and SSVEP 204 by the fuzzy logic is given in FIG. 6. The interpretation of said first brain data of the P300 110 and SSVEP 120 type by the fuzzy logic system will make it possible to carry out a validation step 205 of the selected direction 203. Thus, if the difference between the TC and the TAC + 300ms is less than or equal to 100 ms and / or the difference between the FC and the FAC is greater than Y, then the direction is validated by the first cerebral data P300 110 and / or the first data SSVEP 120. If the difference 25 between the TC and the TAC + 300 ms is greater than 100 ms and / or the difference between the FC and the FAC is greater than Y, then the direction is not validated by the first cerebral data SSVEP 120 and / or the first data SSVEP. In case of validation of the direction selected by the user, an instruction path is generated with a validated status.

30 En cas de non validation de la direction sélectionnée par l'utilisateur, une trajectoire d'instruction est générer avec un statut suspendu. Ladite trajectoire d'instruction validée 210 ou suspendue 220 est ensuite intégrée à la consigne de déplacement. Le procédé de validation 205 de la direction sélectionnée 203 par au moins une 35 première donnée cérébrale de type P300 110 et SSVEP 120 est illustré par la figure 4.In case of non-validation of the direction selected by the user, an instruction trajectory is generated with a suspended status. Said validated instruction trajectory 210 or suspended 220 is then integrated with the displacement instruction. The validation method 205 of the selected direction 203 by at least one first P300 data item 110 110 and SSVEP 120 is illustrated in FIG. 4.

3037498 13 Avantageusement la donnée de contrôle 340 va permettre, grâce à l'étape de détermination 300, de sélectionner un mode de contrôle 350 de l'appareil mobile parmi au moins un mode suivant : manuel, semi-autonome et autonome. Dans d'autre réalisation de l'invention des modes de contrôle 350 peuvent être supprimés ou 5 ajoutés. C'est le mode de contrôle 350 sélectionnée qui va être intégré dans la consigne de déplacement. Ladite donnée de contrôle 340 comprend au moins une donnée physiologique et/ou physiologique 331, au moins une deuxième donnée cérébrale de type P300 110 ou SSVEP 120 et/ou bande fréquentielle alpha et/ou beta 130, au moins une donnée 10 préenregistrée issue d'une base de données « fatigue » 310 et une autre donnée issue d'une base de données « émotion » 320. De préférence la donnée de contrôle 340 comprend deux deuxième données cérébrales de type P300 110 et/ou SSVEP 120 et/ou bande fréquentielle alpha et/ou beta 130 et une donnée physiologique et/ou psychologique 331 fonction de la fréquence cardiaque (donnée cardiaque 104) et de la 15 température (donnée de température 105) de l'utilisateur. Ces données combinées ou non entre elles permettent la détermination d'un état de fatigue 312 et d'un état émotionnel 322 de l'utilisateur. La base de données « fatigue » contient les ondes cérébrales alpha et beta ainsi que les amplitudes maximales et la période d'apparition du P300 au niveau des capteurs EEG.Advantageously, the control data 340 will make it possible, thanks to the determination step 300, to select a control mode 350 of the mobile device from at least one of the following modes: manual, semi-autonomous and autonomous. In another embodiment of the invention control modes 350 may be deleted or added. This is the selected control mode 350 which will be integrated in the displacement instruction. Said control data 340 comprises at least one physiological and / or physiological data item 331, at least one second cerebral data item of the P300 110 or SSVEP 120 type and / or alpha and / or beta frequency band 130, at least one pre-recorded data item derived from a "fatigue" database 310 and another data item from an "emotion" database 320. Preferably, the control data item 340 comprises two second cerebral data of the P300 110 and / or SSVEP 120 and / or band type. frequency alpha and / or beta 130 and physiological and / or psychological data 331 a function of the heart rate (cardiac data 104) and the temperature (temperature data 105) of the user. These data combined or not between them allow the determination of a state of fatigue 312 and an emotional state 322 of the user. The fatigue database contains the alpha and beta brain waves as well as the maximum amplitudes and the period of appearance of the P300 at the EEG sensors.

20 Avantageusement, les premières données cérébrales de type P300 110 et/ou SSVEP 120 et les deuxièmes données cérébrale de type P300 110 et/ou SSVEP 120 sont issu des mêmes ondes cérébrales P300 101 et/ou SSVEP 102. De préférence, la base des données « émotion », contient les variations normalisées des asymétries des bandes fréquentielles alpha et beta au niveau de la partie 25 pariétale, centrale et frontale du cortex cérébral. De plus, elle intègre les changements des rythmes cardiaques qui sont corrélées avec les différents états d'émotion ainsi que les données de température corporelle. Avantageusement, l'état de fatigue 312 de l'utilisateur est fonction d'une deuxième donnée cérébrale P300 110 et/ou SSVEP 120 et d'au moins une donnée 30 préenregistrée dans une base de données « fatigue » 310. Ladite deuxième donnée cérébrale P300 110 et/ou SSVEP 120 est de préférence la même que la première donnée cérébrale ayant été utilisée précédemment par l'instruction de déplacement 206. Néanmoins, l'interprétation de l'écart entre le TC et le TAC+300ms et/ou entre la FC et la FAC est différente. De plus, la prise en compte simultanée 311 des ondes 35 cérébrales P300 101 et/ou SSVEP 102 par la donnée de contrôle 340 pour déterminer l'état de fatigue 312 est réalisée par la théorie de Dempster-Shafer ou théorie des évidences. Dans cette configuration, l'écart entre ces valeurs permet de déterminer 3037498 14 l'état de fatigue 312 de l'utilisateur. En effet, une corrélation existe entre l'état de fatigue de l'utilisateur l'écart de l'amplitude maximale ainsi que la durée d'apparition du P300, et l'écart constaté de l'amplitude maximale de FC. Ainsi, si l'écart entre les amplitudes normalisées du P300 est inférieur à 10% et/ou l'écart des amplitudes de la 5 fréquence prédominante du SSVEP est inférieur à 15% alors un état de fatigue moyenne est déterminé. Dans une réalisation préférée mais non limitative de l'invention, quatre niveaux de fatigue peuvent être déterminés (fatigue élevée, moyenne, faible et inexistante). Dans d'autres réalisations de l'invention, le nombre de niveaux de fatigue peut varier positivement ou négativement. La correspondance entre 10 les écarts des données cérébrales P300 110 et/ou SSVEP 120 et l'état de fatigue 312 est possible grâce à la comparaison de ces écarts avec la base de données « fatigue » 310 et l'incorporation de règles de plausibilité. Le procédé de détermination de l'état de fatigue 312 est illustré par la figure 8. Avantageusement un état émotionnel 322 est aussi généré en fonction de la 15 donnée physiologique et de la au moins une deuxième donnée cérébrale P300 110 et/ou SSVEP 120 et/ou une donnée alpha et/ou beta 130 et d'au moins une donnée préenregistrée dans une base de données « émotion » 320. ». L'évolution des ondes alpha et/ou beta 112 au cours du temps, est corrélée avec l'état émotionnel exprimé. Encore une fois, l'écart des amplitudes normalisées de ces ondes est calculé. Si ce 20 dernier augmente de 15%, un état de stress est détecté. Associées aux données cardiaques 104 et de température 105 de l'utilisateur, on peut déterminer l'état émotionnel 322 de l'utilisateur. La logique permettant l'interprétation et l'assimilation 321 de ces multiples données est notamment les réseaux de neurones. D'autres théories peuvent bien entendu servir à l'interprétation de ces données.Advantageously, the first cerebral data P300 110 and / or SSVEP 120 and the second cerebral data P300 110 and / or SSVEP 120 are derived from the same brain waves P300 101 and / or SSVEP 102. "Emotion" data, contains the normalized variations of the asymmetries of the alpha and beta frequency bands at the parietal, central and frontal portion of the cerebral cortex. In addition, it incorporates changes in heart rates that are correlated with different states of emotion as well as body temperature data. Advantageously, the fatigue state 312 of the user is a function of a second cerebral data P300 110 and / or SSVEP 120 and at least one pre-recorded data 30 in a "fatigue" database 310. Said second cerebral data P300 110 and / or SSVEP 120 is preferably the same as the first cerebral data previously used by the displacement instruction 206. Nevertheless, the interpretation of the difference between the TC and the TAC + 300ms and / or between the CF and the FAC are different. In addition, the simultaneous consideration 311 of the P300 101 and / or SSVEP 32 brain waves by the control data 340 to determine the fatigue state 312 is performed by the Dempster-Shafer theory or theory of evidence. In this configuration, the difference between these values makes it possible to determine the fatigue state 312 of the user. Indeed, a correlation exists between the state of fatigue of the user the deviation of the maximum amplitude as well as the duration of appearance of the P300, and the observed difference of the maximum amplitude of FC. Thus, if the difference between the normalized amplitudes of the P300 is less than 10% and / or the difference in amplitudes of the predominant frequency of the SSVEP is less than 15% then an average fatigue state is determined. In a preferred but nonlimiting embodiment of the invention, four levels of fatigue can be determined (high, medium, low and nonexistent fatigue). In other embodiments of the invention, the number of fatigue levels may vary positively or negatively. The correspondence between the deviations of the P300 110 and / or SSVEP 120 brain data and the fatigue state 312 is possible by comparing these deviations with the fatigue database 310 and the incorporation of plausibility rules. The method for determining the state of fatigue 312 is illustrated in FIG. 8. Advantageously, an emotional state 322 is also generated as a function of the physiological data and the at least one second cerebral data P300 110 and / or SSVEP 120 and / or alpha and / or beta data 130 and at least one prerecorded data in an "emotion" database 320. " The evolution of alpha waves and / or beta 112 over time, is correlated with the emotional state expressed. Once again, the deviation of the normalized amplitudes of these waves is calculated. If this latter increases by 15%, a state of stress is detected. Associated with the user's cardiac data 104 and temperature data 105, it is possible to determine the emotional state 322 of the user. The logic allowing the interpretation and the assimilation 321 of these multiple data is in particular the networks of neurons. Other theories can of course be used for the interpretation of these data.

25 Avantageusement et de manière générale, les premières données cérébrales de type P300 110 et/ou SSVEP 120 et les deuxièmes données cérébrale de type P300 110 et/ou SSVEP 120 sont issu des mêmes ondes cérébrales P300 101 et/ou SSVEP 102. Avantageusement, l'état émotionnel 322 est déterminé parmi les quatre états suivant : stress, énervement, relaxation, excitation. Le nombre d'états émotionnels 322 présent 30 n'est pas limitatif, et l'ajout ou la suppression d'états émotionnels est possible. La prise en compte simultanée 321 des données cérébrales, des données physiologiques (température et fréquence cardiaque) ainsi d'au moins une donnée issue de la base de donnée « émotion » 322 est réalisée par un réseau de neurone. Ce procédé de détermination de l'état émotionnel 322 de l'utilisateur est illustré en figure 7.Advantageously and in a general manner, the first cerebral data P300 110 and / or SSVEP 120 and the second cerebral data P300 110 and / or SSVEP 120 are derived from the same brain waves P300 101 and / or SSVEP 102. Advantageously, the emotional state 322 is determined among the following four states: stress, nervousness, relaxation, excitation. The number of emotional states 322 present 30 is not limiting, and the addition or deletion of emotional states is possible. The simultaneous consideration 321 of the brain data, physiological data (temperature and heart rate) and at least one datum from the "emotion" database 322 is produced by a neuron network. This method of determining the emotional state 322 of the user is illustrated in FIG.

35 Une fois déterminée l'état de fatigue 312 et l'état émotionnel 322 de l'utilisateur, la combinaison de ces états 330, par un système de logique floue, permet la détermination d'un état psychologique 331 de l'utilisateur. C'est en fonction dudit état 3037498 15 psychologique 331 de l'utilisateur que le mode de contrôle 350 va être sélectionné. Une fois le mode de contrôle 350 sélectionné, ladite sélection est intégrée à la consigne de déplacement.Once the fatigue state 312 and the emotional state 322 of the user have been determined, the combination of these states 330 by a fuzzy logic system allows the determination of a psychological state 331 of the user. It is according to the user's psychological state 331 that the control mode 350 will be selected. Once the control mode 350 has been selected, said selection is integrated in the displacement instruction.

5 Avantageusement les données d'espace 400 est fonction d'au moins un capteur d'environnement. Dans une réalisation préférée de l'invention au moins un capteur d'environnement comprend au moins un capteur de mouvements 402 et au moins un capteur ultrasons 401, et de préférence quatre capteurs de mouvements 402 et dix capteurs d'ultrasons 401 (figures 13 et 14). De manière préférentielle, l'appareil 10 mobile comprend trois capteurs ultrasons 401 et un capteur de mouvements 402 sur chacune de ces faces latérales. Deux capteurs ultrasons 401 et un capteur de mouvements 402 sont positionnés sur chacune des faces avant et arrière de l'appareil mobile. Lorsque l'appareil mobile est un fauteuil roulant pour personne handicapé, alors les capteurs d'ultrason 401 sont positionnés sur le châssis dudit fauteuil roulant.Advantageously, the space data 400 is a function of at least one environment sensor. In a preferred embodiment of the invention, at least one environmental sensor comprises at least one motion sensor 402 and at least one ultrasonic sensor 401, and preferably four motion sensors 402 and ten ultrasound sensors 401 (FIGS. 14). Preferably, the mobile apparatus comprises three ultrasonic sensors 401 and a motion sensor 402 on each of these side faces. Two ultrasonic sensors 401 and a motion sensor 402 are positioned on each of the front and rear faces of the mobile device. When the mobile device is a wheelchair for a disabled person, then the ultrasound sensors 401 are positioned on the chassis of said wheelchair.

15 Dans cette réalisation le positionnement des capteurs d'ultrasons 401 sur le châssis est de préférence le plus proche du sol possible. Les capteurs de mouvements 402 sont positionnés de préférence au-dessus des capteurs d'ultrasons 401. Avantageusement les capteurs ultrasons 401 permettent la génération d'une donnée d'ultrason 403. Ladite donnée d'ultrason 403 comprend la détection du nombre 20 d'obstacles et de leurs positions. Ainsi, suivant un algorithme spécifique, les données issues des capteurs ultrasons 401 permettent le calcul de la localisation de l'appareil mobile dans une pièce intérieure. En milieu extérieur, la localisation de l'appareil peut être réalisée par tout autre moyen, comme par exemple avec une puce de géolocalisation de type satellite. Les capteurs d'ultrasons 401 ont avantageusement 25 une portée maximale d'au moins 3 mètres et de préférence 6 mètres. Cette configuration avantageuse permet une détection du nombre d'obstacles entourant l'appareil mobile, ainsi que leurs distances vis-à-vis dudit appareil mobile. Les capteurs de mouvements 402 permettent la génération d'une donnée de mouvement 404. Ladite donnée de mouvement 404 permet une détection de toute activité autour de l'appareil 30 mobile. Lesdits capteurs de mouvements 402 ont avantageusement une portée maximale de 2 mètres et de préférence une portée de 4 mètre. La donnée d'ultrason 403 et la donnée de mouvement 404 permettent la localisation de l'appareil, ainsi que sa distance vis-à-vis des obstacles et le nombre d'obstacle. Tous ces éléments définissent la donnée d'environnement 412. Ladite 35 donnée d'environnement 412 est ensuite intégrée à la consigne de déplacement. Enfin les données issues des différents types de capteurs d'ultrasons 401 et de mouvements 402 sont assimilées par un système de logique floue 411 décrit dans la 3037498 16 figure 9. Cette étape d'assimilation des données d'ultrasons 403 et de mouvements 404 pour déterminer la donnée d'environnement est le bloc 410 de la figure 9. La consigne de déplacement traite et analyse ensuite la trajectoire 5 d'instructions validé 210 ou non validé 220, le mode de contrôle 350 ainsi que la donnée d'environnement 412. Pour réaliser ce traitement d'information, elle comprend avantageusement un calculateur (de préférence un microprocesseur et/ou un circuit logique programmable (FGPA en anglais)) et une mémoire interne. Dans une autre réalisation de l'invention, le calculateur est déporté et seule la consigne de 10 déplacement 500 est envoyée à l'appareil mobile pour son application. Le traitement de ces données s'effectue suivant un système de logique floue afin de déterminer une vitesse de déplacement 501 ainsi qu'une trajectoire de déplacement 502 (figures 11 et 12) Avantageusement, la vitesse peut être déterminée par deux méthodes : soit en 15 utilisant des encodeurs montés sur le fauteuil ou bien au travers des données issues des capteurs de mouvements 402 des capteurs ultrasons 401. Ainsi, dans une réalisation préférée de l'invention, l'appareil mobile se déplace à une vitesse maximale par défaut. Ensuite, un coefficient de réduction de vitesse est appliqué en fonction des données reçus. Le capteur pour détecter la vitesse de l'appareil est de préférence un 20 odomètre. D'autres capteurs de vitesse peuvent bien entendu être ajoutés. Dans une autre réalisation de l'invention, il n'y a pas de vitesse par défaut. Dans ce cas de figure la vitesse est déterminée par la position du au moins un point de regard ou séquence visuelle 103 sur la grille 201. La prise en compte de toutes ces données permet un affinement de la consigne de 25 déplacement 500. Par exemple, si l'utilisateur est fatigué, l'appareil mobile va déterminer un mode de contrôle 350 autonome, et permettre une validation des directions « suspendues » 210. La prise en compte de l'état de fatigue 312 permet de corriger cette donnée et de permettre un déplacement facilité. De même, en cas d'obstacle, le capteur d'ultrasons 401 permet un contournement automatique, ou un 30 demi-tour de l'appareil mobile. Ainsi, l'utilisateur ne reste pas bloqué devant l'obstacle. Au vus de la description qui précède il apparait clairement que l'invention offre une solution particulièrement efficace pour contrôler un appareil mobile de manière précise, fiable et particulièrement confortable pour l'utilisateur. L'appareil mobile pourra donc 35 être piloté durant les intervalles de temps bien plus étendus qu'avec les autres solutions connues.In this embodiment the positioning of the ultrasonic sensors 401 on the frame is preferably as close to the ground as possible. The motion sensors 402 are preferably positioned above the ultrasound sensors 401. Advantageously, the ultrasonic sensors 401 enable the generation of an ultrasound data 403. Said ultrasound data 403 comprises the detection of the number of ultrasounds. obstacles and their positions. Thus, according to a specific algorithm, the data from the ultrasonic sensors 401 allow the calculation of the location of the mobile device in an inner room. In external environment, the location of the device can be achieved by any other means, such as with a geolocation chip of satellite type. Ultrasonic sensors 401 advantageously have a maximum range of at least 3 meters and preferably 6 meters. This advantageous configuration allows a detection of the number of obstacles surrounding the mobile device, as well as their distances vis-à-vis said mobile device. The motion sensors 402 enable generation of motion data 404. Said motion data 404 allows detection of any activity around the mobile device. Said motion sensors 402 advantageously have a maximum range of 2 meters and preferably a range of 4 meters. The ultrasound data 403 and the movement data 404 allow the location of the device, as well as its distance from the obstacles and the number of obstacles. All these elements define the environment data item 412. Said environment data item 412 is then integrated with the displacement instruction. Finally, the data from the different types of ultrasonic sensors 401 and movements 402 are assimilated by a fuzzy logic system 411 described in FIG. 9. This step of assimilating the ultrasound data 403 and the movement 404 to determine the environment datum is the block 410 of FIG. 9. The displacement instruction then processes and analyzes the validated or non validated instruction path 220, the control mode 350 as well as the environment datum 412. To carry out this information processing, it advantageously comprises a computer (preferably a microprocessor and / or a programmable logic circuit (FGPA in English)) and an internal memory. In another embodiment of the invention, the computer is remote and only the displacement instruction 500 is sent to the mobile device for its application. The processing of these data is carried out according to a fuzzy logic system in order to determine a displacement speed 501 as well as a displacement path 502 (FIGS. 11 and 12). Advantageously, the speed can be determined by two methods: either at 15 using encoders mounted on the chair or through data from motion sensors 402 of ultrasonic sensors 401. Thus, in a preferred embodiment of the invention, the mobile device moves at a maximum speed by default. Then, a speed reduction coefficient is applied according to the data received. The sensor for detecting the speed of the apparatus is preferably an odometer. Other speed sensors can of course be added. In another embodiment of the invention, there is no default speed. In this case, the speed is determined by the position of the at least one look point or visual sequence 103 on the grid 201. The taking into account of all these data allows a refinement of the displacement instruction 500. For example, if the user is tired, the mobile device will determine a control mode 350 autonomous, and allow validation of the "suspended" directions 210. Taking into account the fatigue state 312 allows to correct this data and to allow an easy move. Similarly, in the event of an obstacle, the ultrasonic sensor 401 allows an automatic bypass, or a half-turn of the mobile device. Thus, the user does not remain stuck in front of the obstacle. From the foregoing description it is clear that the invention offers a particularly effective solution for controlling a mobile device accurately, reliably and particularly comfortable for the user. The mobile device can therefore be driven during the time intervals much wider than with other known solutions.

3037498 17 L'invention n'est pas limitée aux modes de réalisation précédemment décrits mais s'étend à tous modes de réalisation entrant dans la portée des revendications.The invention is not limited to the previously described embodiments but extends to all embodiments within the scope of the claims.

3037498 REFERENCES 100. Données d'utilisateur ; 101. Onde cérébrale P300 ; 5 102. Onde cérébrale SSVEP ; 103. Point de regard de l'utilisateur ; 104. Donnée cardiaque ; 105. Donnée de température ; 106. Capteur Encéphalographie 10 107. Capteur oculométrie ; 108. Cardio-fréquence mètre ; 109. Thermomètre ; 110. Donnée cérébrale P300 ; 111. Détermination d'une donnée 15 cérébrale P300 ; 112. Onde cérébrale Alpha et/ou Beta 120. Donnée cérébrale SSVEP ; 121. Détermination d'une donnée cérébrale SSVEP ; 20 130. Donnée cérébrale Alpha et/ou Beta 200. Détermination de la donnée d'instruction de déplacement ; 25 201. Grille ; 202. Ecran 203. Sélection d'une direction par l'utilisateur ; 204. Assimilation des données P300 30 et SSVEP ; 205. Validation de la direction sélectionnée par les données cérébrales 206. Instruction de déplacement 35 210. détermination d'une trajectoire d'instruction validé ; 220. détermination d'une trajectoire d'instruction suspendu ; 300. Etape de détermination de la donnée de de contrôle ; 310. Base de données « fatigue » 311. Assimilation par la théorie des évidences 45 312. Etat de fatigue 320. Base de données « émotion » ; 321. Assimilation par la théorie des évidences ; 322. Etat émotionnel ; 50 330. Assimilation par la logique floue 331 Etat psychologie et/ou physiologique 340. Donnée de contrôle 350. Mode de contrôle ; 55 400. Données d'espace 401. Capteur d'ultrasons ; 402. Capteur de mouvements ; 403. Donnée d'ultrasons ; 60 404. Donnée de mouvements ; 410. Détermination de la donnée d'environnement ; 411. Assimilation de l'environnement par la logique floue ; 65 412. Donnée d'environnement ; 18 3037498 19 500. Consigne de déplacement, 510. Vitesse consigne ; 5 520. Trajectoire consigne.3037498 REFERENCES 100. User data; 101. P300 brainwave; 5 102. Brain wave SSVEP; 103. Point of view of the user; 104. Cardiac data; 105. Temperature data; 106. Encephalography sensor 107. Eye-tracking sensor; 108. Cardio-frequency meter; 109. Thermometer; 110. P300 brain data; 111. Determination of a P300 cerebral data; 112. Brain wave Alpha and / or Beta 120. Brain data SSVEP; 121. Determination of a cerebral data SSVEP; 130. Alpha and / or Beta 200 brain data. Determining displacement instruction data; 201. Grid; 202. Screen 203. Selection of a direction by the user; 204. Assimilation of P300 30 and SSVEP data; 205. Validation of the direction selected by the cerebral data 206. Movement instruction 210. Determination of a valided instruction trajectory; 220. determination of a suspended instruction trajectory; 300. Step of determining the control data; 310. Fatigue database 311. Assimilation by the theory of evidence 45 312. State of fatigue 320. Database "emotion"; 321. Assimilation by the theory of evidence; 322. Emotional state; 50 330. Fuzzy logic assimilation 331 Psychological and / or physiological state 340. Control data 350. Control mode; 55 400. Space data 401. Ultrasonic sensor; 402. Motion sensor; 403. Ultrasound data; 60 404. Data of movements; 410. Determination of the environmental data; 411. Assimilation of the environment by fuzzy logic; 65 412. Environmental data; 3037498 19 500. Setpoint displacement, 510. Setpoint speed; 520. Trajectory setpoint.

Claims (24)

REVENDICATIONS1. Procédé de contrôle du déplacement d'un appareil mobile par un utilisateur dans lequel le contrôle du déplacement est basé sur une consigne de déplacement (500), comprenant une étape de détermination de ladite consigne de déplacement (500) caractérisé, en ce que cette étape de détermination comprend les étapes suivantes mises en oeuvre par ordinateur à l'aide d'au moins un microprocesseur : - Génération d'au moins une instruction de déplacement (206) basée au moins sur: ^ au moins une direction (203) issue d'au moins un point de regard (103) de l'utilisateur, ^ au moins une première donnée cérébrale de l'utilisateur, ladite donnée cérébrale étant issue d'une onde positive cérébrale de l'utilisateur, appelée onde cérébrale P300 (101), apparaissant 300 ms (milliseconde) après une stimulation et/ou issue d'une onde cérébrale de l'utilisateur, appelée onde cérébrale SSVEP (102), apparaissant en réponse à une stimulation visuelle prédéterminée; - Génération (300) d'au moins une donnée de contrôle (340), au moins basée sur : ^ Une deuxième donnée cérébrale de l'utilisateur issue d'une onde cérébrale P300 (101) et/ou issue d'une onde cérébrale SSVEP (102) et/ou issue d'une onde cérébrale de type alpha et/ou beta (112) au niveau de la zone pariétale centrale et frontale du cortex cérébral. ^ une donnée physiologique parmi au moins la température (105) de l'utilisateur et/ou sa fréquence cardiaque (104) ; - Génération d'au moins une donnée d'environnement (412) issue d'au moins un capteur identifiant une partie au moins de l'environnement de l'appareil mobile ; - Génération d'une consigne de déplacement (500) fonction d'au moins : ladite instruction de déplacement (206), ladite donnée de contrôle (340) et ladite donnée d'environnement (412). - Génération d'une trajectoire consigne (520) et d'une vitesse consigne (510) en fonction notamment de ladite consigne de déplacement. 3037498 20REVENDICATIONS1. A method of controlling the movement of a mobile device by a user in which the displacement control is based on a displacement instruction (500), comprising a step of determining said displacement instruction (500) characterized, in that this step method comprises the following computer-implemented steps using at least one microprocessor: - Generating at least one moving instruction (206) based on at least: at least one direction (203) issued from at least one point of view (103) of the user, at least one first cerebral data of the user, said cerebral data being derived from a positive cerebral wave of the user, called the P300 brain wave (101) , appearing 300 ms (millisecond) after stimulation and / or from a user's brain wave, called SSVEP brain wave (102), appearing in response to a predetermined visual stimulation; - Generation (300) of at least one control data item (340), at least based on: A second cerebral data of the user resulting from a P300 (101) brain wave and / or from a brain wave SSVEP (102) and / or from an alpha and / or beta (112) brain wave at the level of the central and frontal parietal area of the cerebral cortex. physiological data among at least the temperature (105) of the user and / or his heart rate (104); - Generation of at least one environment data (412) from at least one sensor identifying at least part of the environment of the mobile device; - Generation of a displacement instruction (500) according to at least: said movement instruction (206), said control data (340) and said environment data (412). - Generating a setpoint path (520) and a target speed (510) as a function in particular of said displacement instruction. 3037498 20 2. Procédé selon la revendication précédente dans lequel l'instruction de déplacement (206) détermine une trajectoire d'instruction parmi au moins une ou une combinaison de directions suivantes : avancer, reculer, tourner à droite, 5 tourner à gauche, stop, la trajectoire consigne (500) étant également fonction de la trajectoire d'instruction.2. Method according to the preceding claim wherein the displacement instruction (206) determines an instruction trajectory among at least one or a combination of directions: advance, reverse, turn right, turn left, stop, the trajectory setpoint (500) also being a function of the instruction trajectory. 3. Procédé selon la revendication précédente, dans lequel ladite étape de génération de l'instruction de déplacement comprend une validation (205) de la 10 au moins une direction (203) issue d'au moins un point de regard de l'utilisateur (103) par la au moins une première donnée cérébrale, afin de déterminer la trajectoire d'instruction.3. Method according to the preceding claim, wherein said step of generating the displacement instruction comprises a validation (205) of the at least one direction (203) coming from at least one point of view of the user ( 103) by the at least one first cerebral data, in order to determine the instruction trajectory. 4. Procédé selon l'une quelconque des revendications précédentes dans lequel la 15 première et/ou la deuxième donnée cérébrale est issue d'une onde cérébrale P300 (101) et comprend une étape de génération (111) de la première et/ou de la deuxième donnée cérébrale (111) issue de l'onde cérébrale P300 (101) comprenant les étapes suivantes : - Lecture d'une activité cérébrale de l'utilisateur avec enregistrement du 20 temps d'affichage des commandes (TAC) ; - Détection de l'onde cérébrale P300 (101) à partir d'un changement d'amplitude de l'activité cérébrale et enregistrement du temps de changement (TC) ; - Comparaison du TAC au TC ; 25 - Génération de la première et/ou la deuxième donnée cérébrale, appelée donnée cérébrale P300 (110), issue d'une onde cérébrale P300 (101).4. A method according to any one of the preceding claims wherein the first and / or second cerebral data originates from a P300 brain wave (101) and comprises a step of generating (111) the first and / or the second cerebral data (111) derived from the P300 brain wave (101) comprising the following steps: - Reading of a brain activity of the user with recording of the display time of the commands (TAC); - Detection of the P300 (101) brain wave from a change in amplitude of brain activity and recording of the change time (TC); - Comparison of TAC with TC; 25 - Generation of the first and / or second cerebral data, called the P300 cerebral data (110), resulting from a P300 (101) brain wave. 5. Procédé selon la revendication précédente, dans lequel l'instruction de déplacement (206) détermine une trajectoire d'instruction, dans lequel ladite 30 étape de génération de l'instruction de déplacement comprend une validation (205) de la au moins une direction (203) issue d'au moins un point de regard de l'utilisateur (103)par la au moins une première donnée cérébrale, afin de déterminer la trajectoire d'instruction, dans laquelle ladite première donnée cérébrale est issue d'une onde cérébrale P300 (101) et dans lequel l'étape de 35 validation (205) par la au moins une première donnée cérébrale, et comprend les étapes suivantes : 3037498 21 - Si l'écart entre le TC et le TAC + 300 ms (10-3 secondes) est inférieure ou égale à 100ms alors la trajectoire d'instruction est transmise à la consigne de déplacement avec un statut validé (220) ; - Si l'écart entre le TC et le TAC + 300 ms est supérieure à 100ms, alors 5 trajectoire d'instruction est transmise à la consigne de déplacement avec un statut suspendu (210).The method of the preceding claim, wherein the move instruction (206) determines an instruction path, wherein said step of generating the move instruction comprises a validation (205) of the at least one direction. (203) derived from at least one point of view of the user (103) by the at least one first cerebral datum, in order to determine the instruction trajectory, in which said first cerebral data originates from a brain wave P300 (101) and wherein the validation step (205) by the at least one first cerebral data, and comprises the following steps: - If the gap between the TC and the TAC + 300 ms (10- 3 seconds) is less than or equal to 100 ms then the instruction path is transmitted to the movement instruction with a validated status (220); If the difference between the TC and the TAC + 300 ms is greater than 100 ms, then instruction path is transmitted to the movement instruction with a suspended status (210). 6. Procédé selon l'une quelconque des revendications précédentes dans lequel la première et/ou la deuxième donnée cérébrale est issue d'une onde cérébrale 10 SSVEP (102) et comprend une étape de génération (121) de la première et/ou deuxième donnée cérébrale issue de l'onde cérébrale SSVEP (102) comprenant les étapes suivantes : - Apparition des commandes avec des fréquences préfixées (entre 10 et 25Hz) (FAC) ; 15 Détection du changement d'amplitude de l'activité cérébrale et enregistrement de la fréquence de changement (FC) ; - Comparaison du FAC au FC ; Génération de la première et/ou la deuxième donnée cérébrale, appelée la donnée cérébrale SSVEP (120), issue d'une onde cérébrale SSVEP (102). 206. Method according to any one of the preceding claims wherein the first and / or second cerebral data originates from a brain wave SSVEP (102) and comprises a step of generating (121) the first and / or second cerebral data from the SSVEP brain wave (102) comprising the following steps: - Appearance of commands with prefixed frequencies (between 10 and 25Hz) (FAC); Detecting the change in amplitude of brain activity and recording the change frequency (FC); - Comparison of the FAC with the CF; Generation of the first and / or second cerebral data, called the cerebral data SSVEP (120), issued from a brain wave SSVEP (102). 20 7. Procédé selon la revendication précédente, dans lequel l'instruction de déplacement (206) détermine une trajectoire d'instruction, dans lequel ladite étape de génération de l'instruction de déplacement comprend une validation (205) de la au moins une direction (203) issue d'au moins un point de regard de 25 l'utilisateur (103)par la au moins une première donnée cérébrale, afin de déterminer la trajectoire d'instruction, dans laquelle ladite première donnée cérébrale est issue d'une onde cérébrale SSVEP (102) et dans lequel l'étape de validation (205) par la au moins une première donnée cérébrale, et comprend les étapes suivante 30 - Si l'écart entre le FC et le FAC est inférieure ou égale à 10% alors la trajectoire d'instruction est transmise à la consigne de déplacement avec un statut validé (220) ; - Si l'écart entre le FC et le FAC est supérieure à 10%, alors trajectoire d'instruction est transmise à la consigne de déplacement avec un statut 35 suspendu (210). 3037498 227. The method according to the preceding claim, wherein the displacement instruction (206) determines an instruction trajectory, wherein said step of generating the displacement instruction comprises a validation (205) of the at least one direction ( 203) derived from at least one point of view of the user (103) by the at least one first cerebral datum, in order to determine the instruction trajectory, wherein said first cerebral datum is derived from a brain wave SSVEP (102) and wherein the validation step (205) by the at least one first cerebral data, and comprises the following steps 30 - If the gap between the FC and the FAC is less than or equal to 10% then the instruction path is transmitted to the movement instruction with a validated status (220); If the gap between the FC and the FAC is greater than 10%, then instruction path is transmitted to the movement instruction with a suspended status (210). 3037498 22 8. Procédé selon la revendication 3, dans lequel l'étape de génération de l'instruction de déplacement comprend une validation (205) de la au moins une direction (203) issue d'au moins un point de regard de l'utilisateur (103)et dans lequel la première et/ou la deuxième donnée cérébrale est issue d'une onde 5 cérébrale P300 (101) et est appelée donnée cérébrale P300 (110) et dans lequel la première et/ou la deuxième donnée cérébrale est issue d'une onde cérébrale SSVEP (102) est appelée la donnée cérébrale SSVEP (120), ladite validation (205) étant réalisée en fonction de la au moins une donnée cérébrale P300 (110) et de la au moins une donnée cérébrale SSVEP (120) la prise en 10 compte simultanée des au moins deux données cérébrales P300 (110) et SSVEP (120) étant opérée par un système de logique floue (204).The method of claim 3, wherein the step of generating the move instruction comprises enabling (205) the at least one direction (203) from at least one user's look-up point (203). 103) and wherein the first and / or second cerebral data originate from a P300 brain wave (101) and are referred to as P300 cerebral data (110) and wherein the first and / or second cerebral data are derived from a SSVEP brain wave (102) is called the SSVEP cerebral data (120), said validation (205) being performed as a function of the at least one P300 cerebral data (110) and the at least one SSVEP cerebral data (120) simultaneously taking into account the at least two brain data P300 (110) and SSVEP (120) being operated by a fuzzy logic system (204). 9. Procédé selon l'une quelconque des revendications précédentes comprenant une étape de sélection (300) d'un mode de contrôle (350) parmi les modes 15 suivants : manuel, semi-autonome et autonome, la consigne de déplacement (500) étant notamment fonction dudit mode de contrôle (350) sélectionné, ladite sélection du mode de contrôle étant basée sur ladite au moins une donnée de contrôle (340). 20A method according to any one of the preceding claims comprising a step of selecting (300) a control mode (350) from among the following modes: manual, semi-autonomous and autonomous, the displacement instruction (500) being in particular a function of said control mode (350) selected, said selection of the control mode being based on said at least one control data (340). 20 10. Procédé selon la revendication précédente dans lequel la génération (300) d'au moins une donnée de contrôle (340) comprend la détermination d'un état psychologique et/ou physiologique (331) de l'utilisateur, ledit état psychologique et/ou physiologique (331) de l'utilisateur étant fonction d'un état de fatigue (312) et/ou d'un état émotionnel (322) dudit l'utilisateur. 2510. Method according to the preceding claim wherein the generation (300) of at least one control data (340) comprises the determination of a psychological and / or physiological state (331) of the user, said psychological state and / or physiological (331) of the user depending on a state of fatigue (312) and / or an emotional state (322) of the user. 25 11. Procédé selon la revendication précédente dans lequel la génération de la première et/ou la deuxième donnée cérébrale, appelée donnée cérébrale SSVEP (120), est issue d'une onde cérébrale SSVEP (102) et/ou la génération de la première et/ou la deuxième donnée cérébrale, appelée donnée cérébrale 30 P300 (110) est issue d'une onde cérébrale P300 (101) et dans lequel, l'état psychologique et/ou physiologique (331) de l'utilisateur est fonction d'un état de fatigue (312), ledit état de fatigue étant notamment déterminé par une interprétation de la deuxième donnée cérébrale, ladite deuxième donnée cérébrale étant la donnée cérébrale P300 (110) et/ou la donnée cérébrale 35 SSVEP (120). 3037498 2311. Method according to the preceding claim wherein the generation of the first and / or second cerebral data, called SSVEP cerebral data (120), is derived from a brain wave SSVEP (102) and / or the generation of the first and / or the second cerebral data, called the P300 cerebral data (110), originates from a P300 (101) brain wave and in which the user's psychological and / or physiological state (331) is a function of a fatigue state (312), said fatigue state being determined in particular by an interpretation of the second cerebral data, said second cerebral data being the P300 cerebral data (110) and / or the cerebral data SSVEP (120). 3037498 23 12. Procédé selon la revendication précédente dans lequel l'état de fatigue (312) de l'utilisateur est déterminé en fonction de d'une prédétermination issue de la au moins une donnée cérébrale de type P300 (110) et/ou SSVEP (120), d'au moins une donnée préenregistrée dans une base de données « fatigue » (310), 5 et en appliquant la théorie des évidences (311) comprenant l'application de règles de plausibilités.12. Method according to the preceding claim wherein the fatigue state (312) of the user is determined according to a predetermination from the at least one type of data P300 (110) and / or SSVEP (120). ), at least one prerecorded data in a database "fatigue" (310), and applying the theory of evidence (311) including the application of plausibility rules. 13. Procédé selon l'une quelconque des revendications précédente dans lequel 10 ladite deuxième donnée cérébrale est issue d'une onde cérébrale de type alpha et/ou beta (112) prise au niveau de la zone pariétale centrale et frontale du cortex cérébral et dans laquelle ladite génération (300) d'au moins une donnée de contrôle (340) comprend aussi la détermination d'un état psychologique et/ou physiologique (331) de l'utilisateur, ledit état psychologique et/ou 15 physiologique (331) de l'utilisateur étant fonction d'un état émotionnel (322) dudit l'utilisateur et dans lequel l'état émotionnel (322) de l'utilisateur est déterminé en fonction de données physiologiques comprenant au moins une température de l'utilisateur (105) et/ou une fréquence cardiaque de l'utilisateur (104), et la au moins une deuxième donnée cérébrale issue d'une onde 20 cérébrale de type beta et/ou alpha (112) appelée onde cérébrale alpha et/ou béta, et d'au moins une donnée préenregistrée dans une base de données « émotions » (320), ladite détermination étant opérée par un réseau de neurones (321). 2513. The method as claimed in claim 1, in which said second cerebral datum is derived from an alpha and / or beta type brain wave (112) taken at the level of the central and frontal parietal zone of the cerebral cortex and in which said generation (300) of at least one control data item (340) also comprises the determination of a psychological and / or physiological state (331) of the user, said psychological and / or physiological state (331) of the user being a function of an emotional state (322) of said user and wherein the emotional state (322) of the user is determined based on physiological data including at least one user's temperature (105) and / or a heart rate of the user (104), and the at least one second cerebral data derived from a beta and / or alpha brain wave (112) called alpha and / or beta brain wave, and at least one data prerecorded in an "emotions" database (320), said determination being performed by a neural network (321). 25 14. Procédé selon la revendication 10 selon lequel l'état psychologique et/ou physiologique de l'utilisateur est déterminé par un système de logique floue (330) prenant en compte l'état de fatigue (312) et/ou l'état émotionnel (322) de l'utilisateur. 3014. The method of claim 10 wherein the psychological and / or physiological state of the user is determined by a fuzzy logic system (330) taking into account the state of fatigue (312) and / or the emotional state. (322) of the user. 30 15. Procédé selon la revendication 1 selon lequel le au moins un capteur est configuré pour permettre la détection de la distance entre l'appareil et des obstacles situés à proximité de l'appareil et/ou pour permettre la localisation de l'appareil. 3515. The method of claim 1 wherein the at least one sensor is configured to allow the detection of the distance between the device and obstacles located near the device and / or to allow the location of the device. 35 16. Procédé selon la revendication précédente dans lequel ladite donnée d'environnement (412) est issue de plusieurs types de capteur et les données 3037498 24 de chaque type de capteur sont traitées par un système de logique floue (411), les données traitées sont ensuite interprétées par un réseau de neurones permettant la détermination de la localisation et/ou de la distance de l'appareil par rapport aux obstacles, ainsi que du nombre d'obstacles entourant ledit 5 appareil.16. Method according to the preceding claim wherein said environment data (412) is derived from several types of sensor and the data 3037498 24 of each type of sensor are processed by a fuzzy logic system (411), the processed data is then interpreted by a neural network for determining the location and / or distance of the apparatus from the obstacles, as well as the number of obstacles surrounding said apparatus. 17. Appareil mobile dont le déplacement est contrôlé par le procédé selon l'une quelconque des revendications précédentes comprenant différents types de capteur configurés pour capter au moins un point de regard de l'utilisateur 10 (103), une donnée cérébrale et une donnée physiologique de l'utilisateur, ainsi que des données d'espace (400) relatives à un environnement de l'appareil mobile.Mobile apparatus the movement of which is controlled by the method according to any one of the preceding claims comprising different types of sensors configured to capture at least one user's viewing point (103), brain data and physiological data. of the user, as well as space data (400) relating to an environment of the mobile device. 18. Appareil mobile selon la revendication précédente comprenant au moins un 15 capteur électroencéphalographie (EEG) (106) configuré pour capter au moins l'une parmi les ondes cérébrales suivantes : une onde positive cérébrale de l'utilisateur appelée onde cérébrale P300 (101) apparaissant 300 ms (milliseconde) après une stimulation, une onde cérébrale de l'utilisateur appelée onde cérébrale SSVEP (102) apparaissant en réponse à une stimulation 20 visuelle prédéterminée, une onde cérébrale alpha de l'utilisateur, une onde cérébrale béta de l'utilisateur .18. Mobile device according to the preceding claim comprising at least one electroencephalographic (EEG) sensor (106) configured to capture at least one of the following brain waves: a user's cerebral-positive wave called the P300 brain wave (101) appearing 300 ms (millisecond) after stimulation, a brain wave of the user called SSVEP brain wave (102) appearing in response to a predetermined visual stimulation, an alpha brain wave of the user, a beta brain wave of the user. 19. Appareil mobile selon l'une quelconque des deux revendications précédentes comprenant un écran (202) configuré pour afficher une grille (201) comprenant 25 des directions et dans lequel chaque direction présente sur la grille (201) affiche une fréquence lumineuse différente.Mobile apparatus according to any one of the two preceding claims comprising a screen (202) configured to display a grid (201) comprising directions and wherein each direction present on the grid (201) displays a different light frequency. 20. Appareil mobile selon la revendication précédente comprenant un capteur d'oculométrie (107) configuré pour détecter et/ou enregistrer au moins un point 30 de regard (103) d'au moins un iris de l'utilisateur lorsque l'utilisateur regarde l'écran (202).Mobile device according to the preceding claim, comprising an eye-tracking sensor (107) configured to detect and / or record at least one viewing point (103) of at least one iris of the user when the user is looking at the camera. screen (202). 21. Appareil mobile selon l'une des quatre revendications précédentes comprenant un thermomètre (109) et/ou un cardio-fréquence mètre (108) configuré pour 35 détecter et enregistrer respectivement une température et une fréquence cardiaque de l'utilisateur, l'appareil mobile étant configuré de manière à ce que 3037498 25 la au moins une données physiologiques de l'utilisateur soit issue du thermomètre (109) et/ou du cardio-fréquence mètre (108).Mobile apparatus according to one of the four preceding claims comprising a thermometer (109) and / or a cardio-frequency meter (108) configured to detect and record respectively a temperature and a heart rate of the user, the apparatus The mobile device is configured such that the at least one physiological data of the user is derived from the thermometer (109) and / or the cardio frequency meter (108). 22. Appareil mobile selon l'une quelconque des cinq revendications précédentes 5 comprenant au moins un capteur d'ultrasons (401) et au moins un capteur de mouvement (402) configurés pour localiser l'appareil mobile ainsi que sa distance vis-à-vis des objets l'entourant, l'appareil mobile étant configuré pour générer des données d'environnement (412) issues de l'au moins un capteur d'ultrasons (401) et de l'au moins un capteur de mouvement (402). 10Mobile apparatus according to any one of the five preceding claims comprising at least one ultrasound sensor (401) and at least one motion sensor (402) configured to locate the mobile device and its distance from each other. to surrounding objects, the mobile apparatus being configured to generate environment data (412) from the at least one ultrasound sensor (401) and the at least one motion sensor (402). . 10 23. Appareil mobile selon la revendication précédente, présentant au moins une face avant, une face arrière et deux faces latérales et comprenant dix capteurs d'ultrasons (401) positionnés comme il suit : - deux capteurs sur chacune des faces avant et arrière de l'appareil 15 mobile ; - trois capteurs sur chacune des faces latérales de l'appareil mobile.23. Mobile device according to the preceding claim, having at least one front face, a rear face and two side faces and comprising ten ultrasonic sensors (401) positioned as follows: - two sensors on each of the front and rear faces of the mobile apparatus; three sensors on each of the lateral faces of the mobile device. 24. Appareil mobile selon l'une des deux revendications précédentes présentant au moins une face avant, une face arrière et deux faces latérales et comprenant 20 quatre capteurs de mouvements (402) positionnés sur chacune des faces avant, arrière et latérales de l'appareil mobile.24. Mobile device according to one of the two preceding claims having at least one front face, a rear face and two side faces and comprising four movement sensors (402) positioned on each of the front, rear and side faces of the apparatus. mobile.
FR1555548A 2015-06-17 2015-06-17 METHOD FOR CONTROLLING A MOBILE DEVICE Active FR3037498B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1555548A FR3037498B1 (en) 2015-06-17 2015-06-17 METHOD FOR CONTROLLING A MOBILE DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1555548A FR3037498B1 (en) 2015-06-17 2015-06-17 METHOD FOR CONTROLLING A MOBILE DEVICE

Publications (2)

Publication Number Publication Date
FR3037498A1 true FR3037498A1 (en) 2016-12-23
FR3037498B1 FR3037498B1 (en) 2017-07-07

Family

ID=54015026

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1555548A Active FR3037498B1 (en) 2015-06-17 2015-06-17 METHOD FOR CONTROLLING A MOBILE DEVICE

Country Status (1)

Country Link
FR (1) FR3037498B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113116647A (en) * 2021-04-02 2021-07-16 深兰科技(上海)有限公司 Intelligent wheelchair, control method of intelligent wheelchair and related device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6349231B1 (en) * 1994-01-12 2002-02-19 Brain Functions Laboratory, Inc. Method and apparatus for will determination and bio-signal control
US20080177197A1 (en) * 2007-01-22 2008-07-24 Lee Koohyoung Method and apparatus for quantitatively evaluating mental states based on brain wave signal processing system
WO2010121300A1 (en) * 2009-04-21 2010-10-28 University Of Technology, Sydney A method and system for controlling a device
CN103263324A (en) * 2013-05-06 2013-08-28 西安电子科技大学 Intelligent wheelchair system based on SSVEP (steady-state visual evoked potential)

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6349231B1 (en) * 1994-01-12 2002-02-19 Brain Functions Laboratory, Inc. Method and apparatus for will determination and bio-signal control
US20080177197A1 (en) * 2007-01-22 2008-07-24 Lee Koohyoung Method and apparatus for quantitatively evaluating mental states based on brain wave signal processing system
WO2010121300A1 (en) * 2009-04-21 2010-10-28 University Of Technology, Sydney A method and system for controlling a device
CN103263324A (en) * 2013-05-06 2013-08-28 西安电子科技大学 Intelligent wheelchair system based on SSVEP (steady-state visual evoked potential)

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FAN XIN-AN ET AL: "A Brain-Computer Interface-Based Vehicle Destination Selection System Using P300 and SSVEP Signals", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, IEEE, PISCATAWAY, NJ, USA, vol. 16, no. 1, February 2015 (2015-02-01), pages 274 - 283, XP011571768, ISSN: 1524-9050, [retrieved on 20150130], DOI: 10.1109/TITS.2014.2330000 *
HACHEM A LAMTI ET AL: "The use of brain and thought in service of Handicap assistance: Wheelchair navigation", 2013 INTERNATIONAL CONFERENCE ON INDIVIDUAL AND COLLECTIVE BEHAVIORS IN ROBOTICS, 15 December 2013 (2013-12-15), pages 80 - 85, XP055263390, Retrieved from the Internet <URL:http://ieeexplore.ieee.org/ielx7/6720230/6729252/06729279.pdf?tp=&arnumber=6729279&isnumber=6729252> [retrieved on 20160406], DOI: 10.1109/ICBR.2013.6729279 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113116647A (en) * 2021-04-02 2021-07-16 深兰科技(上海)有限公司 Intelligent wheelchair, control method of intelligent wheelchair and related device
CN113116647B (en) * 2021-04-02 2023-08-29 深兰智能科技研究院(宁波)有限公司 Intelligent wheelchair, control method of intelligent wheelchair and related device

Also Published As

Publication number Publication date
FR3037498B1 (en) 2017-07-07

Similar Documents

Publication Publication Date Title
Fernández et al. Driver distraction using visual-based sensors and algorithms
Yeung et al. Bedside computer vision—moving artificial intelligence from driver assistance to patient safety
CN109154983B (en) Head-mounted display system configured to exchange biometric information
US11834052B2 (en) Estimator generation apparatus, monitoring apparatus, estimator generation method, and computer-readable storage medium storing estimator generation program
Islam et al. Cybersickness prediction from integrated hmd’s sensors: A multimodal deep fusion approach using eye-tracking and head-tracking data
EP3588372B1 (en) Controlling an autonomous vehicle based on passenger behavior
FR2962821A1 (en) METHOD AND SYSTEM FOR CLASSIFYING NEURAL SIGNALS, AND METHOD FOR SELECTING ELECTRODES FOR DIRECT NEURONAL CONTROL.
US20160370774A1 (en) Process for controlling a mobile device
EP3164078A1 (en) Method and device for functional imaging of the brain
Ehinger et al. Predictions of visual content across eye movements and their modulation by inferred information
FR3024569A1 (en) METHOD FOR LOCATING BRAIN ACTIVITY ASSOCIATED WITH A TASK
Yin et al. Developing and evaluating a mobile driver fatigue detection network based on electroencephalograph signals
FR3037498A1 (en) METHOD FOR CONTROLLING A MOBILE DEVICE
US11287876B2 (en) Managing user movement via machine learning
Yakovyna et al. Biosignal and Image Processing System for Emotion Recognition Applications.
US20210290171A1 (en) Systems And Methods For Noise Removal In An Optical Measurement System
Raymond et al. Natural Gaze Data-Driven Wheelchair
Balakrishnan et al. Sonar glass—Artificial vision: Comprehensive design aspects of a synchronization protocol for vision based sensors
Ozdemir et al. Removal of ocular artifacts in EEG using deep learning
Brandão et al. Controlling devices using biological signals
FR3096252A1 (en) Robust detection of evoked potentials via a direct neural interface
EP3768154A1 (en) Method for generating a condition indicator for a person in a coma
Ertekin et al. EMG-based BCI for PiCar Mobilization
Khan et al. Active brain area identification using EEG-NIRS signal acquisition
US20220280084A1 (en) Presentation of Graphical Content Associated With Measured Brain Activity

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20161223

PLFP Fee payment

Year of fee payment: 3