FR3076909A1 - Procédé et dispositif améliorés pour indiquer un cap C à un utilisateur - Google Patents
Procédé et dispositif améliorés pour indiquer un cap C à un utilisateur Download PDFInfo
- Publication number
- FR3076909A1 FR3076909A1 FR1872682A FR1872682A FR3076909A1 FR 3076909 A1 FR3076909 A1 FR 3076909A1 FR 1872682 A FR1872682 A FR 1872682A FR 1872682 A FR1872682 A FR 1872682A FR 3076909 A1 FR3076909 A1 FR 3076909A1
- Authority
- FR
- France
- Prior art keywords
- unit
- user
- orientation data
- head
- heading
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
- A61H2003/063—Walking aids for blind persons with electronic detecting or guiding means with tactile perception
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/1604—Head
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/1609—Neck
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1602—Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
- A61H2201/165—Wearable interfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5023—Interfaces to the user
- A61H2201/5048—Audio interfaces, e.g. voice or music controlled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5064—Position sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2460/00—Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
- H04R2460/07—Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Rehabilitation Therapy (AREA)
- Physical Education & Sports Medicine (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Pain & Pain Management (AREA)
- Epidemiology (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Stereophonic System (AREA)
Abstract
Dispositif (1) convenant à être porté par un utilisateur et agencé pour indiquer un cap (C) audit utilisateur, comportant : une centrale inertielle (2), dite de tête, agencée pour être portée par la tête dudit utilisateur et pour générer des données d’orientation (8) relatives à la direction de ladite tête ; une unité centrale de traitement (4) configurée pour : placer une source sonore virtuelle (10) dans la direction dudit cap, recevoir lesdites données d’orientation, déterminer un signal binaural (11) résultant d’une émission sonore par ladite source virtuelle, reçu au niveau des oreilles de l’utilisateur et à partir desdites données d’orientation reçues, générer un signal audio (12), comportant le signal binaural déterminé ; une unité d’écoute (5) agencée pour restituer le signal audio généré et destinée à être portée au moins en partie par ladite tête. Fig. 1
Description
Description
Titre de l'invention : Procédé et dispositif améliorés pour indiquer un cap C à un utilisateur
Domaine technique [0001] L’invention se situe dans le domaine de l’assistance à l’orientation d’une personne. Plus précisément, l’invention concerne un dispositif pour indiquer à un cap à une personne.
Technique antérieure [0002] On connaît des dispositifs pour assister une personne à conserver une direction de déplacement et notamment une personne aveugle ou malvoyante.
[0003] Par exemple, il existe des GPS pour piétons. Les GPS sont performants pour donner des indications de direction de type global. Ils donnent un cap global, mais ne permettent pas de s’assurer que le piéton suit précisément ce cap. Si l’utilisateur dévie de son cap en cours d’un déplacement, le GPS ne l’indiquera qu’après un moment qui peut être considéré comme trop long. Il est dans ce cas impossible de s’orienter dans un environnement inconnu ou inadapté. En outre, la précision du GPS en ville est très insuffisante et ne permet pas un guidage satisfaisant.
[0004] Une canne blanche permet un guidage efficace lorsque l’environnement comporte des repères tactiles : bord d’un trottoir, mur, bande guidage au sol, etc.
Dans un environnement ouvert, la canne blanche ne permet pas de guider efficacement une personne en ligne droite.
[0005] Aussi, les outils actuels sont tous tributaires de l’environnement : repères tactiles pour la canne blanche, bonne réception du signal pour le GPS, et ne sont donc pas adaptés à tous les environnements.
[0006] Aucune solution satisfaisante ne permet aujourd’hui à une personne aveugle de se déplacer seule avec confiance — sans chien, sans guide — du fait de cette problématique de déviation qui complique la navigation. Cette problématique est d’autant plus handicapante que l’environnement est inconnu à la personne.
Exposé de l'invention [0007] Un but de l’invention est notamment de remédier à tout ou partie des inconvénients précités.
[0008] Selon un premier aspect de l’invention, il est proposé un dispositif convenant à être porté par un utilisateur et agencé pour indiquer un cap à l’utilisateur, comportant :
[0009] · une centrale inertielle, dite de tête, agencée pour être portée par la tête de l’utilisateur et pour générer des données d’orientation relatives à la direction de la tête ;
• une unité centrale de traitement configurée pour :
• placer une source sonore virtuelle dans la direction du cap, • recevoir les données d’orientation, et • déterminer un signal binaural résultant d’une émission sonore par la source virtuelle, reçu au niveau des oreilles de l’utilisateur et à partir des données d’orientation reçues, • générer un signal audio comportant le signal binaural déterminé, [0010] · une unité d’écoute agencée pour restituer le signal audio généré et destinée à être portée par la tête.
[0011] Avec le dispositif selon le premier aspect de l’invention, l’utilisateur peut aisément se déplacer dans la direction d’un cap, ce qui remédie aux inconvénients précités.
[0012] Les données d’orientation peuvent comprendre une ou plusieurs informations, notamment choisies parmi l’ensemble des angles de roulis, de tangage et de cap.
[0013] L’unité d’écoute peut être notamment un casque stéréo.
[0014] De préférence, l’unité d’écoute comporte des écouteurs à conduction osseuse.
L’intérêt de la conduction osseuse est de permettre une écoute ouverte, c’est-à-dire sans obstruer le conduit auditif. Il est avantageux de ne pas obstruer le conduit auditif, notamment pour des personnes malvoyantes. Bien entendu, plus généralement, l’unité d’écoute peut comporter des écouteurs « ouverts », c’est-à-dire des écouteurs qui n’obstruent pas le conduit auditif.
[0015] Selon une possibilité, l’unité centrale est en outre configurée pour déterminer un signal haptique à partir du cap et des données d’orientation, le dispositif comportant en outre des moyens de vibration configurés pour générer ledit signal haptique.
[0016] L’unité centrale peut être en outre configurée pour générer une pluralité de signaux haptiques distincts, par exemple des vibrations distinctes, en fonction de des données de cap ou d’orientation, de leur évolution, ou d’un retraitement de ces données.
[0017] On peut par extension parler de « grammaire haptique » implantée dans l’unité centrale et qui comporte un ensemble de règles prédéterminées, et/ou évolutives, visant à associer des vibrations, ou séquences de vibrations, en fonction données de cap et/ou d’orientation, de leurs évolutions, ou d’un retraitement de ces données.
[0018] De préférence, l’unité centrale peut être en outre configurée pour déterminer une évolution de la position de l’utilisateur entre une première et une deuxième position, et pour déterminer un signal binaural modifié à partir de ladite évolution entre les deux positions, l’unité centrale de traitement pouvant en outre être configurée pour générer le signal audio à partir du signal binaural déterminé modifié.
[0019] Avantageusement, l’unité centrale peut en outre être configurée pour déterminer le signal binaural modifié à partir d’une part du signal binaural déterminé dans la première position et d’autre part d’une amplification de l’évolution de la position de l’utilisateur entre les deux positions. Ainsi, l’utilisateur peut être rapidement réconforté ou contredit dans ses choix de déplacements par une amplification des variations de signaux binauraux entre deux déplacements.
[0020] Avantageusement, l’unité centrale peut en outre être configurée pour déterminer des instructions vocales à partir des données d’orientation reçues et du cap, et pour ajouter les instructions vocales déterminées au signal audio. Des instructions vocales peuvent être du type « à 13 heures » ou encore « à 6 heures ». Les instructions vocales peuvent permettre de lever le doute sur la localisation de la source sonore virtuelle, et donc du cap, lorsque celle-ci est exactement devant, ou exactement derrière l’utilisateur. Les instructions vocales améliorent encore le guidage de l’utilisateur.
[0021] Préférablement, le dispositif peut comporter en outre une centrale inertielle, dite de cou, agencée pour être portée au niveau du cou de l’utilisateur et générer des données d’orientations, la centrale inertielle de tête étant en outre configurée pour générer des données d’orientation et la centrale inertielle de cou étant en outre configurée pour générer des données d’orientation.
[0022] Avantageusement, l’unité centrale de traitement peut être en outre configurée pour : [0023] · synchroniser la boussole de la centrale inertielle de tête et la boussole de la centrale inertielle de cou et déterminer un coefficient de rectification, • rectifier, à partir dudit coefficient de rectification, les données d’orientations générées par la centrale inertielle de tête et les données d’orientations générés par la centrale inertielle de cou, pour déterminer, respectivement, les données d’orientations de la centrale inertielle de tête et les données d’orientations de la centrale inertielle de cou.
[0024] Selon une possibilité avantageuse, l’unité centrale est agencée pour être portée par l’utilisateur.
[0025] Selon une autre possibilité, l’unité centrale est disposée à distance de l’utilisateur. Le dispositif comporte alors des moyens de communication des données de position générées par la centrale inertielle de tête — éventuellement des données de position générées par centrale inertielle de cou — à destination de l’unité centrale et des moyens de communication du signal audio généré par l’unité centrale à destination de l’unité d’écoute.
[0026] On comprend qu’il est aussi possible que le dispositif selon l’invention comporte deux, ou plus unités, centrale inertielle de tête, chacune étant destinée à être portée par un utilisateur et deux unités d’écoute, chacune étant destinée à être portée par l’un des utilisateurs, l’unité centrale étant configurée pour générer différents signaux audio à destination des différents utilisateurs.
[0027] L’unité de positionnement géographique peut par exemple être un module de réception GPS, un module GALILEO ou encore un module GLONASS.
[0028] [0029] [0030] [0031] [0032] [0033] [0034]
Selon un deuxième aspect de l’invention, il est proposé un procédé d’indication d’un cap à un utilisateur, comportant :
• une génération de données d’orientation par une centrale inertielle, dite de tête, agencée pour être portée par la tête de l’utilisateur et pour générer des données d’orientation relatives à la direction de la tête, • un placement, par une unité centrale de traitement, d’une source sonore virtuelle dans la direction du cap, • une réception, par l’unité centrale de traitement, des données d’orientation, et • une détermination, par l’unité centrale de traitement, d’un signal binaural résultant d’une émission sonore par la source virtuelle, reçu au niveau des oreilles de l’utilisateur et à partir des données d’orientation reçues, • une génération, par l’unité centrale de traitement, d’un signal audio, comportant le signal binaural déterminé, • une restitution, par une unité d’écoute destinée à être portée par la tête, du signal audio généré.
Selon un mode de réalisation, le procédé peut comporter une détermination par l’unité centrale d’un signal haptique à partir des données d’orientation et une génération dudit signal haptique à partir de moyens de vibration.
De préférence, le procédé peut comporter en outre une détermination par l’unité centrale d’une évolution de la position de l’utilisateur entre une première et une deuxième position, et une modification par l’unité centrale du signal binaural déterminé à partir de ladite évolution entre les deux positions, la génération par l’unité centrale de traitement comportant le signal binaural déterminé modifié.
Avantageusement, le signal binaural modifié peut être déterminé à partir d’une part du signal binaural déterminé dans la première position et d’autre part d’une amplification de l’évolution de la position de l’utilisateur entre les deux positions. Ainsi, l’utilisateur peut être rapidement réconforté ou contredit dans ses choix de déplacements par une amplification des variations de signaux binauraux entre deux déplacements.
Le procédé d’indication de cap peut comporter, préalablement à la génération de données d’orientation par la centrale inertielle, une étape de détermination du cap à indiquer à l’utilisateur, l’étape de détermination comportant l’une et/ou plusieurs, des étapes suivantes :
• orienter la tête de l’utilisateur en direction d’un cap, • calibrer la centrale inertielle pour déterminer un cap initial alors que la tête de l’utilisateur est orientée en direction du cap, • configurer l’unité centrale de traitement pour placer la source sonore virtuelle dans la direction du cap initial.
[0035] [0036] [0037] [0038] [0039] [0040] [0041] [0042] [0043] [0044]
Dans un mode de réalisation préféré du procédé d’indication de cap, l’unité de traitement peut en outre être configurée pour générer le son binaural à partir d’au moins un paramètre décrivant une caractéristique physique de la boîte crânienne et/ou de l’une et/ou deux des oreilles de l’utilisateur. On peut par exemple utiliser des fonctions de transfert HRTF (pour l’anglais Head Related Transfer Function).
Le procédé peut en outre mettre en œuvre une centrale inertielle, dite de cou, agencée pour être portée au niveau du cou de l’utilisateur et générer des données d’orientations.
Le procédé peut comporter en outre une génération de données d’orientation par la centrale inertielle de tête et une génération de données d’orientation par la centrale inertielle de cou, l’unité centrale de traitement étant en outre configurée pour :
• synchroniser la boussole de la centrale inertielle de tête et la boussole de la centrale inertielle de cou et déterminer un coefficient de rectification, • rectifier, à partir dudit coefficient de rectification, les données d’orientations générées par la centrale inertielle de tête et les données d’orientations générées par la centrale inertielle de cou, pour déterminer, respectivement, les données d’orientations de la centrale inertielle de tête et les données d’orientations de la centrale inertielle de cou.
La synchronisation peut commencer par une phase de calibration de la centrale inertielle de tête.
L'utilisateur peut se voire demander d’effectuer un mouvement particulier de tête, puis de rester immobile pendant quelques secondes. Le nord magnétique peut ainsi être trouvé (et stabilisé) par la centrale inertielle de tête.
Lorsque que le nord magnétique est stabilisé, la centrale inertielle de cou peut être synchronisée sur cette valeur. De cette façon, les deux centrales inertielles peuvent disposer du même nord de référence.
Au cours de l'utilisation, la centrale inertielle du cou peut devenir la centrale inertielle de référence. Lors d'une indication de direction donnée par la centrale inertielle de tête, celle-ci peut être corrigée en ajoutant/soustrayant la différence entre le nord indiqué par la centrale inertielle de cou, et le nord indiqué par la centrale inertielle de tête.
Avantageusement, le procédé d’indication de cap peut en outre comporter un ajout d’instructions vocales au signal audio par l’unité centrale.
Selon une possibilité, le procédé d’indication de cap peut comprendre une étape de nouvelle restitution par l’unité d’écoute des dernières instructions vocales et/ou du denier signal audio généré. L’étape de nouvelle restitution peut être déclenchée par appui d’un utilisateur sur une partie prédéterminée de l’unité d’écoute ou d’un dispositif fonctionnellement raccordé à l’unité d’écoute, par exemple un écran tactile d’un téléphone portable. C'est un mécanisme qui rend l'utilisateur décideur du moment auquel l'information lui est à nouveau donnée, ce qui tend ainsi à limiter la fatigue cognitive.
[0045] Selon encore un autre aspect de l’invention, il est proposé un produit programme d’ordinateur, téléchargeable depuis un réseau de communication et/ou stocké sur un support lisible par ordinateur et/ou exécutable par un microprocesseur, et chargeable dans une mémoire interne d’une unité de calcul, comportant des instructions de code de programme qui, lorsqu’elles sont exécutées par l’unité de calcul, mettent en œuvre les étapes du procédé selon le deuxième aspect de l’invention, ou l’un ou plusieurs de ses perfectionnements.
Brève description des dessins [0046] D’autres avantages et particularités de l’invention apparaîtront à la lecture de la description détaillée de mises en œuvre et de modes de réalisation nullement limitatifs, au regard de dessins annexés sur lesquels :
[0047] [fig.l]
La figure 1 représente schématiquement, un mode de réalisation d’un dispositif selon l’invention, [0048] [fig.2]
La figure 2 schématiquement un détail de deux étapes d’un mode de réalisation d’un procédé selon l’invention, [0049] [fig.3] schématiquement un traitement possible d’un signal binaural émis selon un mode de réalisation d’un procédé selon l’invention.
Description de mode de réalisation [0050] Les modes de réalisation décrits ci-après n’étant nullement limitatifs, on pourra notamment considérer des variantes de l’invention ne comprenant qu’une sélection de caractéristiques décrites, par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l’invention par rapport à l’état de la technique antérieure. Cette sélection comprend au moins une caractéristique, de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour conférer un avantage technique ou pour différencier l’invention par rapport à l’état de la technique antérieure.
[0051] Bien entendu l'invention n'est pas limitée au(x) mode(s) de mise en œuvre décrit(s) et on peut y apporter des variantes de réalisation sans sortir du cadre de l'invention tel que défini par les revendications.
[0052] Sur les figures, un élément apparaissant sur plusieurs figures conserve la même référence.
[0053] En référence aux figures 1 à 3, il est maintenant décrit en même temps un mode de réalisation d’un dispositif 1 selon l’invention et un procédé 100 d’indication d’un cap C à un utilisateur.
[0054] Le dispositif 1 comporte :
[0055] · une centrale inertielle 2, dite de tête, agencée pour être portée au niveau de la tête de l’utilisateur.
• une centrale inertielle 3, dite de cou, agencée pour être portée au niveau du cou de l’utilisateur, • une unité centrale de traitement 4, ici un microprocesseur d’un smartphone, portée par l’utilisateur, • une unité d’écoute 5, qui dans le mode de réalisation particulier comporte un amplificateur 6 et des écouteurs 7 à conduction osseuse.
[0056] Le procédé 100 comporte :
[0057] · une génération 102 de données d’orientation 8 relatives à la direction de la tête par la centrale inertielle 2 de tête, • une génération 104 de données d’orientation 9 par la centrale inertielle 3 de cou, • un placement 106, par l’unité centrale de traitement 4, d’une source sonore virtuelle 10 dans la direction du cap C, • une réception 108, par l’unité centrale de traitement 4, des données d’orientation 8, et • une réception 110, par l’unité centrale de traitement 4, des données d’orientation 9, et • une détermination 112, par ladite unité centrale de traitement 4, d’un signal binaural 11 résultant d’une émission sonore par la source virtuelle 10, reçu au niveau des oreilles de l’utilisateur et à partir desdites données d’orientation reçues 8 et 9, • une génération 114, par ladite unité centrale de traitement 4, d’un signal audio 12, comportant le signal binaural 11 déterminé, • une amplification 116, par l’amplificateur 6, du signal audio 12 généré, • une restitution 118, par les écouteurs 7, dudit signal audio amplifié.
[0058] Préalablement à la génération 102 de données d’orientation par la centrale inertielle
2, le procédé comporte une étape de détermination du cap C à indiquer à l’utilisateur comportant les étapes suivantes :
[0059] · orienter la tête de l’utilisateur en direction d’un cap, • calibrer la centrale inertielle 2 pour déterminer un cap initial alors que la tête de l’utilisateur est orientée en direction du cap, • configurer l’unité centrale de traitement 4 pour placer la source sonore virtuelle 10 dans la direction du cap initial.
[0060] Alternativement à, ou en complément de, la présence de la centrale inertielle 2, il est proposé l’étape de détermination du cap C à indiquer à l’utilisateur comportant les étapes suivantes :
[0061] · orienter la tête de l’utilisateur en direction d’un cap, • configurer l’unité centrale de traitement 4 pour placer la source sonore virtuelle 10 dans la direction du cap en direction de laquelle la tête de l’utilisateur est orientée.
[0062] Dans cette configuration, le dispositif 1 peut comporter en outre une caméra, calibrer la centrale inertielle 2 pour déterminer un cap initial alors que la tête de l’utilisateur est orientée en direction du cap, [0063] Dans le mode de réalisation du dispositif 1, l’unité de traitement 4 est en outre configurée pour déterminer un signal haptique à partir du cap et des données d’orientation. Le dispositif 1 comporte en outre des moyens de vibration (non représentés) et configurés pour générer ledit signal haptique.
[0064] Par exemple, il peut exister un vibrateur porté sur le côté gauche de l’utilisateur et un vibrateur porté sur le côté droit de l’utilisateur.
[0065] Lorsque le cap est situé plus à gauche que les données d’orientation, l’unité centrale peut être configurée pour mettre en vibration le vibrateur disposé du côté gauche de l’utilisateur.
[0066] Lorsque le cap est situé plus à droite que les données d’orientation, l’unité centrale peut être configurée pour mettre en vibration le vibrateur disposé du côté droit de l’utilisateur.
[0067] Dans le mode de réalisation du dispositif 1, l’unité de traitement 4 est en outre configurée pour générer le son binaural 11 à partir d’au moins un paramètre décrivant une caractéristique physique de la boîte crânienne et/ou de l’une et/ou deux des oreilles de l’utilisateur.
[0068] En référence à la figure 2, il est maintenant décrit plus précisément les deux sousétapes 102 et 104 de génération de données d’orientations 8 et 9 par la centrale inertielle 2 de tête et la centrale inertielle 3 de cou.
[0069] Les sous-étapes 102 et 104 de génération des données d’orientations 8 et 9 comprennent :
[0070] · une génération 102’ de données d’orientation 8’ par la centrale inertielle 2 de tête et • une génération 104’ de données d’orientation 9’ par la centrale inertielle de cou, • une synchronisation 120 de la boussole de la centrale inertielle 2 de tête et de la boussole de la centrale inertielle 3 de cou et une détermination d’un co efficient de rectification 13, • une rectification 140, à partir coefficient de rectification 13, des données d’orientations 8’ générées par la centrale inertielle 2 de tête et des données d’orientations 9’ générées par la centrale inertielle 3 de cou, pour déterminer, respectivement, les données d’orientations 8 de la centrale inertielle 2 de tête et les données d’orientations 9 de la centrale inertielle 3 de cou.
[0071] Dans le mode de réalisation du dispositif 1, l’unité centrale 4 est en outre configurée pour déterminer des instructions vocales à partir des données d’orientation reçues 8 et du cap C, et pour ajouter lesdites instructions vocales déterminées au signal audio 12.
[0072] Plus particulièrement en référence à la Figure 3, il est maintenant décrit un son binaural pouvant être généré par l’unité centrale 4.
[0073] Dans une partie supérieure, la figure 3 illustre une évolution de la position angulaire de la tête de l’utilisateur, selon 4 instants temporels, dans le temps qui s’écoule de gauche à droite de la figure.
[0074] A un instant temporel T0, l’utilisateur regarde en face. A un instant temporel Tl, l’utilisateur regarde sur sa droite. A un instant temporel T2 l’utilisateur regarde en face. A un instant temporel T3 l’utilisateur regarde sur sa gauche.
[0075] La position de l’utilisateur n’évolue pas dans le plan, mais uniquement angulairement autour de l’axe vertical y.
[0076] Dans une partie médiane, la figure 3 indique, selon une convention angulaire, la position angulaire de la tête de l’utilisateur. Selon cette convention angulaire, la tête de l’utilisateur présente un axe de rotation égal à 0 lorsque l’utilisateur regarde tout droit, c’est-à-dire vers le lecteur de la présente demande. Selon cette convention, l’angle de rotation de la tête est compté positivement lorsque la tête de l’utilisateur est orientée vers la gauche de l’utilisateur, c’est-à-dire vers la droite de la figure. Toujours selon cette convention, l’angle de rotation de la tête est compté négativement lorsque la tête de l’utilisateur est orientée vers la droite de l’utilisateur, c’est-à-dire vers la gauche de la figure.
[0077] On observe alors le graphe médian de la partie médiane de la figure, qui illustre l’évolution longitudinale de l’orientation de la tête de l’utilisateur aux 4 instants temporels : 0 degré à l’instant T0, +45 degrés à l’instant Tl, 0 degré à l’instant T2, -45 degrés à l’instant T3.
[0078] Il est également représenté, sur la partie supérieure de la figure 3, une cible placée dans la direction du cap C, dont la position reste fixe par rapport au temps, et à même distance de l’utilisateur.
[0079] La partie inférieure de la figure 3 présente l’évolution longitudinale du signal audio comportant le signal binaural déterminé par l’unité de traitement.
[0080] Le procédé selon l’invention qui est illustré sur la figure 3 comporte une étape de traitement de signal audio généré par l’étape de génération 114.
[0081] L’étape de traitement comporte une modulation de l’amplitude du signal audio généré à partir d’un sens instantané de rotation autour de l’axe vertical déterminé par la centrale inertielle de tête.
[0082] Selon le procédé illustré, l’amplitude du signal sur le canal droit diminue lorsque l’angle entre la direction de la tête et la direction de la cible diminue. Réciproquement, l’amplitude du signal sur le canal côté gauche augmente lorsque l’angle entre la direction de la tête et la direction de la cible diminue. Dans l’exemple illustré, l’amplitude du signal du canal côté droit passe de 75 % à 50 % entre les instants T0 et Tl. Dans l’exemple illustré, l’amplitude du signal du canal côté gauche passe de 25 % à 50 % entre les instants T0 et Tl. On observe une amplitude égale dans les deux oreilles lorsque la tête est dans la direction de la cible.
[0083] En outre, l’amplitude du signal sur le canal côté droit augmente lorsque l’angle entre la direction de la tête et la direction de la cible augmente. Réciproquement, l’amplitude du signal sur le canal côté gauche diminue lorsque l’angle entre la direction de la tête et la direction de la cible augmente. Dans l’exemple illustré, l’amplitude du signal du canal côté droit passe de 50 % à 75 % entre les instants Tl et T2, puis de 75 % à 95 % entre les instants T2 et T3. Dans l’exemple illustré, l’amplitude du signal du canal côté gauche passe de 50 % à 25 % entre les instants Tl et T2, puis de 25 % à 5 % entre les instants T2 et T3. La différence d’amplitude maximale est donc d’autant plus élevée que la tête de l’utilisateur s’éloigne de la cible.
[0084] D’autres choix auraient été possibles.
[0085] La convention permet à l’utilisateur de déterminer si l’évolution de l’orientation de sa tête s’approche ou s’éloigne de la direction de la cible. C’est donc un procédé d’indication dynamique du cap à suivre.
[0086] Dans le mode de réalisation du dispositif 1, l’unité centrale 4 est en outre configurée pour déterminer des instructions vocales à partir des données d’orientation reçues 8 et du cap C, et pour ajouter lesdites instructions vocales déterminées au signal audio 12.
[0087] Par exemple, la cible étant à droite du plan médian de l’utilisateur, à l’étape T0 de la figure 3 dans laquelle l’utilisateur regarde en face, une instruction vocale est « à droite ». À l’étape T0 de la figure 3 dans laquelle l’utilisateur regarde dans la direction de la cible, une instruction vocale est «tout droit». À l’étape T2 dans laquelle l’utilisateur regarde en face, une instruction vocale est « à droite ». À l’étape T3 dans laquelle l’utilisateur regarde sur sa gauche, une instruction vocale est « à droite ».
[0088] Avantageusement, le procédé selon l’invention peut comprendre une étape de détermination de la vitesse d’avancement de l’utilisateur à partir de données provenant par la centrale inertielle de tête et/ou de cou.
[0089] Avantageusement, le cap peut être indiqué de manière répétitive à l’utilisateur, par exemple en augmentant la fréquence de répétition lorsque l’utilisateur s’éloigne du cap.
[0090] Alternativement, ou en combinaison, le cap peut aussi être indiqué de manière répétitive en tenant compte de la vitesse d’avancement de l’utilisateur, par exemple en augmentant la fréquence de répétition avec l’augmentation de la vitesse d’avancement.
[0091] Par ailleurs, le procédé peut comporter une étape de détermination d’une évolution de la position de l’utilisateur, et une modification du signal binaural déterminé en fonction de ladite évolution, la génération par l’unité centrale de traitement comportant le signal binaural déterminé modifié.
[0092] Lorsque l’utilisateur se déplace entre une première et une deuxième position, il existe une différence entre un signal binaural SP1 résultant d’une émission sonore par ladite source virtuelle, reçu au niveau des oreilles de l’utilisateur et à partir desdites données d’orientation reçues au niveau de la première position, et un signal binaural SP2 résultant d’une émission sonore par ladite source virtuelle, reçu au niveau des oreilles de l’utilisateur et à partir desdites données d’orientation reçues au niveau de la deuxième position.
[0093] Toutefois, on comprend que si l’utilisateur ne se déplace que d’un mètre alors que le cap indiqué est virtuellement placé à 1 km de l’utilisateur, la différence entre le signal binaural SP1 et SP2 ne sera que très faible, et ne sera peut-être pas perceptible par tout utilisateur, surtout un utilisateur malentendant.
[0094] Pour améliorer le fonctionnement du dispositif, il est proposé de déformer le signal SP2 en fonction de l’évolution de la position de l’utilisateur.
[0095] Par exemple, si l’utilisateur se déplace d’un mètre selon la bonne direction, le signal SP2 sera modifié de sorte qu’il soit celui qui résulterait d’un déplacement correct de 10 mètres dans la bonne direction. Ceci peut être directement déterminé par l’unité centrale.
[0096] A contrario, si l’utilisateur se déplace d’un mètre selon la mauvaise direction, le signal SP2 sera modifié de sorte qu’il soit celui qui résulterait d’un déplacement incorrect de 10 mètres dans une mauvaise direction. Ceci peut être directement déterminé par l’unité centrale.
[0097] Ainsi, l’utilisateur peut être rapidement réconforté ou contredit dans ses choix de déplacements par une amplification des variations de signaux binauraux entre deux déplacements.
[0098] Bien sûr, l’invention n’est pas limitée aux exemples qui viennent d’être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l’invention. De plus, les différentes caractéristiques, formes, variantes et modes de réalisation de l’invention peuvent être associés les uns avec les autres selon diverses combinaisons dans la mesure où ils ne sont pas incompatibles ou exclusifs les uns des autres.
Claims (1)
- Dispositif (1) convenant à être porté par un utilisateur et agencé pour indiquer un cap (C) audit utilisateur, comportant :- une centrale inertielle (2), dite de tête, agencée pour être portée par la tête dudit utilisateur et pour générer des données d’orientation (8) relatives à la direction de ladite tête ;- une unité centrale de traitement (4) configurée pour :- placer une source sonore virtuelle (10) dans la direction dudit cap,- recevoir lesdites données d’orientation,- déterminer un signal binaural (11) résultant d’une émission sonore par ladite source virtuelle, reçu au niveau des oreilles de l’utilisateur et à partir desdites données d’orientation reçues,- générer un signal audio (12), comportant le signal binaural déterminé,- une unité d’écoute (5) agencée pour restituer le signal audio généré et destinée à être portée au moins en partie par ladite tête.Dispositif selon la revendication précédente, dans lequel l’unité centrale est en outre configurée pour déterminer un signal haptique à partir du cap et des données d’orientation, le dispositif comportant en outre des moyens de vibration configurés pour générer ledit signal haptique. Dispositif selon l’une quelconque des revendications précédentes, dans lequel l’unité centrale est en outre configurée pour déterminer une évolution de la position de l’utilisateur entre une première et une deuxième position, et pour déterminer un signal binaural modifié à partir de ladite évolution entre les deux positions, l’unité centrale de traitement étant en outre configurée pour générer le signal audio à partir du signal binaural déterminé modifié.Dispositif selon la revendication précédente, dans lequel l’unité centrale est en outre configurée pour déterminer le signal binaural modifié à partir d’une part du signal binaural déterminé dans la première position et d’autre part d’une amplification de l’évolution de la position de l’utilisateur entre les deux positions.Dispositif selon la revendication précédente, dans lequel l’unité centrale (4) est en outre configurée pour déterminer des instructions vocales à partir des données d’orientation reçues (8) et du cap (C), et pour ajouter lesdites instructions vocales déterminées au signal audio (12).Dispositif selon l’une quelconque des revendications précédentes, dans lequel l’unité d’écoute (5) comporte des écouteurs (7) à conduction [Revendication 7] [Revendication 8] [Revendication 9] [Revendication 10] osseuse.Dispositif selon l’une quelconque des revendications précédentes de procédé, comportant en outre centrale inertielle (3), dite de cou, agencée pour être portée au niveau du cou de l’utilisateur et générer des données d’orientations (9), la centrale inertielle (2) de tête étant en outre configurée pour générer des données d’orientation (8’) et la centrale inertielle de cou étant en outre configurée pour générer des données d’orientation (9’), ladite unité centrale de traitement (4) étant en outre configurée pour :- synchroniser la boussole de la centrale inertielle de tête et la boussole de la centrale inertielle de cou et déterminer un coefficient de rectification (13),- rectifier, à partir dudit coefficient de rectification, les données d’orientations générées par la centrale inertielle de tête et les données d’orientations générées par la centrale inertielle de cou, pour déterminer, respectivement, les données d’orientations (8) de la centrale inertielle de tête et les données d’orientations (9) de la centrale inertielle de cou. Dispositif selon l’une quelconque des revendications précédentes, dans lequel l’unité centrale de traitement (4) est agencée pour être portée par l’utilisateur.Procédé (100) d’indication d’un cap (C) à un utilisateur, comportant :- une génération (102) de données d’orientation (8) par une centrale inertielle (2), dite de tête, agencée pour être portée par la tête de l’utilisateur et pour générer des données d’orientation relatives à la direction de ladite tête,- un placement (106), par une unité centrale de traitement (4), d’une source sonore virtuelle (10) dans la direction dudit cap,- une réception (108), par ladite unité centrale de traitement, desdites données d’orientation,- une détermination (112), par ladite unité centrale de traitement, d’un signal binaural (11) résultant d’une émission sonore par ladite source virtuelle, reçu au niveau des oreilles de l’utilisateur et à partir desdites données d’orientation reçues,- une génération (114), par ladite unité centrale de traitement, d’un signal audio (12), comportant le signal binaural déterminé,- une restitution (118), par une unité d’écoute (5) destinée à être portée par ladite tête, dudit signal audio généré.Procédé selon la revendication précédente, comportant en outre une dé15 [Revendication 11] [Revendication 12] [Revendication 13] [Revendication 14] [Revendication 15] termination par l’unité centrale d’un signal haptique à partir du cap et des données d’orientation et une génération dudit signal haptique à partir de moyens de vibration.Procédé selon l’une quelconque des revendications précédentes de procédé, comportant en outre une détermination par l’unité centrale d’une évolution de la position de l’utilisateur entre une première et une deuxième position, et une modification par l’unité centrale du signal binaural déterminé à partir de ladite évolution entre les deux positions, la génération par l’unité centrale de traitement comportant le signal binaural déterminé modifié.Procédé selon la revendication précédente, dans laquelle le signal binaural modifié est déterminé à partir d’une part du signal binaural déterminé dans la première position et d’autre part d’une amplification de l’évolution de la position de l’utilisateur entre les deux positions. Procédé selon l’une quelconque des revendications précédentes de procédé, comportant, préalablement à la génération (102) de données d’orientation (8) par la centrale inertielle (2), une étape de détermination du cap à indiquer à l’utilisateur, ladite étape de détermination comportant les étapes suivantes :- orienter la tête de l’utilisateur en direction d’un cap,- calibrer ladite centrale inertielle (2) pour déterminer un cap initial alors que la tête de l’utilisateur est orientée en direction dudit cap,- configurer l’unité centrale de traitement pour placer la source sonore virtuelle dans la direction dudit cap initial.Procédé selon l’une quelconque des revendications précédentes de procédé, dans lequel l’unité de traitement (4) est en outre configurée pour générer le son binaural (11) à partir d’au moins un paramètre décrivant une caractéristique physique de la boîte crânienne et/ou de l’une et/ou deux des oreilles de l’utilisateur.Procédé selon l’une quelconque des revendications précédentes de procédé, mettant en outre en œuvre une centrale inertielle (3), dite de cou, agencée pour être portée au niveau du cou de l’utilisateur et générer (104) des données d’orientations (9), ledit procédé comportant en outre une génération (102’) de données d’orientation (8’) par la centrale inertielle (2) de tête et une génération (104’) de données d’orientation (9’) par la centrale inertielle de cou, ladite unité centrale de traitement (4) étant en outre configurée pour :- synchroniser (120) la boussole de la centrale inertielle de tête et la [Revendication 16] [Revendication 17] boussole de la centrale inertielle de cou et déterminer un coefficient de rectification (13),- rectifier (140), à partir dudit coefficient de rectification, les données d’orientations générées par la centrale inertielle de tête et les données d’orientations générées par la centrale inertielle de cou, pour déterminer, respectivement, les données d’orientations (8) de la centrale inertielle de tête et les données d’orientations (9) de la centrale inertielle de cou. Procédé selon l’une quelconque des revendications précédentes de procédé, comportant en outre un ajout, par l’unité centrale (4), d’instructions vocales au signal audio.Produit programme d’ordinateur, téléchargeable depuis un réseau de communication et/ou stocké sur un support lisible par ordinateur et/ou exécutable par un microprocesseur, et chargeable dans une mémoire interne d’une unité de calcul, caractérisé en ce qu’il comporte des instructions de code de programme qui, lorsqu’elles sont exécutées par l’unité de calcul, mettent en œuvre les étapes du procédé selon l’une quelconque des revendications précédentes de procédé.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/FR2019/050043 WO2019138187A1 (fr) | 2018-01-12 | 2019-01-10 | Procede et dispositif ameliores pour indiquer un cap c a un utilisateur |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1850272 | 2018-01-12 | ||
FR1850272A FR3076899B1 (fr) | 2018-01-12 | 2018-01-12 | Procede et dispositif pour indiquer un cap c a un utilisateur |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3076909A1 true FR3076909A1 (fr) | 2019-07-19 |
Family
ID=61521758
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1850272A Expired - Fee Related FR3076899B1 (fr) | 2018-01-12 | 2018-01-12 | Procede et dispositif pour indiquer un cap c a un utilisateur |
FR1872682A Pending FR3076909A1 (fr) | 2018-01-12 | 2018-12-11 | Procédé et dispositif améliorés pour indiquer un cap C à un utilisateur |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1850272A Expired - Fee Related FR3076899B1 (fr) | 2018-01-12 | 2018-01-12 | Procede et dispositif pour indiquer un cap c a un utilisateur |
Country Status (1)
Country | Link |
---|---|
FR (2) | FR3076899B1 (fr) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080008342A1 (en) * | 2006-07-07 | 2008-01-10 | Harris Corporation | Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system |
US9464912B1 (en) * | 2015-05-06 | 2016-10-11 | Google Inc. | Binaural navigation cues |
WO2017202081A1 (fr) * | 2016-05-23 | 2017-11-30 | 京东方科技集团股份有限公司 | Appareil de navigation et procédé |
-
2018
- 2018-01-12 FR FR1850272A patent/FR3076899B1/fr not_active Expired - Fee Related
- 2018-12-11 FR FR1872682A patent/FR3076909A1/fr active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080008342A1 (en) * | 2006-07-07 | 2008-01-10 | Harris Corporation | Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system |
US9464912B1 (en) * | 2015-05-06 | 2016-10-11 | Google Inc. | Binaural navigation cues |
WO2017202081A1 (fr) * | 2016-05-23 | 2017-11-30 | 京东方科技集团股份有限公司 | Appareil de navigation et procédé |
Non-Patent Citations (1)
Title |
---|
HOFF B ET AL: "Autocalibration of an electronic compass in an outdoor augmented reality system", AUGMENTED REALITY, 2000. (ISAR 2000). PROCEEDINGS. IEEE AND ACM INTERN ATIONAL SYMPOSIUM ON MUNICH, GERMANY 5-6 OCT. 2000, PISCATAWAY, NJ, USA,IEEE, US, 5 October 2000 (2000-10-05), pages 159 - 164, XP010520325, ISBN: 978-0-7695-0846-7, DOI: 10.1109/ISAR.2000.880939 * |
Also Published As
Publication number | Publication date |
---|---|
FR3076899A1 (fr) | 2019-07-19 |
FR3076899B1 (fr) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20140114560A1 (en) | Hearing device with a distance measurement unit | |
WO2017049796A1 (fr) | Procédé et appareil de navigation, procédé et appareil de génération de vidéo de navigation | |
KR20200040212A (ko) | 웨어러블 멀티미디어 디바이스 및 애플리케이션 에코 시스템을 갖는 클라우드 컴퓨팅 플랫폼 | |
US20140025287A1 (en) | Hearing device providing spoken information on selected points of interest | |
US20140107916A1 (en) | Navigation system with a hearing device | |
EP2374022B1 (fr) | Dispositif d'hybridation en boucle fermee integre par construction | |
CA2255118C (fr) | Appareil individuel d'orientation | |
US12069469B2 (en) | Head dimension estimation for spatial audio applications | |
JP2014137752A (ja) | 視覚障害者用の歩行誘導システム、視覚障害者用の歩行誘導方法、サーバ及び該サーバで実行することが可能なコンピュータプログラム | |
US20230007431A1 (en) | Location based audio signal message processing | |
US8886451B2 (en) | Hearing device providing spoken information on the surroundings | |
FR3002032A1 (fr) | Systeme et procede d'aide a la navigation d'un aeronef | |
FR3043486B1 (fr) | Procede et dispositif de fourniture de donnees pour un atterissage automatique assiste par navigation par satellite sur un aeronef | |
FR3076909A1 (fr) | Procédé et dispositif améliorés pour indiquer un cap C à un utilisateur | |
WO2019138187A1 (fr) | Procede et dispositif ameliores pour indiquer un cap c a un utilisateur | |
WO2019138186A1 (fr) | Dispositif et procede ameliores de communication d'informations sonores a un utilisateur en realite augmentee | |
FR3076927A1 (fr) | Dispositif et procédé améliorés de communication d’informations sonores à un utilisateur en réalité augmentée | |
FR3032574A1 (fr) | Procede de communication d'un message vocal comprenant une etape de transcription d'une portion determinee d'un signal audio correspondant audit message vocal et dispositif pour sa mise en oeuvre | |
FR2463419A1 (fr) | Radio-goniometre automatique de bord | |
FR2846431A1 (fr) | Dispositif de navigation par convergence capable de fournir a bon escient des commentaires audio de guidage vers une destination sans avoir a consulter une carte. | |
FR3038074A1 (fr) | Procede et systeme de guidage d'un individu | |
EP2251643A1 (fr) | Carte à microcircuit pour entité électronique | |
EP4416462A1 (fr) | Système de guidage d'un utilisateur par un signal sonore, et procédé de guidage correspondant | |
CH720256A2 (fr) | Système et procédé pour la détermination d'un parcours d'un objet ou d'un joueur en mouvement sur un terrain de sport | |
WO2015150711A1 (fr) | Procédé de transmission d'informations via un canal vidéo entre deux terminaux |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLSC | Publication of the preliminary search report |
Effective date: 20190719 |
|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLFP | Fee payment |
Year of fee payment: 3 |