FR3094859A1 - Système d’aide auditive - Google Patents

Système d’aide auditive Download PDF

Info

Publication number
FR3094859A1
FR3094859A1 FR1903700A FR1903700A FR3094859A1 FR 3094859 A1 FR3094859 A1 FR 3094859A1 FR 1903700 A FR1903700 A FR 1903700A FR 1903700 A FR1903700 A FR 1903700A FR 3094859 A1 FR3094859 A1 FR 3094859A1
Authority
FR
France
Prior art keywords
signal
sound
user
sound signal
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1903700A
Other languages
English (en)
Other versions
FR3094859B1 (fr
Inventor
Thierrry GAILLET
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1903700A priority Critical patent/FR3094859B1/fr
Publication of FR3094859A1 publication Critical patent/FR3094859A1/fr
Application granted granted Critical
Publication of FR3094859B1 publication Critical patent/FR3094859B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/55Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
    • H04R25/552Binaural
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2225/00Details of deaf aids covered by H04R25/00, not provided for in any of its subgroups
    • H04R2225/41Detection or adaptation of hearing aid parameters or programs to listening situation, e.g. pub, forest
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/07Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/35Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using translation techniques
    • H04R25/353Frequency, e.g. frequency shift or compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Telephone Function (AREA)

Abstract

Un procédé de traitement de signal sonore est proposé, qui comprend : obtenir au moins un signal sonore reçu sur un des deux côtés de la tête d’un utilisateur; identifier dans le signal sonore au moins une composante de signal correspondant à une classe parmi une pluralité de classes sonores ; générer un premier signal de reproduction par traitement du signal sonore en fonction de la classe identifiée ; et émettre le premier signal de reproduction à destination de l’utilisateur.   Figure de l’abrégé : Fig. 1

Description

Système d’aide auditive
Domaine et contexte de l’invention
L’invention se rapporte à un procédé de traitement de signaux sonores et d’un dispositif pour la mise en œuvre du procédé.
L’absence d’audition ou la perte auditive unilatérale touchent chaque année de nombreuses personnes dans le monde, et cette pathologie tend à croitre d’année en d’année. En effet, à la différence de la surdité congénitale, la surdité dite acquise présente au sein d’une population vieillissante toujours plus importante touche également de plus en plus les jeunes populations, du fait de leur mode de vie. La perte auditive d’une ou des deux oreilles peut également survenir au cours d’accidents ou d’infections aux oreilles.
Les solutions actuelles pour permettre aux personnes souffrantes de perte ou baisse d’audition à une ou deux oreilles consistent généralement à porter un appareil auditif permettant d’amplifier le son destiné à l’oreille déficiente. En revanche, dans le cas d’une surdité totale ou quasi-totale d’une seule oreille (cophose unilatérale), plus aucun appareil auditif conventionnel n’est capable de corriger le problème.
Il existe actuellement deux solutions pour améliorer le confort des personnes atteintes de cophose unilatérale : les technologies dites de CROS (Contra Lateral Routing of Signal) ou BICROS, et la technologie dite de prothèse auditive à ancrage osseux (« Bone Anchorage Hearing Aid », « BAHA »).
Dans le cas de la technologie CROS, un premier appareil externe placé sur l’oreille déficiente permet de capter les signaux sonores arrivant sur l’oreille déficiente, et de les retransmettre par ondes radios à un deuxième appareil, également externe, placé sur la bonne oreille.
Lorsque la bonne oreille présente en plus une perte auditive, le deuxième appareil amplifie les signaux sonores pour compenser cette perte. Cette solution est appelée BICROS.
Dans le cas de l’utilisation de la technologie BAHA, l’os agit comme une passerelle permettant au son d’atteindre l’oreille interne, c’est-à-dire sans passer par le canal auditif ni l’oreille moyenne. Ce système se compose de deux parties : une partie implantée en métal à travers la peau, et un appareil auditif venant se clipper dessus. L’appareil auditif vient capter par un microphone les signaux sonores qui sont ensuite transformés en vibration puis transmis au travers de la partie métallique et par conduction osseuse vers l’oreille interne.
Les solutions exposées précédemment présentent de nombreux inconvénients.
En effet, les appareils externes de type CROS ou BICROS ne font qu’amplifier et superposer des signaux sonores amenant de nombreux problèmes de réglages afin d’éviter les phénomènes d’échos.
D’autre part, l’utilisation d’un implant à conduction osseuse nécessite une opération chirurgicale délicate et coûteuse. Cette opération peut être suivie de nouvelles interventions permettant d’ajuster ou corriger le dispositif.
Un objet de la présente invention est de remédier au moins partiellement aux inconvénients précités.
Selon un premier aspect, il est proposé un procédé de traitement de signal sonore, comprenant : obtenir au moins un signal sonore reçu sur un des deux côtés de la tête d’un utilisateur; identifier dans le signal sonore au moins une composante de signal correspondant à une classe parmi une pluralité de classes sonores ; générer un premier signal de reproduction par traitement du signal sonore en fonction de la classe identifiée ; et émettre le premier signal de reproduction à destination de l’utilisateur.
Ainsi, de manière avantageuse, il est possible à partir d’un signal sonore reçu sur une oreille déficiente d’un utilisateur de le contextualiser et de le traiter en fonction d’un contexte. Cette contextualisation permet d’enrichir le signal sonore reçu d’informations supplémentaires, et ainsi augmenter la capacité d’appréhension et d’interprétation de l’environnement extérieur pour un utilisateur.
Le procédé proposé permet ainsi d’apporter une réponse aux problèmes de fond engendrés par une mauvaise audition unilatérale, problèmes auxquels les technologies de l’art antérieur ne répondent pas. En effet, un dispositif configuré pour la mise en œuvre du procédé proposé peut être avantageusement configuré pour détecter la localisation des signaux sonores ou pour suivre correctement des conversations émanant du côté de l’oreille déficiente. Un tel dispositif peut en outre être configuré pour identifier un signal sonore correspondant à un danger qui se déroulerait du côté de l’oreille déficiente, sans pour autant présenter une grande sensibilité aux signaux sonores inutiles, comme le bruit de fond.
Selon un autre aspect, il est proposé un procédé de traitement de signal sonore, comprenant : obtenir au moins un signal sonore reçu sur un des deux côtés de la tête d’un utilisateur; identifier dans le signal sonore au moins une composante de signal correspondant à une classe parmi une pluralité de classes prédéterminées ; générer un premier signal de reproduction par traitement du signal sonore en fonction de la classe identifiée ; et émettre le premier signal de reproduction à destination de l’utilisateur.
Selon un ou plusieurs modes de réalisation du procédé proposé, le traitement du signal sonore peut comprendre au moins une opération de filtrage, le premier signal de reproduction comprenant le signal sonore filtré.
Ainsi de manière avantageuse, le signal sonore peut être amélioré et ciblé pour un certain contexte permettant à l’utilisateur de se focaliser sur ce contexte.
En outre, selon un ou plusieurs modes de réalisation du procédé proposé, le traitement du signal sonore peut comprendre au moins une opération d’amplification ou de réduction d’amplitude sonore, le premier signal de reproduction comprenant le signal sonore respectivement amplifié ou réduit.
Ainsi, de manière avantageuse, il est possible d’obtenir un premier signal de reproduction adapté et compréhensible par l’utilisateur, sur la base de l’identification dans le signal sonore d’une composante de signal reconnue comme correspondant à une classe donnée, comme par exemple une classe de signaux d’alerte, auquel cas le signal sonore pourra être amplifié afin d’alerter l’utilisateur. A l’inverse, par exemple dans le cas d’un utilisateur travaillant en milieu bruyant, sur la base de l’identification dans le signal sonore d’une composante de signal reconnue comme correspondant à une classe donnée, comme par exemple une classe de signaux de bruit de fond, l’amplitude du signal sonore pourra être réduite afin de ne présenter à l’utilisateur, par le biais du signal de reproduction, qu’un bruit de fond réduit.
Selon un ou plusieurs modes de réalisation du procédé proposé, les classes de la pluralité de classes sonores peuvent comprendre l’une au moins parmi une classe d’alerte, une classe de conversation, une classe de parole ciblée et une classe de signature sonore de véhicule.
Ainsi, de manière avantageuse, un dispositif configuré pour la mise en œuvre du procédé proposé peut être configuré pour être adapté à une multitude de situations et de cas d’usage (cadre privé au domicile, au restaurant, dans la rue, cadre professionnel dans un bureau, sur un chantier, dans un véhicule, etc.). Le dispositif proposé peut être avantageusement préconfiguré avec des classes sonores correspondant à un contexte souhaité par l’utilisateur, et/ou configuré pour effectuer des routines d’apprentissage permettant de créer et/ou d’enrichir des classes sonores, en fonction des activités de l’utilisateur et/ou des réactions de l’utilisateur.
En outre, selon un ou plusieurs modes de réalisation du procédé proposé, le premier signal de reproduction peut comprendre le signal sonore émis vers au moins une oreille de l’utilisateur. Dans un ou plusieurs modes de réalisation, le premier signal de reproduction peut comprendre un signal d’information superposé au signal sonore.
Ainsi, de manière avantageuse, l’utilisateur peut obtenir le signal sonore, éventuellement traité (par exemple pour l’atténuer ou l’amplifier), et éventuellement enrichi d’informations complémentaires, telles que, par exemple, des alarmes vocales (par exemple de type « attention à gauche » ou « attention à droite »), ou d’autres types (par exemple visuelles et/ou haptiques).
Selon un ou plusieurs modes de réalisation, le procédé proposé peut comprendre en outre : obtenir un signal de réponse représentant une réponse de l’utilisateur au premier signal de reproduction, générer un deuxième signal de reproduction sur la base du signal de réponse, et émettre le deuxième signal de reproduction à destination de l’utilisateur.
Ainsi, avantageusement, le procédé proposé prévoit dans certains modes de réalisation d’utiliser des réactions (ou des absences de réaction) de l’utilisateur au premier signal de reproduction qui lui a été présenté, pour enrichir l’information présentée à l’utilisateur par un deuxième signal de reproduction. Par exemple, il est possible d’alimenter l’apprentissage d’un réseau de neurones à partir d’un signal de réponse représentant une réponse de l’utilisateur au premier signal de reproduction pour enrichir et affiner une contextualisation donnée.
Selon un mode de réalisation, l’émission du premier signal de reproduction peut être précédée de l’émission d’un préfixe sonore vers l’utilisateur, afin par exemple de mieux attirer et obtenir préalablement son attention.
Selon un ou plusieurs modes de réalisation du procédé proposé, le traitement du signal peut comprendre une opération de transposition en fréquence d’une première gamme de fréquence du signal sonore vers une deuxième gamme de fréquence, le premier signal de reproduction comprenant le signal sonore transposé dans la deuxième gamme de fréquences.
L’utilisation d’une opération de transposition en fréquence du signal sonore permet d’apporter à un utilisateur souffrant d’une déficience auditive sur une gamme de fréquences un signal de reproduction, correspondant à un signal sonore se trouvant, au moins partiellement, dans la gamme de fréquences déficiente pour l’utilisateur, se trouvant dans une gamme de fréquences dans laquelle l’utilisateur ne souffre pas ou souffre moins de déficience auditive. Ainsi, avantageusement, il est possible d’utiliser une gamme de fréquence qui serait encore perceptible par l’oreille déficiente, et donc améliorer la contextualisation et la retransmission des informations à l’utilisateur.
Selon un autre aspect, il est proposé un dispositif qui peut comprendre un capteur acoustique, un haut-parleur, un émetteur et un récepteur de communication radiofréquences, une mémoire et un processeur configuré pour piloter le capteur acoustique, le haut-parleur, l’émetteur et le récepteur de communication radiofréquences et la mémoire pour la mise en œuvre d’un procédé selon l’un des modes de réalisation proposés dans la présente description.
Selon un autre aspect, il est proposé un dispositif comprenant un processeur et une mémoire couplée de manière opérationnelle au processeur, le dispositif étant configuré pour la mise en œuvre d’un procédé selon l’un des modes de réalisation proposés dans la présente description.
Dans un ou plusieurs modes de réalisation, le dispositif proposé comprend en outre un capteur d’accélération de mouvement.
Dans un ou plusieurs modes de réalisation, le dispositif proposé comprend en outre un module de géolocalisation (par exemple un système GPS), un capteur de luminosité, et un capteur de proximité.
Dans un ou plusieurs modes de réalisation, le dispositif proposé comprend en outre un mécanisme de vibration.
Selon un autre aspect, il est proposé un système comprenant au moins un dispositif auditif selon l’un des modes de réalisation proposés dans la présente description.
Un autre aspect concerne un programme d’ordinateur, chargeable dans une mémoire associée à un processeur, et comprenant des portions de code pour la mise en œuvre d’un procédé tel que proposé dans la présente description lors de l’exécution dudit programme par le processeur.
Un autre aspect concerne un ensemble de données représentant, par exemple par voie de compression ou d’encodage, un programme d’ordinateur tel que proposé dans la présente description.
Un autre aspect concerne un support de stockage non-transitoire d’un programme exécutable par ordinateur, comprenant un ensemble de données représentant un ou plusieurs programmes, lesdits un ou plusieurs programmes comprenant des instructions pour, lors de l’exécution desdits un ou plusieurs programmes par un ordinateur comprenant un processeur couplé de manière opérationnelle à une mémoire et à une interface entrées/sorties de communication de données, conduire l’ordinateur à gérer un nœud de communication de données selon un procédé de gestion d’un nœud de communication de données selon l’un des modes de réalisation proposés dans la présente description.
D’autres caractéristiques, détails et avantages de l’invention apparaîtront à la lecture de la description détaillée ci-après, et à l’analyse des dessins annexés, sur lesquels :
Fig. 1
présente un diagramme illustrant le procédé selon un mode de réalisation.
Fig. 2
illustre un exemple de système auditif selon un mode de réalisation.
Fig. 3a
présente un diagramme illustrant le procédé selon un ou plusieurs modes de réalisation.
Fig. 3b
présente un diagramme illustrant le procédé selon un ou plusieurs modes de réalisation.
Fig. 4
présente un schéma illustrant l’architecture d’un dispositif auditif selon un mode de réalisation.
Fig. 5
illustre plusieurs modes de réalisation du système auditif.
Fig. 6
illustre une architecture de communication selon un mode de réalisation.
Description détaillée
Dans la description détaillée ci-après de modes de réalisation de l'invention, de nombreux détails spécifiques sont présentés pour apporter une compréhension plus complète. Néanmoins, l'homme du métier peut se rendre compte que des modes de réalisation peuvent être mis en pratique sans ces détails spécifiques. Dans d'autres cas, des caractéristiques bien connues ne sont pas décrites en détail pour éviter de compliquer inutilement la description.
La présente description fait référence à des fonctions, moteurs, unités, modules, plateformes, et illustrations de diagrammes des méthodes et dispositifs selon un ou plusieurs modes de réalisation. Chacun des fonctions, moteurs, modules, plateformes, unités et diagrammes décrits peut être mis en œuvre sous forme matérielle, logicielle (y compris sous forme de logiciel embarqué («firmware»), ou de «middleware»), microcode, ou toute combinaison de ces derniers. Dans le cas d’une mise en œuvre sous forme logicielle, les fonctions, moteurs, unités, modules et/ou illustrations de diagrammes peuvent être mis en œuvre par des instructions de programme d’ordinateur ou du code logiciel, qui peut être stocké ou transmis sur un support lisible par ordinateur, incluant un support non transitoire, ou un support chargé en mémoire d’un ordinateur générique, spécifique, ou de tout autre appareil ou dispositif programmable de traitement de données pour produire une machine, de telle sorte que les instructions de programme d’ordinateur ou le code logiciel exécuté(es) sur l’ordinateur ou l’appareil ou dispositif programmable de traitement de données, constituent des moyens de mise en œuvre de ces fonctions.
Les modes de réalisation d’un support lisible par ordinateur incluent, de manière non exhaustive, des supports de stockage informatique et des supports de communication, y compris tout support facilitant le transfert d’un programme d’ordinateur d’un endroit vers un autre. Par «support(s) de stockage informatique», on entend tout support physique pouvant être accédé par ordinateur. Les exemples de support de stockage informatique incluent, de manière non limitative, les disques ou composants de mémoire flash ou tous autres dispositifs à mémoire flash (par exemple des clés USB, des clés de mémoire, des sticks mémoire, des disques-clés), des CD-ROM ou autres dispositifs de stockage optique de données, des DVD, des dispositifs de stockage de données à disque magnétique ou autres dispositifs de stockage magnétique de données, des composants de mémoire de données, des mémoires RAM, ROM, EEPROM, des cartes mémoires («smart cards»), des mémoires de type SSD («Solid State Drive»), et toute autre forme de support utilisable pour transporter ou stocker ou mémoriser des données ou structures de données qui peuvent être lues par un processeur d’ordinateur.
En outre, diverses formes de support lisible par ordinateur peuvent transmettre ou porter des instructions vers un ordinateur, telles qu’un routeur, une passerelle, un serveur, ou tout équipement de transmission de données, qu’il s’agisse de transmission filaire (par câble coaxial, fibre optique, fils téléphoniques, câble DSL, ou câble Ethernet), sans-fil (par infrarouge, radio, cellulaire, microondes), ou des équipements de transmission virtualisés (routeur virtuel, passerelle virtuelle, extrémité de tunnel virtuel, pare-feu virtuel). Les instructions peuvent, selon les modes de réalisation, comprendre du code de tout langage de programmation informatique ou élément de programme informatique, tel que, sans limitation, les langages assembleur, C, C++, Visual Basic, HyperText Markup Language (HTML), Extensible Markup Language (XML), HyperText Transfer Protocol (HTTP), Hypertext Preprocessor (PHP), SQL, MySQL, Java, JavaScript, JavaScript Object Notation (JSON), Python, et bash scripting.
De plus, les termes «notamment», «par exemple», «exemple», «typiquement» sont utilisés dans la présente description pour désigner des exemples ou illustrations de modes de réalisation non limitatifs, qui ne correspondent pas nécessairement à des modes de réalisation préférés ou avantageux par rapport à d’autres aspects ou modes de réalisation possibles.
Les termes «couplé de manière opérationnelle», «couplé», «monté», «connecté» et leurs variantes et formes diverses utilisés dans la présente description font référence à des couplages, connexions, montages, qui peuvent être directs ou indirects, et comprennent notamment des connexions entre équipements électroniques ou entre des portions de tels équipements qui permettent des opérations et fonctionnements tels que décrits dans la présente description. De plus, les termes «connectés» et «couplés» ne sont pas limités à des connections ou des couplages physiques ou mécaniques. Par exemple, un couplage de manière opérationnelle peut inclure une ou plusieurs connexion(s) filaire(s) et/ou une ou plusieurs connexion(s) sans-fil entre deux équipements ou plus qui permettent des liaisons de communication simplex et/ou duplex entre les équipements ou des portions des équipements. Selon un autre exemple, un couplage opérationnel ou une connexion peut inclure un couplage par liaison filaire et/ou sans-fil pour permettre des communications de données entre un serveur du système proposé et un autre équipement du système.
Les termes «application» ou «programme applicatif» (AP) et leurs variantes («app», «webapp», etc.) tels qu’utilisés dans la présente description correspondent à tout outil qui fonctionne et est opéré au moyen d’un ordinateur, pour fournir ou exécuter une ou plusieurs fonction(s) ou tâche(s) pour un utilisateur ou un autre programme applicatif. Pour interagir avec un programme applicatif, et le contrôler, une interface utilisateur peut être fournie sur l’équipement sur lequel le programme applicatif est mis en œuvre. Par exemple, une interface graphique (en anglais, «graphical user interface» ou GUI) peut être générée et affichée sur un écran de l’équipement utilisateur, ou une interface utilisateur audio peut être restituée à l’utilisateur en utilisant un haut-parleur, un casque ou une sortie audio.
La figure 1 illustre le procédé proposé selon un ou plusieurs modes de réalisation. Ce procédé peut être mis en œuvre par tout système auditif comprenant un processeur et une mémoire, et au moins un dispositif auditif, ou tous équipements configurés pour permettre de capter un signal sonore, de réaliser des opérations de traitement de signal, et de réémettre un signal sonore traité à destination de l’utilisateur.
En référence à la figure 1, dans un ou plusieurs modes de réalisation, un système auditif configuré pour la mise en œuvre du procédé peut être configuré pour obtenir au moins un signal sonore 9 reçu sur un des deux côtés de la tête d’un utilisateur par l’intermédiaire d’un premier dispositif auditif.
Le premier dispositif auditif peut en outre être configuré pour identifier 10 dans le signal sonore au moins une composante de signal correspondant à une classe parmi une pluralité de classe sonores.
De manière avantageuse, le premier dispositif auditif pourra être configuré pour générer un premier signal de reproduction 11 par traitement du signal sonore 9 en fonction de la classe identifiée 12.
Le système auditif pourra, de plus, être configuré pour émettre le premier signal de reproduction 12 à destination de l’utilisateur par l’intermédiaire d’un deuxième dispositif auditif.
La figure 2 illustre un exemple d’un système auditif 140 comprenant deux dispositifs auditifs 101 ; 103 configurés pour la mise en œuvre du procédé.
Un signal sonore 100 se propageant vers un premier dispositif auditif 101 positionné sur une oreille déficiente d’un utilisateur est capté par un capteur acoustique intégré 110 au premier dispositif auditif 101. Ce signal sonore est transformé par le capteur acoustique en signal numérique pour être ensuite analysé puis traité 111.
Dans un ou plusieurs modes de réalisation, cette analyse comprend une identification d’une ou plusieurs composantes du signal sonore, à partir du signal numérique, en fonction d’une pluralité de classes sonores. Ces composantes peuvent par exemple comprendre des fréquences et/ou des harmoniques présentes dans le signal sonore capté, ou tout type de composante de signal dont les caractéristiques temps-fréquence se retrouvent dans le signal sonore.
Par exemple, le signal sonore peut comprendre une superposition de signaux, comme par exemple un signal correspondant à un bruit ambiant, un signal correspondant à un premier signal de parole, et un signal correspondant à un deuxième signal de parole. L’analyse du signal sonore capté par le premier dispositif auditif peut discriminer chacun des trois signaux l’un par rapport aux autres, de manière à identifier au moins une classe sonore à laquelle chacun des signaux appartient.
De préférence, la pluralité de classes sonores correspondra à des situations qu’un utilisateur peut rencontrer dans son quotidien, que ce soit dans sa vie personnelle ou professionnelle.
Par exemple, une classe sonore appelée « alerte » pourra réunir des signaux sonores identifiés comme correspondant à une situation requérant qu’une alerte soit fournie à l’utilisateur, comme par exemple toute situation de danger se déroulant du côté de l’oreille déficiente, comme l’arrivée d’un véhicule (voiture, trains, vélo, etc.) sur l’utilisateur, l’activation d’un avertisseur sonore comme un klaxon de véhicule ou une alerte vocale d’une personne.
Dans un mode de réalisation, une classe « défaut » est ajoutée ou sélectionnée dans l’ensemble de classes sonores utilisées par le premier dispositif, pour y associer les composantes de signal identifiées dans le signal sonore qui ne correspondent à aucune autre classe sonore de l’ensemble. Par exemple, il peut être choisi de sélectionner la classe « alerte » comme classe « défaut », de manière à établir une correspondance par défaut entre une composante de signal analysée dans le signal sonore et une situation d’alerte lorsque la composante de signal ne peut être associée par le premier dispositif à aucune autre classe sonore.
A titre d’exemple, une autre classe sonore, dite de « conversation », pourra correspondre au déroulement d’une ou plusieurs conversations entre des personnes du côté de l’oreille déficiente.
Comme autre exemple, une classe sonore, dite de « parole ciblée », pourra correspondre à une conversation se déroulant du côté de l’oreille déficiente d’un utilisateur discutant avec une autre personne.
Une classe sonore, dite de « signature sonore d’un véhicule », pourra correspondre à la présence d’un véhicule circulant du côté de l’oreille déficiente mais ne représentant pas un danger comme la classe dite « alerte ».
Le procédé ne se limite pas aux classes précédemment présentées. D’autres classes sonores peuvent être définies afin d’enrichir la contextualisation du premier signal de reproduction à destination de l’utilisateur par l’intermédiaire d’une classification plus précise.
Dans un ou plusieurs modes de réalisation, la mise en correspondance entre une composante de signal identifiée dans le signal sonore et une classe sonore pourra utiliser une reconnaissance dans la composante de signal d’une ou plusieurs signatures sonores caractérisant la classe sonore. Le dispositif proposé peut ainsi être configuré pour reconnaître des signatures (en anglais « patterns ») sonores décrivant des environnements sonores (par exemple des bruits de chantier, de circulation, d’ambiance de bureau, de vent, de restaurant, etc.), de préférence correspondant aux environnements sonores auxquels l’utilisateur du système est exposé. Ces signatures sonores pourront, dans un mode de réalisation, avoir été préconfigurées dans le système, par exemple en les préchargeant dans une mémoire accessible par un moteur de reconnaissance de signature (par exemple mis en œuvre par un moteur d’intelligence artificielle), ou en les configurant dans un réseau de neurones préchargé dans le système.
Dans un ou plusieurs modes de réalisation, la génération d’un ensemble de classes ou l’enrichissement d’un ensemble préexistant pourront être effectuées par apprentissage lors de l’utilisation d’un dispositif mettant en œuvre le procédé proposé dans les différents cas d’usage.
Après l’identification d’au moins une composante du signal sonore en fonction de classes sonores, des opérations de traitement de signal sont effectuées sur le signal numérique (représentatif du signal sonore) permettant de générer un premier signal de reproduction. Ces opérations sont effectuées en fonction de la ou des classes sonores précédemment identifiées.
Dans un ou plusieurs modes de réalisation un moteur de détection de signatures sonores (par exemple mis en œuvre par un réseau de neurones) correspondant respectivement à des classes sonores peut être utilisé, et être initialement configuré, par exemple grâce à un apprentissage préalable, puis continûment entrainé lors de la phase d’utilisation du système par un utilisateur, notamment en tenant compte de la ou des réponses de l’utilisateur à différents évènements ou contextes. Par exemple, le moteur de détection peut être configuré pour obtenir des données indiquant si l’utilisateur se tourne après un signalement d’une alerte détectée sur un côté, et lorsqu’il se tourne, comment il se tourne, et/ou des données indiquant combien de fois il faut répéter voire amplifier l’alarme pour que l’utilisateur réagisse, et exploiter ces données pour enrichir son moteur de détection.
Dans un ou plusieurs modes de réalisation, les opérations de traitement de signal pourront comprendre une ou plusieurs opérations parmi une opération de filtrage, d’amplification et de réduction sur les fréquences et/ou harmoniques du signal sonore. Ces opérations de traitement de signal pourront également comprendre une ou plusieurs opérations utilisées couramment dans le traitement de signal de signaux acoustiques (sonore), comme par exemple la transposition d’une gamme de fréquences d’un signal sonore vers une gamme de fréquences plus basse ou plus haute de ce signal sonore.
A titre d’exemple, dans le cas d’une classe sonore dite « parole ciblée », le premier dispositif auditif 101 peut effectuer une opération de filtrage sur les composantes (fréquences et/ou harmoniques) associées au bruit ambiant afin de réduire ce bruit, puis une opération d’amplification des composantes (fréquences et/ou harmoniques) du signal sonore associées à la parole de personne effectuant la discussion avec l’utilisateur ayant une oreille déficiente.
De plus, la bonne oreille peut elle-même recevoir ses propres signaux sonores captés par le deuxième dispositif auditif, ce qui peut amener le système auditif à effectuer des opérations de traitement de signal afin que la superposition du signal de reproduction avec par un exemple un signal sonore arrivant sur la bonne oreille ne soit pas altéré pour l’utilisateur, et que ce dernier puisse bien les différencier.
Le premier signal de reproduction généré par les opérations de traitement de signal est ensuite transmis 102 au deuxième dispositif auditif 103, de préférence disposé à proximité de la bonne oreille de l’utilisateur. Le signal de reproduction transmis au deuxième dispositif auditif 103 est ensuite restitué 104 par émission vers la bonne oreille via le haut-parleur 120 intégré.
Dans un ou plusieurs modes de réalisation, le premier signal de reproduction peut comprendre un signal d’information superposé au signal sonore. Dans un mode de réalisation, le premier signal de reproduction émis vers la bonne oreille de l’utilisateur par le deuxième dispositif auditif peut comporter en outre un signal ou message, sonore ou d’un autre type (visuel, haptique), d’indication permettant d’indiquer à l’utilisateur qu’il doit porter son attention du côté de l’oreille déficiente.
Dans un ou plusieurs mode de réalisation, un signal de réponse de la réaction de l’utilisateur au premier signal de reproduction peut être généré à partir de capteurs 105, par exemple intégrés au deuxième dispositif 103, comme par exemple des capteurs de mouvement ou sonores, puis transmis 102 bis au premier dispositif auditif 101.
Dans les modes de réalisation utilisant un réseau de neurones, le signal de réponse de la réaction de l’utilisateur peut être utilisé pour enrichir et affiner le réseau de neurones qui permettra au système auditif d’améliorer son interprétation du contexte et la manière dont les opérations de traitement de signal seront effectuées.
Par exemple, dans le cas d’un événement se déroulant du côté de l’oreille déficiente d’un utilisateur, l’émission du premier signal de reproduction vers la bonne oreille du premier dispositif vers le deuxième dispositif auditif peut inclure une vibration mécanique réalisée par le premier dispositif auditif afin d’indiquer à l’utilisateur qu’il doit porter son attention du côté de son oreille déficiente. Dans un ou plusieurs modes de réalisation, le système proposé peut être configuré pour, sur la base de données acquises représentant une réponse de l’utilisateur à l’émission du premier signal de reproduction (par exemple un mouvement de tête ou un cri de l’utilisateur), enrichir ou affiner son réseau de neurone (par exemple pour l’identification du contexte d’un événement ou d’une classe sonore correspondant à une composante du signal sonore).
Des variantes possibles selon une liste non exhaustive peuvent être l’émission sonore par le deuxième dispositif auditif vers la bonne oreille d’un bip sonore ou d’une combinaison de bips sonores de durées différentes ou non, un message sonore préenregistré, comme par exemple « gauche » si l’oreille déficiente est du côté gauche, ou « droite » si l’oreille déficiente est du côté droite, ou encore un message sonore préenregistré d’alerte émis par le deuxième dispositif auditif vers la bonne oreille.
En fonction du mode de réalisation, ces messages d’indications peuvent être produits vers l’utilisateur avant, pendant, ou après l’émission du premier signal de reproduction, et peuvent être produits en combinaison, comme par exemple un bip sonore et une vibration mécanique, ou un message sonore et une vibration mécanique.
Ainsi, dans un ou plusieurs modes de réalisation, pour une classe sonore déjà existante, le réseau de neurones peut être configuré pour enrichir le traitement du signal sonore sur la base de réactions, ou de non-réactions de l’utilisateur, pour affiner la manière dont il attire l’attention de l’utilisateur. Par exemple, si l’utilisateur n’a pas réagi à une vibration mécanique, mais à la combinaison d’une vibration mécanique et d’un bip sonore, alors au prochain événement associé à cette classe sonore, le système réalisera une combinaison de vibration mécanique et de bips sonore pour mieux attirer l’attention de l’utilisateur.
Selon un autre exemple, dans le cas d’un bruit anormal auquel ne correspond aucune classe sonore, le système peut par l’intermédiaire de la réaction de l’utilisateur associée à la composante identifiée, générer une nouvelle classe sonore correspondant à cet événement.
La transmission du premier signal de reproduction peut être réalisée par tout moyen permettant une communication réciproque entre le premier dispositif auditif et le deuxième dispositif auditif, comme par exemple des moyens de communication filaires ou par ondes radios.
Selon un ou plusieurs modes de réalisation, plusieurs composantes propres à différentes classes sonores peuvent être détectées dans le signal sonore. Dans ce cas, les classes sonores identifiées peuvent être classées par degré d’importance avant les opérations de traitement de signal et de restitution du signal de reproduction, par exemple sur la base d’informations supplémentaires, comme par exemple des informations de géolocalisations, d’un parcours quotidien d’un utilisateur, de l’environnement extérieur, comme par exemple un utilisateur présent sur un chantier ou dans une usine.
La détection et le traitement d’un événement exceptionnel ou d’un signal particulier peut ainsi être facilitée par la corrélation de multiples facteurs : localisation, jour de la semaine, heure, mouvements de têtes, etc. en complément des ondes sonores elles-mêmes.
Dans un ou plusieurs modes de réalisation, les premier et deuxième dispositifs auditifs peuvent communiquer, par exemple par ondes radios, avec au moins un dispositif tiers. Ce dispositif tiers peut être par exemple un téléphone portable, un ordinateur, un ordinateur de bord d’un véhicule, ou de tous objets connectés capable de communiquer par ondes radios avec d’autres objets.
Dans cette configuration, le dispositif tiers peut être utilisé pour mettre à disposition du premier et/ou du deuxième dispositif des ressources matérielles pour effectuer certaines tâches, comme des opérations de traitement de signal, de géolocalisation, de mise à jour du réseau de neurones, de stockage dans une mémoire physique ou dans un ou plusieurs serveurs à distance, ou encore être utilisé pour fournir des informations supplémentaires lors de la sélection de la classe sonore, par exemple.
Selon un autre mode de réalisation, les premier et deuxième dispositifs auditifs peuvent être configurés pour, outre l’échange de données entre eux, échanger des données avec un ou plusieurs serveurs à distance par l’intermédiaire d’un ou plusieurs réseaux de télécommunications.
Dans un ou plusieurs modes de réalisation, le premier dispositif et le deuxième dispositif peuvent être identiques dans leur conception et leur capacité de fonctionnement. Ainsi avantageusement, le premier et le deuxième dispositif peuvent être utilisés avec des utilisateurs ne présentant pas le même côté d’oreille déficiente, ou ne présentant aucune déficience des oreilles. Ainsi avantageusement, le système auditif avec un premier et deuxième dispositif auditif qui seraient identiques peut être utilisé en milieu professionnel, comme par exemple sur un chantier de construction, dans une usine de production, ou par des employés travaillant sur des voies de chemin de fer.
Le dispositif tiers peut selon un autre exemple être utilisé pour afficher ou émettre un ou des messages à destination de l’utilisateur afin qu’il porte attention au côté de son oreille déficiente. Ces messages peuvent être de même nature que ce qui a été exposé précédemment, comme des vibrations, des messages sonores préenregistrés, des messages sonores émis au moyen de bip, ou encore des messages visuels préenregistrés comme « regardez à gauche », « regardez à droite », « attention à gauche », « attention à droite », etc.
Comme décrit précédemment, ces messages effectués sur le dispositif tiers peuvent être réalisés en combinaison entre eux ou avec des messages signalés par le deuxième dispositif auditif, avant l’émission du premier signal de reproduction ou effectués en même temps, voire après.
Par exemple, avant l’émission du premier signal de reproduction sur la bonne oreille, une vibration mécanique peut être effectuée par le deuxième dispositif mécanique, et en même temps ou suivant un délai, un message peut être affiché sur le dispositif tiers indiquant à l’utilisateur de porter son attention du côté de son oreille déficiente.
Dans un ou plusieurs modes de réalisation, le dispositif tiers peut également être utilisé pour paramétrer de façon individuelle ou commune chaque dispositif auditif du système en fonction des besoins de l’utilisateur. Par exemple, un utilisateur peut paramétrer par l’intermédiaire de son téléphone portable les dispositifs auditifs de façon à ce qu’ils établissent une priorité d’un contexte sur un autre pour les différentes opérations de traitement de signal, éventuellement à l’exception de la classe sonore « alerte » qui peut par exemple rester prioritaire sur toutes les autres classes sonores. Cette priorité donnée à un contexte peut être paramétrée selon un pourcentage à prendre en compte pour ce contexte.
Par exemple, différents niveaux de priorité peuvent être associés à des classes pour favoriser l’émission de signaux de reproduction correspondant à des classes données par rapport à ceux correspondant à d’autres classes, par exemple dans un restaurant pour favoriser des composantes de signal correspondant à des signaux de parole de personnes ne parlant pas très fort au détriment de composantes correspondant à des bruits de fond importants.
Par exemple, un utilisateur dans un environnement où plusieurs contextes se mélangent, comme des conversations et un concert de musique, peut dans un mode de réalisation paramétrer par l’intermédiaire de son téléphone portable ses dispositifs auditifs afin que ceux-ci mettent une priorité, par exemple à 70%, sur les composantes du signal sonore associées au concert de musique.
La figure 3b illustre un exemple de mode de réalisation du procédé proposé dans lequel des opérations d’acquittement de l’utilisateur sont utilisées.
Dans un ou plusieurs modes de réalisation, la phase d’utilisation du système peut être précédée par une phase de configuration des dispositifs, comprenant une ou plusieurs phases parmi une phase d’initialisation, une phase de calibration, et une phase de programmation des dispositifs. Dans un mode de réalisation, cette phase de configuration peut être effectuée par l’utilisateur porteur du système auditif, ou par toute personne apte à effectuer les réglages d’un tel système, comme du personnel médical.
Tous les dispositifs peuvent être pré-chargés avec une collection générique de signatures usuelles (ambiance de bureau, de restaurant, chantier de construction, carrefour routier, train, etc.). Avant d’utiliser son dispositif, l’utilisateur peut également le calibrer pour tenir compte de son profil exact (surdité unilatérale, perte auditive dans une gamme particulière de fréquence, etc.). Ce calibrage s’effectue simplement à l’aide d’une application à télécharger sur son mobile, sa tablette ou son ordinateur et un casque stéréo. L’application peut être configurée pour guider l’utilisateur en lui posant quelques questions, et/ou en testant ses réactions à différentes ondes sonores, signatures et alertes qui seront simulées.
Après cette phase initiale de calibrage, le dispositif est directement (et avantageusement) prêt à être utilisé.
De préférence, ce calibrage pourra être affiné régulièrement, par exemple une fois par an, afin de tenir compte d’éventuelles dérives du profil auditif de l’utilisateur.
En référence à la figure 3a, un système auditif (140) comprenant un premier dispositif auditif (101) et un deuxième dispositif auditif (103) est initialisé 205, par exemple par l’utilisateur du système auditif. Cette initialisation peut être réalisée sur ordre vocal de l’utilisateur, par exemple en prononçant « initialisation », sur un tapotement avec les doigts sur n’importe quelle partie du système, ou encore par le biais d’un dispositif tiers configuré pour enclencher l’initialisation du système auditif.
Selon un ou plusieurs modes de réalisations, l’initialisation peut de plus comprendre le téléchargement ou la mise à jour des classes sonores par l’intermédiaire d’une connexion avec le dispositif tiers sur un réseau de télécommunications ou directement sur le réseau de télécommunications. Par exemple, l’initialisation peut correspondre à une mise à jour d’un réseau de neurones gérant la sélection des classes sonores. Cette mise à jour peut faire suite à l’initialisation d’un réseau de neurones situé dans une mémoire à distance, qui est régulièrement mis à jour par l’utilisateur du système auditif.
Après l’initialisation du système et des dispositifs auditifs, une phase de calibration est réalisée 206. Cette calibration peut avoir pour objectif par exemple de calibrer le volume sonore du haut-parleur lors de l’émission du signal de reproduction à destination de la bonne oreille, mais également du niveau sonore d’un signal arrivant sur la bonne oreille. En effet, la sensibilité d’une oreille par rapport un signal sonore peut varier d’un individu à l’autre.
Dans un ou plusieurs modes de réalisation, un utilisateur peut indiquer au système auditif ou dispositifs auditifs, par l’intermédiaire de tests sonores, les gammes de fréquences auxquelles sa sensibilité auditive est meilleure, et les gammes de fréquences où sa sensibilité auditive est moins bonne. Ainsi, lors des opérations de traitement de signal, le système ou le dispositif auditif en charge des opérations de traitement de signal peut choisir d’adapter ces opérations de traitement de signal afin de prendre en compte les données de calibrations paramétrées par l’utilisateur.
Dans un ou plusieurs modes de réalisation, la calibration peut comprendre la réalisation par l’utilisateur de tests sur le système, par exemple par l’intermédiaire d’un dispositif tiers comme un téléphone portable. Par exemple, le dispositif tiers génère des « patterns » de bruits, avec différentes balances gauche/droite, et en fonction des réactions de l’utilisateur, le dispositif tiers (en liaison bluetooth par exemple) effectue la calibration. Le dispositif tiers peut être tout équipement muni d’un processeur, comme un ordinateur personnel, un ordinateur portable, un smartphone, une tablette, etc.
Les opérations de calibrations peuvent également comprendre la définition de procédures à effectuer par le système ou le dispositif auditif lorsque le signal de reproduction émis sur la bonne oreille de l’utilisateur n’attire pas son attention.
Dans un ou plusieurs modes de réalisation, le signal ou message sonore ou non sonore d’indication permettant d’indiquer à l’utilisateur qu’il doit porter attention du côté de l’oreille déficiente peut être répété plusieurs fois à destination de l’oreille de l’utilisateur jusqu’à la prise de conscience par celui-ci par l’intermédiaire d’un second signal de reproduction Par exemple, une vibration mécanique peut être répétée par le dispositif situé sur l’oreille déficiente afin que l’utilisateur prête attention du côté de l’oreille déficiente et au signal de reproduction émis à destination de l’utilisateur. Cette vibration mécanique peut être accompagnée d’une seconde vibration mécanique répétée en boucle sur un dispositif tiers comme un téléphone portable.
Selon un autre exemple, des bips sonores peuvent être émis de manière répétitive dans la bonne oreille jusqu’à ce que le système ou dispositif détermine que le signal de reproduction a bien été pris en compte.
Comme décrit précédemment, une combinaison de message sonore ou non sonore peut être réalisée de manière répétitive dans un ordre précis ou de manière aléatoire.
Ainsi, selon un ou plusieurs modes de réalisation, une série de vibration mécanique peut être effectuée lors de l’émission d’un signal de reproduction. Si, l’utilisateur n’y prête pas attention, une série de bip sonore répétée en plus ou non des vibrations mécaniques peut être émise vers la bonne oreille de l’utilisateur. Si l’utilisateur n’y prête toujours pas attention, une sonnerie sur un téléphone portable ainsi qu’une vibration mécanique sur ce dernier peuvent être effectuées.
De plus, selon un des modes de réalisation, la phase de calibration peut comprendre la définition des gestes ou mots émis par un utilisateur pour indiquer au système ou dispositif auditif qu’il a bien porté une attention au signal de reproduction. L’attention portée par l’utilisateur au signal de reproduction permet de signifier l’acquittement de l’utilisateur à ce signal de reproduction.
Par exemple, un mouvement de la tête de l’utilisateur du côté de l’événement se déroulant du côté de l’oreille déficiente après l’émission du signal de reproduction correspondant peut être interprêté par le système ou dispositif comme le fait que l’utilisateur a acquitté le signal de reproduction. Sur détection de prise en compte du signal de reproduction, le système peut stopper l’émission des messages sonores ou non sonores décrits précédemment.
La captation d’un mouvement de l’utilisateur peut être réalisée par tout capteur de mouvement intégré dans le système auditif, que ce soit dans au moins un dispositif auditif ou dans les deux. Le capteur de mouvement peut être un accéléromètre ou un gyromètre par exemple.
Une fois la calibration du système réalisée, une ou des opérations de programmation 207 peuvent être effectuées sur le système auditif, ou de manière indépendante sur les dispositifs auditifs La programmation peut permettre à l’utilisateur de sélectionner un mode de fonctionnement par exemple parmi un mode automatique (dans lequel le système reconnait tout seul les contextes), un mode semi-automatique (dans lequel l’utilisateur précise les contextes, pour valider ce qui a été reconnu), un mode manuel (dans lequel l’utilisateur programme directement les traitements à effectuer, par exemple pour supprimer tous les bruits inférieurs à un niveau sonore donné).
Par exemple, selon le mode de fonctionnement automatique, le système auditif une fois calibré fonctionne en boucle fermée. Ainsi, le système auditif va reconnaitre de lui-même les contextes. A l’inverse dans un mode de fonctionnement semi-automatique, l’utilisateur précise le contexte dans lequel il se trouve. Par exemple, un utilisateur peut indiquer un contexte particulier au système auditif et ainsi forcer la classe et les opérations de traitement de signal correspondantes à utiliser. Le contexte particulier peut être un environnement présentant un fort bruit de fond comme dans un restaurant ou dans les transports en commun par exemple.
Par exemple, dans le cas d’un mode de fonctionnement manuel, l’utilisateur indique qu’il ne veut entendre qu’une classe spécifique, par exemple que des bruits de conversation.
Selon un mode de réalisation, la programmation peut comporter l’utilisation d’une application informatique sur le dispositif tiers de manière à paramétrer plus finement par des cycles de calibration le calibrage effectuée précédemment.
Par exemple, un casque audio disposé sur la tête d’un utilisateur futur du système auditif est branché sur le dispositif tiers, puis par l’intermédiaire de l’application informatique, des classes de différents environnements sont testées sur l’utilisateur, et les réactions de celui-ci sont enregistrées pour affiner la calibration effectuée précédemment. Selon un exemple, l’application informatique peut déterminer les composantes d’une classe correspondant à un environnement auxquelles l’utilisateur est sensible. Ainsi lorsque l’utilisateur rencontrera ce type d’environnement, le système auditif pourra adapter la sélection de la classe et les opérations du traitement de signal en fonction de la calibration et programmation.
Selon un ou plusieurs modes de réalisations, chaque dispositif auditif peut être initialisé, calibré, et programmé de manière indépendante.
Après l’initialisation, suivie du paramétrage de la calibration, et de la programmation, le système auditif peut entrer dans un mode de fonctionnement automatique 208, c’est-à-dire par exemple, réagissant en permanence au quotidien d’un utilisateur évoluant dans un environnement extérieur.
La figure 3b illustre le procédé selon un des modes de réalisation dans le cas d’une utilisation selon un mode de fonctionnement automatique.
Ainsi, le système auditif demeure dans un premier dans un mode dit de « veille» 209. Ce mode «veille » peut permettre d’économiser les ressources énergétiques du système auditif.
Tant qu’aucune activation du système n’est détectée, « 210, ko » le système auditif reste en mode veille 209. Une activation du système peut être déclenchée par l’utilisateur lui-même suivant une action manuelle comme un tapotement, par l’intermédiaire d’une commande vocale émise par l’utilisateur, comme par exemple « activation », ou sous l’action d’un événement extérieur comme la réception d’un signal sonore.
En effet, selon un environnement extérieur et/ou un contexte, un utilisateur peut décider de lui-même de l’activation de son système auditif. Par exemple, il rentre dans une pièce où il sait qu’il va devoir discuter avec une personne, ou par exemple lorsque l’environnement extérieur est un environnement présentant des contextes de danger, comme de la circulation de véhicules.
Sur l’activation « 210, ok », des opérations de traitement de signal sont réalisées sur le ou les signaux sonores captés permettant d’identifier les composantes (fréquentielles ou harmoniques du signal sonore).
En l’absence d’un contexte, c’est-à-dire de l’identification d’une ou plusieurs classes en fonction des composantes d’un ou des signaux sonores, « 212, ko », les opérations d’un traitement de signal dit classique sont effectuées en continu. Par exemple, un utilisateur se baladant dans la rue, ou réalisant des tâches n’impliquant pas de contexte particulier, n’a pas besoin d’opérations de traitement de signal spécifiques. Dans ce cas, le signal de reproduction émis vers la bonne oreille peut être une reproduction sans altération, c’est-à-dire sans opération de traitement de signal, du signal reçu sur l’oreille déficiente de l’utilisateur.
Lorsqu’une classe est identifiée en fonction d’un ou des composantes d’un signal sonore, « 212 ok », des opérations de traitement de signal propres à la classe identifiée peuvent être réalisées sur le signal sonore afin d’émettre un premier signal de reproduction à destination de l’utilisateur.
En fonction de classe identifiée, le signal de reproduction peut comporter en plus un message sonore ou non sonore 213 à destination de l’utilisateur afin de forcer l’utilisateur à porter attention au premier signal de reproduction ainsi qu’au côté de son oreille déficiente.
Comme décrit précédemment, ces messages sonores ou non sonores peuvent avoir été définis par l’utilisateur lors des opérations de calibration et de programmation.
Ainsi, l’ajout d’un message sonore ou non sonore à destination de l’utilisateur va enclencher le processus de demande d’acquittement au premier signal de reproduction 214. Ce processus d’acquittement peut avoir été défini par l’utilisateur selon ce qui a été décrit précédemment.
En l’absence de l’acquittement par l’utilisateur au premier signal de reproduction et message sonore ou non sonore, « 214 ko », un second signal de reproduction est généré comportant le message sonore ou non sonore qui peut être répété ou dont l’amplitude sonore peut être augmentée par exemple, jusqu’à l’acquittement. Comme décrit précédemment, l’acquittement peut être une commande vocale, un mouvement physique comme un mouvement de tête par exemple.
En présence d’un acquittement effectué par l’utilisateur, « 214 ok », le système détermine 215 si l’utilisateur n’est effectivement plus en présence du contexte responsable d’un ou plusieurs messages sonores ou non sonores.
Lorsque le contexte responsable du ou des messages sonores ou non sonores est terminé, « 215 ok », le ou les messages sont supprimés 216.
Selon un des modes de réalisation, cette suppression peut être effectuée sur ordre direct de l’utilisateur, même lorsque le contexte est toujours présent. Par exemple, un utilisateur peut percevoir un danger et demander l’arrêt des messages, même si le danger est toujours présent.
Les opérations de traitement de signal permettant d’identifier les composantes du signal sont de nouveau effectuées 211.
A titre d’exemple, un contexte de voiture arrivant sur le côté de l’oreille de déficiente d’un utilisateur peut être classé selon la classe sonore « alerte » ou « signature sonore d’un véhicule ». Le système, en couplant avec des données de géolocalisation d’une puce GPS directement installée dans le système auditif, ou par l’intermédiaire des données de géolocalisation provenant d’un téléphone portable peut affiner la classe sonore à sélectionner. Par exemple, si les données de géolocalisation indiquent que l’utilisateur est sur un passage piéton ou sur une route, le système va sélectionner la classe sonore « alerte ». Dans ce cas, lors de l’émission du signal de reproduction vers la bonne oreille de l’utilisateur, un ou plusieurs messages d’alerte sonores ou non sonores (213) sont émis avant ou pendant le signal de reproduction vers la bonne oreille.
L’utilisateur ne réagissant pas aux messages d’alertes (214) verra ses messages s’amplifier, que ce soit au niveau de l’amplitude, ou de la fréquence d’émission. Par exemple, l’utilisateur reçoit une série de bip sonore de plus en plus fort indiquant qu’il doit expressément porter attention du côté de son oreille déficiente. Ces bips sonores peuvent être associés à des vibrations mécaniques émises par le premier dispositif auditif.
Au moment où l’utilisateur porte attention du côté de son oreille déficiente, il aperçoit la voiture se dirigeant vers lui, ce qui lui permet d’agir en conséquence.
Selon un autre exemple, l’utilisation de l’apprentissage automatique par l’intermédiaire d’un réseau de neurones peut être utilisée dans le quotidien des personnes. Ainsi de manière avantageuse, l’apprentissage automatique peut s’effectuer en permanence, et chaque système auditif peut être continûment mis à jour, et anticiper les situations ou dangers qu’un utilisateur peut rencontrer dans sa vie de tous les jours. Par exemple, l’apprentissage automatique peut être réalisé par l’intermédiaire des différents acquittements que l’utilisateur réalise, ou par l’association entre un ou des composantes d’un signal correspondant à un contexte effectuée par l’utilisateur lui-même sur son dispositif tiers.
Selon un autre exemple d’utilisation de la géolocalisation pour affiner la sélection de la classe et enrichir le réseau de neurones, le système auditif peut être configuré pour permettre à un utilisateur (par exemple un employé dans une usine de production) de déterminer que la ou les composantes d’un signal sonore reçues dans un premier type d’environnement peuvent ou doivent être traitées d’une manière différente de celle utilisée pour cette ou ces composantes lorsqu’elle sont reçues dans un deuxième type environnement, distinct du premier type. En effet, dans une usine de production, de nombreuses composantes peuvent être considérées comme des alertes ou des bruits anormaux. Le système auditif, en recoupant avec les données de géolocalisation, pourra être configuré pour ne pas identifier cette ou ces composantes comme des alertes ou des bruits anormaux, sur la base de données de géolocalisation indiquant au système que l’utilisateur se trouve dans une usine de production, par exemple à proximité d’une machine de découpe ou d’emboutissage.
Ces composantes propres à une usine de production peuvent avoir été apprises par un réseau de neurones du système auditif régulièrement mis à jour, ou encore intégrées lors des processus d’initialisation, de calibration et de programmation, par un gestionnaire du parc du système auditif par exemple. Ainsi, plusieurs employés d’une même usine de production peuvent partager des informations apprises par le réseau de neurones de leur système auditif et qui sont mises en partage pour tout le monde par l’intermédiaire d’un serveur, comme par exemple un serveur « cloud ».
Le processus d’apprentissage peut être la ou les réactions d’un employé à un bruit anormal dans l’usine de production ou de contexte d’alerte.
De même, chaque employé peut voir son système auditif s’améliorer dans le traitement et la réponse à des signaux sonores par l’intermédiaire des réactions de l’employé à ces signaux qui viendront ensuite enrichir le réseau de neurones.
Le procédé peut être mis en œuvre par un dispositif informatique intégré directement dans les dispositifs auditifs du système auditif. Le dispositif informatique est illustré à titre d’exemple sur la figure 4, lequel comporte un circuit de traitement incluant une interface d’entrée 903, pour recevoir des informations en provenance de différents types de capteurs 904, comme par exemple un microphone pour capter un signal sonore, un capteur d’accélération de mouvement, un capteur permettant une géolocalisation tel qu’une puce GPS, un capteur de luminosité, ou encore un capteur de proximité.
A titre d’exemple, le capteur de luminosité peut être utilisé pour affiner la contextualisation d’un signal sonore, comme par exemple la captation des phares de voiture couplé au signal sonore de l’arrivée d’une voiture sur un passage piéton.
Selon un exemple, le capteur de proximité peut être utilisé pour affiner la contextualisation lorsqu’une personne émet une conversation parmi un ensemble de conversations vers l’oreille déficiente d’un utilisateur qui ne se rend pas compte que quelqu’un lui parle.
L’interface d’entrée 903 peut permettre également la réception de données provenant du deuxième dispositif auditif, d’un autre système auditif d’un autre utilisateur, d’un dispositif tiers, ou d’un serveur à distance par l’intermédiaire d’un récepteur radiofréquence 905.
Le dispositif illustré sur la figure 4 comprend en outre un processeur 901 coopérant avec une mémoire 902, pour analyser et effectuer les opérations de traitement de signal d’un ou plusieurs signaux sonores reçus, et une interface de sortie 906 pour délivrer des données d’informations ou sonores par l’intermédiaire d’un émetteur 907, comme un émetteur sonore de type haut-parleur, d’un émetteur mécanique permettant des vibrations mécaniques, visuel, ou encore d’un émetteur radiofréquences 908 configuré pour la mise en œuvre d’un ou plusieurs modes de réalisation du procédé proposé.
La mémoire précitée 902 peut stocker typiquement des codes d’instructions du programme informatique au sens de l’invention (dont un exemple d’ordinogramme est présenté sur la figure 1 commentée précédemment). Ces codes d’instructions peuvent être lus par le processeur 901 pour exécuter le procédé selon l’invention. Le dispositif peut comporter en outre une mémoire de travail (distincte ou identique à la mémoire 902) pour stocker des données temporaires.
La figure 5 illustre plusieurs modes de réalisations du système auditif comprenant un premier dispositif auditif, et un deuxième dispositif auditif comme décrit à la figure 4.
Ainsi, selon un premier mode de réalisation, le premier dispositif auditif 401 et le deuxième dispositif auditif 402 peuvent être intégrés sous la forme d’un casque audio 410, qui se superposerait sur les deux oreilles 500 ; 600 d’un utilisateur.
Selon un deuxième mode de réalisation, le premier dispositif auditif 403 et le deuxième dispositif auditif 404 peuvent se loger directement dans les conduits auditifs des oreilles 500 ; 600 d’un utilisateur. Dans ce mode de réalisation et comme décrit précédemment, la liaison peut être effectuée par ondes radios par exemple, garantissant ainsi un côté esthétique pour l’utilisateur.
Selon un troisième mode de réalisation, le premier dispositif auditif 405 et le deuxième dispositif auditif 406 peuvent être intégrés dans une monture de lunette 420 disposée sur les oreilles 500 ; 600 d’un utilisateur.
A titre d’exemple, le premier et le deuxième mode de réalisation peuvent être particulièrement bien adaptés à l’utilisation en milieu professionnel.
Par exemple, sur un chantier de construction, un employé de chantier avec un casque incorporant le système auditif comprenant les deux dispositifs auditifs peut être alerté en cas de l’arrivée d’un véhicule qui peut présenter un danger, ou par exemple capter une parole d’un autre employé qui serait inaudible à cause du bruit de fond, qui peut être du vent, de la pluie, des bruits de machines par exemple.
Avantageusement, le casque peut également réduire le bruit ambiant propre à un chantier permettant de sauvegarder l’audition de l’employé.
Selon un autre exemple, un technicien travaillant sur des voies de chemin de fer et portant le système auditif peut être alerté en cas de l’arrivée d’un train sur les voies.
Selon un autre exemple, dans une usine de production source de nombreux accidents chaque année, un système auditif sur un utilisateur selon les modes de réalisation précédemment cités peut permettre d’alerter l’utilisateur de l’arrivée d’un véhicule, comme par exemple les engins de manutentions, ou de détecter l’arrivée imminente sur un équipement de production permettant à l’utilisateur de se retirer avant un accident.
La figure 6 illustre un exemple d’architecture de communication d’un des modes de réalisation où un premier système auditif 700 porté par un premier utilisateur communique avec un deuxième système auditif 701 porté par un deuxième utilisateur.
Par exemple, le premier système auditif 700 est couplé par ondes radios, par exemple bluetooth, avec un dispositif tiers comme un téléphone portable 710. Le téléphone portable 710 peut être utilisé pour paramétrer le premier système auditif 700, ou mettre à disposition au premier système auditif 700 ses ressources matérielles, tel qu’il a été décrit précédemment.
En outre, le téléphone portable 710 peut communiquer 740 par un réseau de télécommunication avec un serveur à distance 711, comme par exemple un « cloud », permettant de lui envoyer des informations ou de stocker des données.
Le serveur à distance 711 peut lui-même également communiquer par le réseau de télécommunication avec d’autres système auditif 701.
Ainsi de manière avantageuse, une centralisation des données issues de chaque système auditif est possible permettant d’enrichir une base de données, et de réaliser des opérations d’apprentissage automatique dit « machine learning » par l’intermédiaire d’un réseau de neurones.
Par exemple, une entreprise s’occupant d’un chantier de construction peut fournir aux employés travaillant sur le chantier un système auditif. L’entreprise peut gérer son parc de système auditif par le biais du réseau de télécommunication, et réaliser régulièrement des mises à jour des différentes classes sonores, des composantes reconnues, des opérations de traitement de signal à la de l’apprentissage du réseau de neurone tels qu’ils ont déjà été décrits précédemment, avec le cas de l’usine de production par exemple. A titre d’exemple, les engins de l’usine de production peuvent être géolocalisés sur le chantier permettant aux différents systèmes auditifs des employés de recouper avec des informations de signal sonore et ainsi de détecter un danger ou non.
Selon un autre exemple, l’utilisation de l’apprentissage automatique par l’intermédiaire du réseau de neurones peut être utilisée également dans le quotidien des personnes. Ainsi de manière avantageuse, l’apprentissage automatique peut s’effectuer en permanence, et chaque système auditif peut être continument être mis à jour, et anticiper les situations ou danger qu’un utilisateur peut rencontrer dans sa vie de tous les jours.
Selon un autre exemple, l’utilisation de l’apprentissage automatique peut être utilisée pour apprendre des réactions d’un utilisateur, en particulier lors d’un acquittement associé à un classe par exemple, et ainsi affiner les paramètres du système auditif.
Par exemple, la nature, la vitesse et l’intensité de la réaction de l’utilisateur, face à la restitution d’une alarme, peuvent être utilisées pour contribuer à affiner la manière de présenter ce même type d’alarme à l’avenir.
Le procédé ne se limite pas aux exemples de modes de réalisation décrits ci-avant, seulement à titre d’exemple, mais elle englobe toutes les variantes que pourra envisager l’homme de l’art dans le cadre des revendications ci-après.
En fonction du mode de réalisation choisi, certains actes, actions, évènements ou fonctions de chacune des méthodes décrites dans le présent document peuvent être effectués ou se produire selon un ordre différent de celui dans lequel ils ont été décrits, ou peuvent être ajoutés, fusionnés ou bien ne pas être effectués ou ne pas se produire, selon le cas. En outre, dans certains modes de réalisation, certains actes, actions ou évènements sont effectués ou se produisent concurremment et non pas successivement.
Bien que décrits à travers un certain nombre d’exemples de réalisation détaillés, le procédé de pilotage proposé et le dispositif pour la mise en œuvre d’un mode de réalisation du procédé comprennent différentes variantes, modifications et perfectionnements qui apparaîtront de façon évidente à l’homme de l’art, étant entendu que ces différentes variantes, modifications et perfectionnements font partie de la portée de l’invention, telle que définie par les revendications qui suivent. De plus, différents aspects et caractéristiques décrits ci-dessus peuvent être mis en œuvre ensemble, ou séparément, ou bien substitués les uns aux autres, et l’ensemble des différentes combinaisons et sous-combinaisons des aspects et caractéristiques font partie de la portée de l’invention. En outre, il se peut que certains systèmes et équipements décrits ci-dessus n’incorporent pas la totalité des modules et fonctions décrits pour les modes de réalisation préférés.

Claims (14)

  1. Procédé de traitement de signal sonore, comprenant :
    obtenir au moins un signal sonore reçu sur un des deux côtés de la tête d’un utilisateur ;
    identifier dans le signal sonore au moins une composante de signal correspondant à une classe parmi une pluralité de classes sonores ;
    générer un premier signal de reproduction par traitement du signal sonore en fonction de la classe identifiée ; et
    émettre le premier signal de reproduction à destination de l’utilisateur.
  2. Procédé selon la revendication 1, dans lequel le traitement du signal sonore comprend au moins une opération de filtrage, le premier signal de reproduction comprenant le signal sonore filtré.
  3. Procédé selon la revendication 2, dans lequel le traitement du signal sonore comprend au moins une opération d’amplification ou de réduction d’amplitude sonore, le premier signal de reproduction comprenant le signal sonore respectivement amplifié ou réduit.
  4. Procédé selon l’une quelconque des revendications précédentes, dans lequel les classes de la pluralité de classes sonores comprennent l’une au moins parmi une classe d’alerte, une classe de conversation, une classe de parole ciblée et une classe de signature sonore de véhicule.
  5. Procédé selon l’une quelconque des revendications précédentes, dans lequel le premier signal de reproduction comprend le signal sonore émis vers au moins une oreille de l’utilisateur
  6. Procédé selon l’une quelconque des revendications précédentes, comprenant en outre : obtenir un signal de réponse représentant une réponse de l’utilisateur au premier signal de reproduction, générer un deuxième signal de reproduction sur la base du signal de réponse, et émettre le deuxième signal de reproduction à destination de l’utilisateur.
  7. Procédé selon l’une quelconque des revendications précédentes, dans lequel le premier signal de reproduction comprend un signal d’information superposé au signal sonore.
  8. Procédé selon l’un quelconque des revendications précédentes, dans lequel le traitement du signal sonore comprend une opération de transposition en fréquence d’une première gamme de fréquence du signal sonore vers une deuxième gamme de fréquence, le premier signal de reproduction comprenant le signal sonore transposé dans la deuxième gamme de fréquences.
  9. Dispositif comprenant un capteur acoustique, un haut-parleur, un émetteur et un récepteur de communication radiofréquences, une mémoire et un processeur configuré pour piloter le capteur acoustique, le haut-parleur, l’émetteur et le récepteur de communication radiofréquences et la mémoire pour la mise en œuvre de l’une quelconque des revendications de procédé 1 à 8.
  10. Dispositif selon la revendication 9, comprenant en outre un capteur d’accélération de mouvement.
  11. Dispositif selon l’une quelconque des revendications 9 et 10, comprenant en outre : un module de géolocalisation, un capteur de luminosité, et un capteur de proximité.
  12. Dispositif selon l’une quelconque des revendications 9 à 11 comprenant en outre un mécanisme de vibration.
  13. Système comprenant au moins un dispositif auditif selon l’une quelconque des revendications 9 à 12.
  14. Programme d’ordinateur, chargeable dans une mémoire associée à un processeur, et comprenant des portions de code pour la mise en œuvre des étapes d’un procédé selon l’une quelconque des revendications 1 à 8 lors de l’exécution dudit programme par le processeur.
FR1903700A 2019-04-05 2019-04-05 Système d’aide auditive Active FR3094859B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1903700A FR3094859B1 (fr) 2019-04-05 2019-04-05 Système d’aide auditive

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1903700A FR3094859B1 (fr) 2019-04-05 2019-04-05 Système d’aide auditive
FR1903700 2019-04-05

Publications (2)

Publication Number Publication Date
FR3094859A1 true FR3094859A1 (fr) 2020-10-09
FR3094859B1 FR3094859B1 (fr) 2021-10-29

Family

ID=67262719

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1903700A Active FR3094859B1 (fr) 2019-04-05 2019-04-05 Système d’aide auditive

Country Status (1)

Country Link
FR (1) FR3094859B1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050141736A1 (en) * 2003-12-01 2005-06-30 Bernd Beimel Hearing device and method of operating a hearing device
US7657047B2 (en) * 2004-08-02 2010-02-02 Siemens Audiologische Technik Gmbh Hearing aid with information signaling
US20110150256A1 (en) * 2008-05-30 2011-06-23 Phonak Ag Method for adapting sound in a hearing aid device by frequency modification and such a device
US20180247646A1 (en) * 2016-09-30 2018-08-30 Dolby Laboratories Licensing Corporation Context aware hearing optimization engine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050141736A1 (en) * 2003-12-01 2005-06-30 Bernd Beimel Hearing device and method of operating a hearing device
US7657047B2 (en) * 2004-08-02 2010-02-02 Siemens Audiologische Technik Gmbh Hearing aid with information signaling
US20110150256A1 (en) * 2008-05-30 2011-06-23 Phonak Ag Method for adapting sound in a hearing aid device by frequency modification and such a device
US20180247646A1 (en) * 2016-09-30 2018-08-30 Dolby Laboratories Licensing Corporation Context aware hearing optimization engine

Also Published As

Publication number Publication date
FR3094859B1 (fr) 2021-10-29

Similar Documents

Publication Publication Date Title
US11501772B2 (en) Context aware hearing optimization engine
US10448139B2 (en) Selective sound field environment processing system and method
US10817251B2 (en) Dynamic capability demonstration in wearable audio device
US11048472B2 (en) Dynamically adjustable sound parameters
US20160149547A1 (en) Automated audio adjustment
US9271077B2 (en) Method and system for directional enhancement of sound using small microphone arrays
US10750293B2 (en) Hearing augmentation systems and methods
US9703524B2 (en) Privacy protection in collective feedforward
US11126398B2 (en) Smart speaker
US10390155B2 (en) Hearing augmentation systems and methods
US10433074B2 (en) Hearing augmentation systems and methods
WO2022002110A1 (fr) Procédé et appareil de commande de mode, et dispositif terminal
US10284998B2 (en) Hearing augmentation systems and methods
US10922044B2 (en) Wearable audio device capability demonstration
US10275209B2 (en) Sharing of custom audio processing parameters
US10341791B2 (en) Hearing augmentation systems and methods
US10853025B2 (en) Sharing of custom audio processing parameters
CN116324969A (zh) 具有定位反馈的听力增强和可穿戴系统
EP3412036A1 (fr) Procédé d'aide au suivi d'une conversation pour personne malentendante
FR3094859A1 (fr) Système d’aide auditive
US10497368B2 (en) Transmitting audio to an identified recipient
US9678709B1 (en) Processing sound using collective feedforward
US20230229383A1 (en) Hearing augmentation and wearable system with localized feedback
US20230292061A1 (en) Hearing aid in-ear announcements
US11810588B2 (en) Audio source separation for audio devices

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20201009

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6