ES2887781T3 - Procedimiento y aparato de sustitución sensorial - Google Patents

Procedimiento y aparato de sustitución sensorial

Info

Publication number
ES2887781T3
ES2887781T3 ES19174486T ES19174486T ES2887781T3 ES 2887781 T3 ES2887781 T3 ES 2887781T3 ES 19174486 T ES19174486 T ES 19174486T ES 19174486 T ES19174486 T ES 19174486T ES 2887781 T3 ES2887781 T3 ES 2887781T3
Authority
ES
Spain
Prior art keywords
array
drive signals
audio signal
signal
coefficients
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19174486T
Other languages
English (en)
Inventor
Paul O'grady
Ross O'neill
Barak A Pearlmutter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Ireland Maynooth
Original Assignee
National University of Ireland Maynooth
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Ireland Maynooth filed Critical National University of Ireland Maynooth
Application granted granted Critical
Publication of ES2887781T3 publication Critical patent/ES2887781T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F11/00Methods or devices for treatment of the ears or hearing sense; Non-electric hearing aids; Methods or devices for enabling ear patients to achieve auditory perception through physiological senses other than hearing sense; Protective devices for the ears, carried on the body or in the hand
    • A61F11/04Methods or devices for enabling ear patients to achieve auditory perception through physiological senses other than hearing sense, e.g. through the touch sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/04Electrodes
    • A61N1/05Electrodes for implantation or insertion into the body, e.g. heart electrode
    • A61N1/0526Head electrodes
    • A61N1/0548Oral electrodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/36014External stimulators, e.g. with patch electrodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/46Special adaptations for use as contact microphones, e.g. on musical instrument, on stethoscope
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/60Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles
    • H04R25/604Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles of acoustic or vibrational transducers
    • H04R25/606Mounting or interconnection of hearing aid parts, e.g. inside tips, housings or to ossicles of acoustic or vibrational transducers acting directly on the eardrum, the ossicles or the skull, e.g. mastoid, tooth, maxillary or mandibular bone, or mechanically stimulating the cochlea, e.g. at the oval window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/75Electric tinnitus maskers providing an auditory perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0022Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the tactile sense, e.g. vibrations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2210/00Anatomical parts of the body
    • A61M2210/06Head
    • A61M2210/0625Mouth
    • A61M2210/0643Tongue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/3605Implantable neurostimulators for stimulating central or peripheral nerve system
    • A61N1/36128Control systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/025Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/13Hearing devices using bone conduction transducers

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Otolaryngology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Psychology (AREA)
  • Neurosurgery (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Anesthesiology (AREA)
  • Neurology (AREA)
  • Physiology (AREA)
  • Vascular Medicine (AREA)
  • Cardiology (AREA)
  • Multimedia (AREA)
  • Pain & Pain Management (AREA)
  • Hematology (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • User Interface Of Digital Computer (AREA)
  • Seasonings (AREA)
  • Percussion Or Vibration Massage (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Force Measurement Appropriate To Specific Purposes (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Un aparato configurado para usarse en el tratamiento de acúfenos, que comprende una unidad de procesamiento de sonido, una unidad de electroestimulación y una interfaz entremedias, en el que: dicha unidad de electroestimulación comprende una agrupación de estimuladores (16) electrocutáneos, cada uno de los cuales puede accionarse independientemente para aplicar un estímulo somatosensorial a un sujeto y una entrada para recibir una pluralidad de señales de accionamiento desde dicha interfaz y que dirige señales de accionamiento individuales a estimuladores individuales; y dicha unidad de procesamiento de sonido comprende: una entrada configurada para recibir una señal de audio; un procesador de señal digital operable para analizar dicha señal de audio y generar dicha pluralidad de señales de accionamiento representativas de dicha señal de audio dividiendo dicha señal de audio en una serie de tramas en el dominio de tiempo, realizando una transformada en cada trama para generar un conjunto de coeficientes que representan dicha trama y mapeando de manera tonotópica dicho conjunto de coeficientes en un conjunto de señales de accionamiento a aplicar a la agrupación, representando dicho conjunto de coeficientes la señal en el dominio de frecuencia, y en el que los coeficientes se mapean a las señales de accionamiento de manera que los coeficientes que representan frecuencias similares se mapean a señales de accionamiento dirigidas a estimuladores que están físicamente cerca entre sí en dicha agrupación; y una salida configurada para recibir dicha pluralidad de señales de accionamiento desde dicho procesador de señal digital y para proporcionar dicha pluralidad de señales de accionamiento a dicha interfaz.

Description

DESCRIPCIÓN
Procedimiento y aparato de sustitución sensorial
Campo técnico
La presente invención se refiere a procedimientos y aparatos para sustitución sensorial, con particular aplicación en el tratamiento de acúfenos.
Antecedentes de la técnica
Los acúfenos son un comportamiento neurológico anormal que surge de la pérdida de señal a través del oído. Aunque la causa precisa de los acúfenos no se entiende totalmente, ciertas analogías se emplean para describir las causas probables. Por ejemplo, se cree que los acúfenos se provocan a menudo por un impedimento auditivo físico tal como daños en los cabellos en la cóclea. En un intento por compensar la pérdida de información auditiva, el cerebro eleva la amplificación y las ganancias en bucles recurrentes hasta tal punto que se generan señales falsas, de manera similar en principio al ruido resonante que puede ocurrir cuando el volumen de un amplificador de audio en un auditorio se eleva demasiado alto. Como alternativa, se puede imaginar una bomba de agua eléctrica cuyo suministro de agua se limita súbitamente. La bomba oscila y vibra en intento desesperado por compensar la pérdida de entrada. Puede pensarse que los acúfenos surgen esencialmente a partir de los mismos tipos de mecanismos: pérdida de señal a través de los oídos que resulta en una actividad oscilatoria y espontánea incrementada en las neuronas asociadas en el cerebro. Esta actividad se percibe como un sonido ilusorio por el que lo sufre.
Los que sufren de acúfenos son significativamente más proclives a percibir un efecto posterior de audio ilusorio conocido como el tono Zwicker. El tono Zwicker se induce mediante la exposición del individuo a un ruido de espectro amplio (20 Hz - 20 KHz) con un hueco espectral (silencio) a una frecuencia arbitraria. Cuando el ruido se retira, el individuo percibe un "zumbido" a la frecuencia del hueco espectral. Esto sugiere que para compensar la sensibilidad coclear desigual por las frecuencias, el cerebro introduce sensibilidad dependiente de la frecuencia o ganancia similar en un "ecualizador gráfico" en un estéreo. A las frecuencias en que nuestra cóclea es menos sensible, el cerebro incrementa la ganancia en esa banda de frecuencia para compensar. En bandas de frecuencia donde la sensibilidad cae por debajo de un umbral mínimo, el cerebro incrementa la ganancia a niveles patológicos. Esto se manifiesta como ruido ilusorio, zumbido o incluso oscilación caótica, los efectos más comúnmente descritos de los acúfenos. Un número muy grande de tratamientos se han propuesto para los acúfenos, incluyendo radiocirugía, estimulación directa de los nervios auditivos, tratamientos farmacológicos, tratamientos psicológicos y tratamiento mediante la reproducción de sonidos externos al paciente. Aunque muchos de tales tratamientos proporcionan un alivio en algunos grupos de pacientes, actualmente no existe un tratamiento fiable para todos los pacientes, y la presente invención pretende proporcionar un enfoque alternativo adicional.
El documento US2009/306741 A se refiere a sistemas y procedimientos para gestión de funciones cerebrales y corporales y percepción sensorial. Por ejemplo, el documento US2009/306741 proporciona sistemas y procedimientos de sustitución sensorial y mejora sensorial (aumento) así como mejora del control motor.
El documento US2009/270673 A1 desvela procedimientos y sistemas para tratamiento de acúfenos donde un dispositivo se acopla a una superficie de un hueso o a un diente o varios dientes. Tal dispositivo puede comprender un aparato oral con un conjunto electrónico y/o de transductor para generar sonidos mediante un elemento transductor de vibración. En general, el transductor puede programarse para ajustar cualquier números de ajustes y opciones de tratamiento para generar una o más frecuencias de sonido mediante el transductor accionable para transmitir una señal de audio modificada mediante conductancia vibratoria a un oído interno del paciente para enmascarar los acúfenos. La señal de audio se modifica además para compensar cualquier pérdida auditiva del paciente así como un umbral de sensibilidad ósea medido desde el paciente y calibrado por el dispositivo de programación.
M. Gilligan, "Mutebutton (Video presentation of tinnitus treatment system)", (20101020), Vimeo, URL: http://vimeo.com/16020279, (20120120), XP002667771 [I] presenta una visión de conjunto de un sistema de tratamiento de acúfenos.
Divulgación de la invención
Se proporciona un aparato como se describe en este documento en referencia a la reivindicación 1 para el uso en el tratamiento de acúfenos, que comprende una unidad de procesamiento de sonido, una unidad de electroestimulación y una interfaz entremedias, en el que dicha unidad de electroestimulación comprende una agrupación de estimuladores (16) electrocutáneos, cada uno de los cuales puede accionarse independientemente para aplicar un estímulo táctil a un sujeto, y una entrada para recibir una pluralidad de señales de accionamiento desde dicha interfaz y que dirige señales de accionamiento individuales a estimuladores individuales; y dicha unidad de procesamiento de sonido comprende: una entrada configurada para recibir una señal de audio; un procesador (14) de señal digital operable para analizar dicha señal de audio y generar dicha pluralidad de señales de accionamiento representativas de dicha señal de audio al dividir dicha señal de audio en una serie de tramas en el dominio de tiempo, realizando una transformada en cada trama para generar un conjunto de coeficientes que representan dicha trama, y mapear de manera tonotópica dicho conjunto de coeficientes en un conjunto de señales de accionamiento a aplicar a la agrupación; y una salida configurada para recibir dicha pluralidad de señales de accionamiento desde dicho procesador de señal digital y proporcionar dicha pluralidad de señales de accionamiento a dicha interfaz, el aparato configurado además para enviar la señal de audio, enviándose dicha señal de audio de forma simultánea con la aplicación de las señales de accionamiento a la agrupación.
Preferentemente, dicho procesador de señal digital es operable además para generar dicha pluralidad de señales de accionamiento como una secuencia variable en el tiempo de patrones de agrupación de salida, en el que cada patrón de agrupación de salida comprende un conjunto de señales de accionamiento a aplicarse a la agrupación durante un periodo de tiempo discreto, representativas de una muestra de tiempo discreta de la señal de entrada. De acuerdo con una realización, dicho procesador de señal digital se programa para analizar dicha señal de audio dividiendo dicha señal de audio en una serie de tramas en el dominio de tiempo, realizando una transformada en cada trama para generar un conjunto de coeficientes que representan dicha trama y mapeando de manera tonotópica dicho conjunto de coeficientes a un conjunto de señales de accionamiento a aplicar en la agrupación. Dicha transformada realizada en cada trama se selecciona preferentemente desde una transformada de Fourier, una transformada de Fourier de tiempo corto (STFT), una transformada de ondículas, una transformada curvelet, una transformada gammatone y una transformada zak.
Más preferentemente, dicha transformada es una transformada de Fourier o una transformada de Fourier de tiempo corto, y en el que dicha señal se muestrea a un índice de muestreo de entre 4 kHz y 12 kHz, más preferentemente entre 6 kHz y 10 kHz, y más preferentemente aproximadamente 8 kHz.
Adecuadamente, dichas series variables en el tiempo de tramas puede superponerse entre sí.
El inicio de cada trama se desvía preferentemente del inicio de la trama precedente entre 10 y 20 ms, más preferentemente 12-18 ms y más preferentemente aproximadamente 16 ms.
El procesador se programa preferentemente para emplear una longitud de trama desde 18 a 164 ms, más preferentemente desde 50 a 150 ms y más preferentemente 64 a 128 ms.
El conjunto de coeficientes representa preferentemente la señal en el dominio de frecuencia y los coeficientes se mapean a las señales de accionamiento de manera que los coeficientes que representan frecuencias similares se mapean a señales de accionamiento dirigidas a estimuladores que están físicamente cerca entre sí en dicha agrupación.
Más preferentemente, los coeficientes que representan frecuencias cercanas se mapean a señales de accionamiento dirigidas a estimuladores que están físicamente adyacentes entre sí.
En realizaciones alternativas, el procesador de señal digital se programa para analizar dicha señal de audio mapeando segmentos sucesivos de dicha señal de audio a un conjunto de características seleccionadas desde un diccionario de dichas características.
La agrupación de estimuladores puede, por ejemplo, ser una disposición rectangular de m x n estimuladores regularmente separados, una disposición hexagonal de subagrupaciones hexagonales concéntricas o una disposición circular de subagrupaciones circulares concéntricas.
Preferentemente, dicho procesador es operable además para normalizar las magnitudes de las señales de accionamiento para que entren dentro de un intervalo predeterminado de intensidades de señal de accionamiento.
En realizaciones preferentes, dicha unidad táctil tiene la forma de un cuerpo dimensionado para colocarse en la lengua de un sujeto humano, y en el que cada estimulador tiene la forma de un electrodo que tiene una superficie redondeada que se proyecta desde dicho cuerpo.
Más preferentemente, la superficie redondeada de cada electrodo es generalmente hemisférica.
La realización preferente usa una agrupación de electrodos basada en lengua como un dispositivo de sustitución sensorial auditivo, por lo que la información de audio se presenta al cerebro mediante la estimulación táctil aplicada a la lengua. El sistema se compone de un dispositivo de representación electrotáctil inalámbrico y un ordenador de procesamiento de audio, que de manera inalámbrica transmite imágenes de estímulos electrotáctiles para representarse usando tecnología Bluetooth en el sistema de representación electrotáctil. Como alternativa, ambos componentes pueden combinarse en una única unidad para una portabilidad añadida. Además, el estímulo táctil generado mediante el sistema puede presentarse en cualquier superficie cutánea en el cuerpo para ese asunto.
Descripción detallada de realizaciones preferentes
En referencia a la Fig. 1 se indica, generalmente en 10, un aparato para tratar acúfenos, que comprende una o más de una pluralidad de fuentes 12 de entrada de audio, un módulo 14 de procesamiento de señal y una agrupación 16 electroestimuladora.
Las fuentes de audio pueden ser de cualquier tipo, y por motivos ilustrativos, la Fig. 1 muestra tres de tales opciones: una fuente 18 de audio de abordo, tal como un conjunto de archivos MP3 y un descodificador de audio integrado, un micrófono 20 para recibir señales de sonido ambiental o una conexión a una fuente 22 de audio externa, tal como una tarjeta de sonido de un ordenador. El sistema puede tener una pluralidad de tales fuentes, por ejemplo, una fuente de audio incorporada para el uso en sesiones de entrenamiento o de tratamiento activo, un micrófono para procesamiento de sonidos en el entorno externo del usuario y un conector hembra de entrada (p. ej., un conector hembra estándar de 3,5 mm) para la conexión a fuentes de audio externas. Otros procedimientos de entrada tal como un conector de iPod patentado, o un conector para otro reproductor MP3, o una entrada de audio óptica, también pueden proporcionarse (iPod es una marca registrada de Apple Inc. de Cupertino, California).
La Fig. 2 muestra una realización física de tal sistema, que comprende una carcasa 24 que contiene una fuente 18 de audio de abordo y un módulo 14 de procesamiento de señal (Fig. 1, no mostrado en la Fig. 2), una agrupación 16 electroestimuladora que tiene una agrupación de 16 x 16 electrodos en un sustrato dimensionado para colocarse en la lengua humana, una cinta 26 conectora que transporta 256 señales de accionamiento individuales desde la carcasa 24 a los electrodos individuales de la agrupación 16 y un cordón 28 para colgar la carcasa alrededor del cuello del sujeto.
En referencia ahora a la Fig. 3, la entrada de audio se procesa mediante el módulo 14 de procesamiento de señal de la Fig. 1, que produce el conjunto necesario de 256 señales de accionamiento para representar la entrada de audio. El módulo 14 de procesamiento de señal tiene los siguientes módulos funcionales, cada uno de los cuales se describirá a continuación en más detalle: una señal de entrada de audio x(t) recibida como una señal con muestreo de tiempo se somete al muestreo y estructuración 30, después a un procedimiento de descomposición de señal y análisis 32, proporcionando un conjunto de coeficientes o de símbolos representativos del sonido que se someten a una disposición espacial de coeficientes y modelado de receptor inverso 34, seguido por un escalado de valores de coeficientes y conversión de tipo 36 y un procedimiento de corrección y monitorización de recorte repetitivo 38.
Muestreo y estructuración
En referencia a la Fig. 4, el sistema recibe audio con muestreo de tiempo x(t). Los datos con muestreo de tiempo se disponen en pedazos conocidos como tramas en una función 40 de superposición y estructuración que forma parte de la función 30 de muestreo y estructuración de la Fig. 3. Se indica una única trama usando la notación de matriz como x, donde el siguiente procesamiento se aplica a cada trama individualmente, en oposición al procesamiento de todo el flujo de audio de una sola vez.
Como es típico en el análisis de audio, es necesario que el tamaño de trama especificado (es decir, la longitud de ventana de análisis) sea consistente con la duración de los objetos de audio contenidos en el audio en consideración; por ejemplo, fonemas de diálogo, notas musicales. El tamaño de trama, que se mide en las muestras y que se indica con N, depende del índice de muestreo y es típicamente una potencia de dos. Además, es aconsejable mejorar los efectos de límite de trama usando una función de ventana, y se especifica una función de ventana Hamming. Las tramas no se limitan a ser contiguas en el flujo de audio y pueden superponerse. Para esta realización se elige un índice de muestreo, fs, de 8000 Hz, que se corresponde con un ancho de banda de señal de 4000 Hz, que se conoce que captura suficiente información de frecuencia de manera que la señal reconstruida es inteligible como audio. Desde el análisis del corpus de diálogo TIMIT, que incluye tanto frases masculinas como femeninas, se usaron las siguientes estadísticas que pertenecen a una longitud de fonema como una guía para el tamaño de trama: Máxima longitud = 164 ms, longitud mínima = 18ms, longitud promedia = 81 ms, longitud media = 67 ms, y se tiene en mente un tamaño de trama de 512 (64 ms) o 1024 (128 ms) muestras de audio.
Una alternativa posible sería una realización de transmisión por secuencias no basada en tramas, en la que una sucesión de filtros no lineales extraen información deseada desde la forma de onda de audio de entrada con las características que se alinean con muestras o incluso se subalinean con muestras, en lugar de estar limitadas a o alinearse con límites de trama. En este escenario, N puede ser igual a una única muestra.
En el contexto del dispositivo de representación de agrupación electrotáctil, cada trama producirá una única “ imagen” de agrupación electrotáctil (o patrón de agrupación de salida), que va a representarse en el dispositivo. Las tramas consecutivas crean una secuencia de tales imágenes y es análogo a representar una película en una pantalla de televisión. Para este sistema, se usó una agrupación que contiene 16 x 16 electrodos, donde cada electrodo tiene un intervalo dinámico entre 0 a 255 niveles de tensión, que se corresponde con un tipo de datos char sin firma en el lenguaje de programación C. Como se ha analizado antes, el índice de muestreo depende en gran medida del ancho de banda de las señales en consideración. Sin embargo, el índice de actualización de la representación electrotáctil también tiene que considerarse: tomando una pantalla de televisión como un ejemplo, que explota la persistencia de la visión, si el índice de actualización es demasiado bajo existen saltos notables entre escenas. De manera similar, con la representación electrotáctil, si el índice de actualización es demasiado bajo puede haber una falta de continuidad entre imágenes consecutivas y la información presentada exhibirá saltos similares entre tramas. Al contrario, si el índice es demasiado alto, las tramas individuales consecutivas pueden percibirse como una debido a los límites de ancho de banda sensoriales de la lengua, y no obtendrán ningún beneficio. En resumen, existe una compensación entre la frecuencia de muestreo y el índice de actualización del dispositivo, que depende del tamaño de agrupación/imagen.
Para el sistema, se especifica un índice de trama de imagen (índice de actualización de visualización) de 62,5 tramas por segundo, que es consistente con la persistencia de visión, y se decide en un tamaño de trama de 512 muestras (aquí el tamaño de trama es dos veces el tamaño de la agrupación; a continuación, se analiza cómo 256 coeficientes se generan para la agrupación usando el espectrograma de magnitud).
Además, para lograr patrones de estímulo consistentes entre imágenes electrotáctiles consecutivas, la superposición de tramas es necesaria; donde las tramas de longitud N se superponen mediante muestras o, donde cada a = N-o muestras, la ventana de análisis se desliza para incluir las nuevas muestras, en cuyo punto una trama se procesa y una nueva imagen se genera y transmite al sistema de representación. Por tanto, el sistema de representación se actualiza cada número de a muestras, donde a representa un avance de trama (en oposición a la superposición).
Se especifica un índice de trama de 62,5 Hz, que en un índice de muestra de 8 kHz corresponde a una duración de 16 ms. Sin embargo, ya que el tamaño de la trama es de 64 ms de duración (por lo que los objetos de audio pueden capturarse), se superponen tramas como se recomienda anteriormente donde N = 512 y a = 128, lo que satisface la duración de índice de trama de 16 ms.
Finalmente, se resume usando la ilustración cuantitativa siguiente: se actualiza la agrupación a 62,5 Hz, y se desea incluir frecuencias de hasta 4000 Hz. Con esto como la frecuencia de Nyquist, esto implica un índice de muestreo de 8 kHz. Se usan tramas que contienen 4 actualizaciones, lo que significa que cada trama contiene:
4 actualizaciones/trama x 8000 muestras = 512 muestras/trama 62,5 actualizaciones
con tramas superpuestas por lo que una nueva trama se crea cada actualización, lo que en este caso sería cada 128 muestras.
Ya que el tamaño de las tramas es 512 y el tamaño de agrupación es 256 (se recuerda que una trama corresponde a una imagen de agrupación), se genera una representación de coeficiente 256 para representarse en la agrupación usando una descomposición de señal apropiada como se analiza a continuación.
Descomposición de Señal y Análisis
Desde la introducción de la teoría de la información a mediados del último siglo (Shannon, 1948), se ha sugerido que la redundancia de entradas sensoriales es importante para entender la percepción (Attneave, 1954; Barlow, 1959). La redundancia contenida en nuestros entornos es lo que permite que el cerebro aumente los modelos cognitivos del entorno a su alrededor (Barlow, 1961, 1989). Se piensa que las regularidades estadísticas en entradas sensoriales deben de alguna manera separarse de las redundancias y codificarse de una manera eficiente, y esto ha conducido a la hipótesis de Barlow, que afirma que el fin de cada procesamiento perceptual es transformar la entrada sensorial altamente redundante en un código factorial más eficiente, lo que puede mencionarse como la siguiente transformación de matriz,
Ecuación 1
S = Wx
donde W = [w1|...|wN] es un operador de matriz lineal NxN, x = [x1,...,xN] T es el vector de entrada sensorial y s = [s1,...,sN] T es la entrada codificada, donde los valores de W, s, x son números reales, es decir W, s, x son elementos de R.
Tal transformación se realiza mediante una operación de multiplicación de matriz-vector, y puede usarse en la sustitución sensorial auditiva, donde la x anterior corresponde a la trama, y s es la salida codificada, que va a representarse como tensiones en un sistema de representación electrotáctil.
En referencia a la Fig. 5, se descompone el flujo de audio (después del muestreo y estructuración) en la superposición de ondas básicas mediante Análisis de Armónicos. El tipo más común de Análisis de Armónicos es el análisis de Fourier mediante la transformada de Fourier de tiempo corto discreta (STFT), es decir, la descomposición de una señal en ondas sinusoidales, donde W corresponde a una base de Fourier en el dominio complejo, C, lo que produce un valor s elemento de C que se denomina sc. La función STFT se representa simbólicamente mediante la función 42 en la Fig. 5.
Para transformar los coeficientes, sc, a una forma adecuada para la representación en la agrupación electrotáctil, se emplea un espectrograma 44 de magnitud de los coeficientes STFT resultantes, y se representan esos valores. Una ventaja adicional de usar el espectrograma de magnitud es que los coeficientes resultantes, sn, no son negativos (es decir, se excluyen los valores negativos, s > 0);
Ecuación 2
Sn = mag(sc)
Los valores negativos no pueden representarse en la agrupación electrotáctil, ya que las tensiones de electrodos representan intensidad, y por tanto los coeficientes a representar en el dispositivo deben tener la forma Sn.
Ya que la STFT tiene como resultado valores simétricos, solo la primera mitad de la trama STFT se necesita para generar el espectrograma de magnitud, teniendo como resultado 256 coeficientes a representar en la agrupación, uno para cada electrodo.
Juntas, la función 42 STFT y la función 44 de espectrograma de magnitud proporcionan la función 32 de descomposición de señal generalizada mostrada en la Fig. 3.
Otras alternativas posibles incluyen las nociones generalizadas de análisis de Fourier tales como transformadas de Ondículas, transformadas Gammatone, transformadas Zak, transformadas Curvelet, etc., que también pueden usarse para representar audio en la agrupación electrotáctil sustituyendo W por las bases que definen estas transformadas.
Tal como se evidencia mediante los ensayos piloto con 20 pacientes de acúfenos (tal como se describe a continuación) usando el sistema de las Figs. 1 y 2, es evidente que con el paso del tiempo un sujeto aprende a asociar el estímulo (coeficientes de espectrograma de magnitud) presentado por la representación electrotáctil en la lengua con sonidos individuales. La premisa del tratamiento es que el córtex somatosensorial, que recibe la información táctil desde la lengua, tiene suficientes trayectorias al córtex auditivo para realizar esta correlación.
En el contexto del tratamiento de acúfenos, ya que el cerebro no tiene referencia externa para el entorno auditivo, se demuestra mediante los ensayos que proporcionar una referencia adicional para el entorno de audio por medio de sustitución sensorial auditiva permite que el cerebro recalibre los mecanismos compensativos a través de la plasticidad del cerebro, mejorando así el efecto de los acúfenos.
Disposición espacial de coeficientes
Ya que el audio es una señal de una dimensión y se desea representar en una agrupación electrotáctil de dos dimensiones, es necesario realizar una incrustación de los datos de una dimensión en un espacio en dos dimensiones. La salida desde la fase de descomposición de señal es también de una dimensión. Encontrar una topología apropiada es una tarea fuera de línea, donde la disposición resultante se representa mediante una matriz de permutación N x N. Durante el tiempo de ejecución, los coeficientes sn se recolocan mediante la realización de una multiplicación de matriz con la matriz de permutación,
Ecuación 3
Sn _ Psn
En el contexto de la descomposición de señal usando una base de Fourier, se disponen preferentemente los vectores de manera tonotópica, es decir, donde los componentes que están cerca entre sí en términos de frecuencia se colocan en proximidad entre sí en la agrupación. Donde (0,0) en la notación de matriz (izquierda superior) se corresponde con el componente de frecuencia más grande, mientras que (VN, (VN) (derecha inferior) se corresponde con el componente de frecuencia más bajo. Esencialmente, la trama se divide en Vn vectores, que después se usan para construir las filas de la matriz/imagen a representar en la agrupación electrotáctil.
Modelado receptor inverso y moldeo de señal
En referencia a las Figs. 3 y 6, después de la descomposición de señal y la disposición de coeficientes, puede ser necesario realizar un postprocesamiento de las activaciones de señal resultantes para moldearlas hasta una forma adecuada para que el audio pueda ser más fácilmente perceptible a través de la lengua, como se representa en 36. Por ejemplo, en el contexto de un postprocesamiento de audio, es a veces necesario comprimir el intervalo dinámico del audio (usando una función no lineal), que estrecha la diferencia entre niveles de audio altos y bajos, por lo que las señales silenciosas pueden oírse en entornos ruidosos. Puede ser necesario moldear las señales presentadas al sistema de representación electrotáctil de manera similar, para asegurarse de que la lengua es capaz de escuchar todas las señales en la descomposición de audio siguiente. En su nivel más básico, tal moldeo de señal realiza una amplificación del estímulo en un nivel por electrodo basándose en la sensibilidad de la lengua en esa región a tal estímulo.
Una consideración importante cuando se transforma el audio con muestreo de tiempo en otro dominio mediante la transformada de base (Ecuación 1) es que los coeficientes resultantes experimentan una expansión numérica, que es generalmente indeterminada. Por ejemplo, una entrada de audio se normaliza a entre -1 y 1 cuando viene desde la tarjeta de sonido. Sin embargo, una descomposición de señal de la onda puede producir valores que son mayores que este intervalo, y este comportamiento se denomina expansión numérica. Esto se representa en la Fig. 6 como ocurre entre la descomposición 32 de señal y la disposición 34 de coeficientes.
Por último, los coeficientes se representarán en la agrupación, donde cada electrodo tiene el intervalo dinámico de un tipo char sin firma (0 a 255). Para asegurar de que todos los coeficientes encajan dentro de este intervalo, es necesario realizar un escalado de los coeficientes, ya sea antes o después de la descomposición de señal, para que los coeficientes que se van a representar no tengan como resultado un recorte de la agrupación electrotáctil después de la conversión a un tipo char sin firma, es decir, los coeficientes a representar no superan el intervalo dinámico de los electrodos. Por tanto, el escalado/normalización, por ejemplo, s|j ^ s donde |j es el factor de escalado, se requiere para asegurar que los coeficientes que se representan en el dispositivo residen en el intervalo dinámico de la intensidad de tensión de electrodo.
El procesamiento de audio se realiza usando un número de punto flotante de doble precisión (8 bytes). Sin embargo, los electrodos en la agrupación pueden representar intensidades de tensión de 0-255 (1 byte), lo que se corresponde con un char sin firma. La monitorización de coeficiente y el escalado aseguran que los coeficientes (de tipo doble) residen en el intervalo 0->1, que después se convierten a char sin firma para la presentación en la agrupación multiplicando por 255. 0 arroja entonces la variable de coeficiente a un char sin firma. Este procedimiento se muestra de manera repetitiva entre los procedimientos 36 y 38, y se denomina "conversión de tipo" en 36.
El procedimiento típico es determinar un valor de escalado apropiado para la señal de una manera ad hoc, después monitorizar los valores de los coeficientes resultantes, s, disminuyendo el valor de j mediante una pequeña cantidad si ocurre recorte; el valor de escalado se establece rápidamente en un valor adecuado.
Además, los efectos perceptuales también necesitan considerarse. Por ejemplo, el estándar de compresión de audio MP3 es un procedimiento de compresión de audio con pérdidas donde los sonidos que son imperceptibles por el oído humano (debido la máscara perceptual de tales sonidos) se retiran del audio con poca diferencia perceptible desde el punto de vista del oyente. El estándar MP3 emplea un “modelo receptor inverso" donde las señales que el receptor (humano oído) no puede percibir se retiran mediante el códec MP3 con poca/ninguna degradación en la calidad de la señal perceptible. Tales efectos de enmascarado perceptual se exhibirán seguramente mediante el área del cuerpo a la que la agrupación táctil se aplica (p. ej., lengua) y pueden explotarse cuando se represente información en el sistema de representación electrotáctil.
Agrupación Electrotáctil
La agrupación de electrodo empleada en el dispositivo de la Fig. 2 usa estimuladores electrocutáneos hemisféricos que aseguran una densidad de corriente de la interfaz electrodo-piel homogénea. La electrostática dicta que la distribución de la carga sobre la superficie de un cuerpo cargado es mayor en las áreas de mayor curvatura de superficie. Esto se conoce comúnmente como el "efecto de borde". Los cuerpos cargados con bordes afilados experimentan un aumento de carga a lo largo de esos bordes. La mayoría de estimuladores electrocutáneos usan electrodos planos similares a discos. Las inspecciones microscópicas de estos electrodos revelan bordes afilados en el perímetro del electrodo. Se ha mostrado que estos bordes experimentan una distribución de corriente desigual en la interfaz de electrodo-piel durante la estimulación electrocutánea (Krasteva y Papazov, 2002). Esto afectará a la percepción cualitativa del estímulo y puede incluso causar dolor o quemazón de piel.
La Ley de Gauss para la resistencia del campo fuera de una esfera de radio R es
Ecuación 4
E = Q/4neR2
y la carga de densidad D (carga por unidad de área superficial) en una esfera de radio de R para una carga Q se escala de manera similar:
Ecuación 5
D = Q/4nR2
En esta configuración, estas ecuaciones significan que la resistencia de campo y la densidad de carga D son inversamente proporcionales al radio de electrodo R. Asumiendo la carga constante Q, esto implica que la resistencia de campo y la densidad de carga serán mayores en el punto de un alfiler que sobre la superficie de una esfera grande.
Esto implica, que para un tamaño de electrodo determinado, si se desea minimizar la resistencia de campo máxima, el electrodo debería ser hemisférico.
La densidad de corriente se proporciona por la ecuación:
Ecuación 6
J(r,t) = qn(r,t)vd(r,t)
donde J(r, t) es el vector de densidad de corriente en la ubicación r en el momento t (amperios de unidad SI por metro cuadrado). n (r,t) es la densidad de partículas en un recuento por volumen en la ubicación r en el momento t (unidad SI m-3) es la carga de las partículas individuales con densidad n (unidad SI: Culombios). Se emplea un estimulador electrocutáneo hemisférico con un radio uniforme y una curvatura de superficie que asegurarán una densidad de corriente homogénea en la interfaz de electrodo-piel, reduciendo así el riesgo de concentraciones de corriente dañinas.
Una agrupación de electrodo hexagonal distribuida de manera uniforme consiste en agrupaciones hexagonales concéntricas con electrodos distribuidos uniformemente. El número de electrodos e se proporciona mediante la siguiente ecuación:
k
e = l £ e » = l+3*(¡t l) = 3iT 3* l
ji= i
donde k es el número de agrupaciones hexagonales concéntricas en la agrupación alrededor del electrodo central. La ventaja de esta agrupación es que la separación entre electrodos es uniforme por toda agrupación.
Ensayos piloto
Se inscribió a 20 participantes para tomar parte en un ensayo de cuatro semanas de un dispositivo de tratamiento que presentó simultáneamente sonido en las modalidades de escucha y tacto. La música que se reprodujo al usuario a través de auriculares se descompuso simultáneamente en ondas constituyentes (usando el procedimiento de transformada STFT antes descrito) que se codificaron en patrones táctiles y se presentaron al usuario a través de un sensor electrotáctil intraoral colocado en la lengua.
El tratamiento se proporcionó a 12 varones y 8 mujeres con una edad promedia de 48 ± 22 años con acúfenos permanentes (síntomas persistentes >6 meses) debido a pérdida de escucha relacionada con ruido y/o la edad. Los participantes no recibieron ningún otro tratamiento para su pérdida de escucha o acúfenos.
El régimen del tratamiento consistía en el uso del dispositivo durante 30 minutos por la mañana y de nuevo por la tarde. En cada sesión de tratamiento, los participantes escucharon 30 minutos de música prescrita en los auriculares, mientras simultáneamente sentían las representaciones táctiles de la música en la lengua.
Los participantes fueron evaluados antes y después de la intervención usando el Tinnitus Handicap Inventory (THI) [véase C. W. Newman et al., Arch Otolaryngol Head Neck Surg., volumen 122, páginas 143-148, 1996; y A. McCombe et al., Clin Otolaryngol, volumen 26, páginas 388-393, 1999], y usando el Tinnitus Reaction Questionnaire (TRQ) [véase P. H. Wilson el al., Journal of Speech and Hearing Research, volumen 34, páginas 197-201, 1991.]. El Tinnitus Handicap Inventory es una medida de discapacidad de acúfenos de autoinforme que cuantifica el impacto de 25 aspectos de acúfenos en la vida diaria. El THI categoriza las puntuaciones de inventario en 5 grados de severidad: Grado 1: Ligero, 2: Medio, 3: Moderado, 4: Severo y 5: Catastrófico. La medida THI de preintervención se usó para evaluar el impacto de acúfenos en el participante en el periodo de cuatro semanas antes del comienzo del estudio. La medida después de la intervención se usó para evaluar el impacto de los acúfenos en el participante en el periodo de cuatro semanas desde que el participante recibió el tratamiento.
El Tinnitus Reaction Questionnaire es una medida de reacción de acúfenos de autoinforme que evalúa 26 aspectos de acúfenos en la calidad de vida. Una puntuación TRQ de 16 o más se considera clínicamente significativa. La medida TRQ de antes de la intervención se usó para evaluar el impacto de acúfenos en el participante en el periodo de una semana antes del comienzo del estudio. La medida después de la intervención se usó para evaluar el impacto de acúfenos en el participante en el periodo de una semana después de completar del estudio.
Además del THI y el TRQ, a los participantes se les pidió que describieran cualquier cambio sintomático y que dijeran si los síntomas habían Desaparecido/ Mejorado mucho/ Mejorado/ No habían cambiado/ Estaban peor/ Mucho peor.
Conformidad del participante: de los 20 participantes reclutados para el estudio, 17 completaron con éxito las cuatro semanas de tratamiento.
Más del 60 % de los participantes que completaron el tratamiento de cuatro semanas informaron de que sus síntomas habían “Mejorado” o “Mejorado mucho”.
Casi el 60 % de los participantes registraron una reducción de un grado o más en sus puntuaciones THI.
Casi el 90 % de los participantes registraron una mejora en la puntuación TRQ, con el 65 % registrando mejoras mayores del 20 %. El 30 % de los participantes pasó de puntuaciones TRQ clínicamente significativas entre (>16) a puntuaciones TRQ clínicamente no significativas (<16).
Posibles descomposiciones de señal alternativas
Ya que la premisa para esta etapa de descomposición de señal se basa en la noción general de explotar la redundancia en entradas sensoriales, la descomposición de señal no se limita al análisis de armónicos debido al hecho de que muchas suposiciones diferentes pueden usarse para lograr la Ecuación 1. En las siguientes secciones se describen las posibles alternativas para esta etapa.
Aunque el procedimiento de análisis de armónicos es extremadamente útil, es posible construir representaciones más parsimoniosas usando características (que se llaman diccionario de señales o vectores de base) que se aprenden a partir de un corpus de datos. Tales procedimientos parsimoniosos o escasos crean representaciones con menos coeficientes activos y producen mejores imágenes que pueden representarse en la agrupación. Las representaciones parsimoniosas son comunes en el procesamiento/análisis de señal y se usan típicamente para hacer que una señal sea compresible, por ejemplo, las Transformaciones de Coseno Discretas se usan en compresión de vídeo MPEG.
La etapa de aprendizaje se realiza fuera de línea, es decir a priori, mientras que la descomposición del flujo de audio de entrada (encaje) con el diccionario descubierto se realiza en tiempo real. A continuación, se señala un número de tales enfoques que pueden usarse para construir un diccionario de señales que se sintoniza con un corpus de sonido, por ejemplo, diálogo.
Cuando las señales de diccionario se aprenden, es necesario aplicar el procedimiento elegido en algunos datos de entrenamiento (p. ej., diálogo, música, audio en entornos diferentes, etc.) fuera de línea, donde los datos del entrenamiento se muestrean y se pasan por tramas usando el mismo esquema descrito anteriormente, sin embargo, una secuencia de K tramas se consideraron a la vez y se usa X = [x1|...|xK] para indicar la matriz de datos de entrenamiento. El diccionario de señal resultante, W, produce codificaciones, s, que se optimizan para los datos de entrenamiento, que pueden usarse para producir codificaciones óptimas para estos tipos de datos, siempre que K sea suficientemente grande. Por ejemplo, cuando se escucha música en un evento exterior, es útil usar un diccionario de señales que se aprende a partir de registros de eventos de música exterior (en oposición a por ejemplo música de ballena) para lograr una codificación parsimoniosa.
En la Ecuación 1, W se construye a partir de este diccionario de señal precalculado y cuando el sonido se presenta en el sistema, se codifica usando esta matriz de diccionario. Los coeficientes de las codificaciones resultantes, s1, ..., sN, se organizan topológicamente dependiendo del mismo criterio (p. ej., dependencias mutuas entre s1, ... , sN) y se representan en el sistema de representación electrotáctil. Tal organización es similar a la organización tonotópica de receptores auditivos en el córtex auditivo. De esta manera, el sistema realiza la codificación perceptual de modalidad disfuncional.
Los siguientes procedimientos aprenden W a partir de un corpus de datos, X, de una manera fuera de línea, x se proyectan posteriormente sobre el diccionario de señales fijo W mediante una transformada lineal (Ecuación 1) en tiempo real cuando el sistema es operativo.
Análisis de componente principal
El Análisis de Componente Principal (PCA) (Pearson, 1901) (también conocido como la transformada de Karhunen-Lo'eve o la transformada de Hotelling) es una técnica para la reducción de dimensionalidad de datos multivariantes, X es una multivariada, que retiene las características de los datos que contribuyen en gran medida a su varianza estadística. PCA es una transformación lineal que no tiene un conjunto fijo de vectores básicos (a diferencia de la Transformada de Fourier, por ejemplo). En su lugar, el PCA transforma los datos de entrenamiento X en un sistema de coordenadas ortogonal que se corresponde con las direcciones de la varianza de datos. Los vectores que definen las direcciones de varianza, [w1|...| wN], se conocen como los componentes principales de los datos:
Ecuación 7
Xx = WAW-1
donde Xx = (XXT) es la matriz de covarianza de X y la entrada a la fase de aprendizaje. Después del aprendizaje, es decir, Xx se ha diagonalizado en la forma de la Ecuación 7, W contiene los eigen vectores (componentes principales) de Xx y la matriz diagonal A contiene sus eigen valores asociados Ai...AN. Durante el tiempo de ejecución, cuando una trama x , desde la misma clase de datos de audio, se proyecta en W (Ecuación 1), entonces las variantes de s, s1, ...sN, son (aproximadamente) descorrelacionadas, es decir, la matriz de correlación para s es una matriz diagonal. De esta manera, los componentes descorrelacionados del sonido pueden representarse en el dispositivo.
Análisis de componente independiente
El Análisis de Componente Independiente (ICA) (Comon, 1994) abarca un intervalo de procedimientos para la separación de datos multivariantes en componentes independientes estadísticamente. Inspirado por la hipótesis de Barlow, (Atick y Redlich, 1990) se postuló el principio de redundancia mínima, que propone un modelo que utiliza tal procedimiento como el mecanismo para lograr un código eficiente. El ICA proporciona un operador de matriz lineal, W, (que se aprende a partir de datos de entrenamiento X) que factoriza la distribución de probabilidad conjunta de s en componentes independientes,
Ecuación 8
n
P(s) = P(sl,...,sN) = Y lP (s ¡)
í =1
y se soluciona generalmente como un problema de optimización, donde W se descubre maximizando alguna medida de independencia. Tales medidas incluyen información mutua (Comon, 1994), entropía (Bell y Sejnowski, 1995), no gaussianidad (Hyvarinen y Oja, 1997) y escasez (Zibulevsky y Pearlmutter, 2001). Al usar un diccionario de señales, W, construido por ICA en la Ecuación 1, es posible representar los componentes estadísticamente independientes del sonido, lo que produce codificaciones que son tanto descorrelacionadas como mutuamente independientes.
Factorización de matriz no-negativa
(NMF) es una factorización aproximativa de bajo rango no negativa lineal para la descomposición de datos multivariantes (Lee y Seung, 2001; Paatero y Tapper, 1994). NMF es un enfoque basado en porciones que no realizan ninguna suposición estadística sobre los datos. En su lugar, se asume que para el dominio en cuestión, por ejemplo, imágenes en escala de grises, los números negativos son físicamente insignificantes. Los componentes negativos no tienen representación en el mundo real en un contexto de imagen de escala de grises, lo que conduce a una limitación de que la búsqueda para W debería confinarse a valores no negativos, es decir, valores mayores que e incluyendo cero. Los datos que contienen componentes negativos, por ejemplo, sonido, deben transformarse a un formato no negativo antes de que pueda aplicarse NMF. Normalmente, el espectrograma de magnitud se usa para este fin, donde los datos de entrenamiento X también sufren el procedimiento de espectrograma de magnitud como se ha señalado antes. Normalmente, NMF puede interpretarse como
Ecuación 9
Figure imgf000010_0001
donde A = W-1 es una matriz N x R con R < N, de manera que el error de reconstrucción se minimiza. Los factores A y S se aprenden a partir de los datos de entrenamiento X usando reglas de actualización multiplicativas (Lee y Seung, 2001), donde A contiene las características de los datos y S sus activaciones, que se descartan después de la etapa de aprendizaje. Las codificaciones NMF no son negativas y de esta manera están fácilmente disponibles para la representación, mientras que las codificaciones producidas por PCA e ICA pueden incluir componentes negativos, lo que requiere una transformada no lineal adicional (p. ej., valor absoluto) antes de que puedan representarse.
Durante el tiempo de ejecución, cada trama x tiene como resultado sn al realizar la siguiente optimización,
Ecuación 10
Figure imgf000010_0002
Descomposición sobrecompleta escasa
En la Ecuación 1, el diccionario en el que el sonido de entrada x se descompone, es decir, las columnas de W-1, tiene un tamaño igual a (o menor que) la dimensionalidad N de x. Tal como se analiza, puede ser aconsejable que la descomposición de x sea escasa, lo que significa que se exprese en términos de un pequeño número de elementos de diccionario, lo que se corresponde en este caso con el vector de s, que es escaso. Si la distribución desde la que x se extrae es suficientemente rica, esto puede ser imposible con cualquier diccionario solo con N elementos.
Como alternativa, se puede usar un diccionario sobrecompleto, lo que significa que tiene más de N elementos, es decir, el diccionario de señal es una matriz gorda. Si el diccionario se coloca en las columnas de una matriz D, entonces esto se corresponde con encontrar un vector s que es escaso, y que también satisface la ecuación menos limitada Ds “ x.
Hasta este punto se ha descrito, usando la Ecuación 1, la transformación de x usando el diccionario de señales. Ahora se especifica un diccionario de señales sobrecompleto D, donde la transformación usando la Ecuación 1 no es posible ya que la Ecuación está menos limitada para D, y por tanto, se usa la Ecuación de optimización 11 a continuación para lograr la transformación.
Existen una variedad de algoritmos para encontrar tal vector s, el más prominente de los cuales es la descomposición L1, en la que una s se encuentra, cuyos elementos con una suma mínima de valores absolutos se somete a la anterior condición donde “ se hace concreta como error al cuadrado, teniendo como resultado:
Ecuación 11
M
m ináis, I X||Ds - x||“ S 1=0
donde A es una constante que compensa la escasez de s contra la fidelidad de la representación de x.
Justo como en el caso para W en la Ecuación 1, el diccionario D puede encontrarse mediante una variedad de medios, incluyendo PCA, ICA, NMF y variantes de los mismos, tal como un ICA sobrecompleto y una NMF convolutiva escasa (O'Grady y Pearlmutter, 2008).
Además, es posible combinar diccionarios de señales que se entrenan sobre diferentes datos y construyen un diccionario sobrecompleto. Por ejemplo, usando ICA se pueden construir dos diccionarios de señales con las mismas dimensiones que W para el diálogo, donde uno se sintoniza con el diálogo varón, que se denomina M, y el otro se sintoniza con el diálogo de mujer, que se denomina F. Se pueden combinar entonces ambos para construir D, donde D = [M|F]. La ventaja de esto es que cuando el diálogo varón se captura en el flujo de audio, la porción M de D es la más activa aportando representaciones escasas y viceversa.
Como se mencionó antes, los electrodos de la representación electrotáctil representan intensidad y por tanto los coeficientes a representar en el dispositivo, sn, no deben ser negativos. Para los procedimientos alternativos antes descritos, con la excepción de NMF y el espectrograma de magnitud, es necesario pasar los coeficientes resultantes, s, a través de una no linealidad que produce solo valores no negativos en la salida. Se usa el valor absoluto de s para generar sn,
Ecuación 12
Sn = abs(s)
Para representar elementos de diccionario que describen la señal de audio en una agrupación en dos dimensiones, los elementos de diccionario usados para descomponer la señal, que son de longitud N, pueden pensarse como puntos en el espacio N, con diferentes distancias entre cada vector. Es posible incrustar estos vectores multidimensionales en un espacio en dos dimensiones, y por tanto lograr una disposición en dos dimensiones, usando procedimientos tales como la Incrustación Lineal Localmente o el Escalado multidimensional. Estos procedimientos requieren una medida de distancia (o divergencia), que puede determinarse ya sea directamente desde los elementos de diccionario o usando estadísticas de sus propiedades de respuesta. Esto significaría explotar las estadísticas de estos vectores, disponiendo así vectores que tienen estadísticas similares tal como correlación cruzada, entropía relativa, dependencia mutua, etc., en proximidad cercana.

Claims (14)

REIVINDICACIONES
1. Un aparato configurado para usarse en el tratamiento de acúfenos, que comprende una unidad de procesamiento de sonido, una unidad de electroestimulación y una interfaz entremedias, en el que:
dicha unidad de electroestimulación comprende una agrupación de estimuladores (16) electrocutáneos, cada uno de los cuales puede accionarse independientemente para aplicar un estímulo somatosensorial a un sujeto y una entrada para recibir una pluralidad de señales de accionamiento desde dicha interfaz y que dirige señales de accionamiento individuales a estimuladores individuales; y
dicha unidad de procesamiento de sonido comprende:
una entrada configurada para recibir una señal de audio;
un procesador de señal digital operable para analizar dicha señal de audio y generar dicha pluralidad de señales de accionamiento representativas de dicha señal de audio dividiendo dicha señal de audio en una serie de tramas en el dominio de tiempo, realizando una transformada en cada trama para generar un conjunto de coeficientes que representan dicha trama y mapeando de manera tonotópica dicho conjunto de coeficientes en un conjunto de señales de accionamiento a aplicar a la agrupación, representando dicho conjunto de coeficientes la señal en el dominio de frecuencia, y
en el que los coeficientes se mapean a las señales de accionamiento de manera que los coeficientes que representan frecuencias similares se mapean a señales de accionamiento dirigidas a estimuladores que están físicamente cerca entre sí en dicha agrupación; y
una salida configurada para recibir dicha pluralidad de señales de accionamiento desde dicho procesador de señal digital y para proporcionar dicha pluralidad de señales de accionamiento a dicha interfaz.
2. Un aparato de acuerdo con la reivindicación 1, en el que dicho procesador de señal es operable además para generar dicha pluralidad de señales de accionamiento como una secuencia variable en el tiempo de patrones de agrupación de salida, en el que cada patrón de agrupación de salida comprende un conjunto de señales de accionamiento a aplicar en la agrupación durante un periodo de tiempo discreto, representativo de una muestra de tiempo discreta de la señal de entrada.
3. Un aparato de acuerdo con la reivindicación 1 o 2, en el que dicha transformada realizada en cada trama se selecciona a partir de una transformada de fourier, una transformada de fourier de tiempo corto (STFT), una transformada de ondículas, una transformada curvelet, una transformada gammatone y una transformada zak.
4. Un aparato de acuerdo con la reivindicación 3, en el que dicha transformada es una transformada de fourier o transformada de fourier de tiempo corto, y en el que dicha señal se muestrea en un índice de muestreo de entre 4 kHz y 12 kHz, más preferentemente entre 6 kHz y 10 KHz, y más preferentemente aproximadamente 8 kHz.
5. Un aparato de acuerdo con cualquiera de las reivindicaciones 1a 4, en el que dichas series variables en el tiempo de tramas se superponen entre sí.
6. Un aparato de acuerdo con cualquiera de las reivindicaciones 1a 5, en el que el inicio de cada trama se desvía del inicio de la trama precedente por entre 10 y 20 ms, más preferentemente entre 12-18 ms, y más preferentemente aproximadamente 16 ms.
7. Un aparato de acuerdo con cualquiera de las reivindicaciones 1 a 6, en el que dicho procesador se programa para emplear una longitud de trama desde 18 a 164 ms, más preferentemente desde 50 a 150 ms, y más preferentemente 64 o 128 ms.
8. Un aparato de acuerdo con las reivindicaciones 1 a 7, en el que los coeficientes que representan frecuencias cercanas se mapean a señales de accionamiento dirigidas a estimuladores que son físicamente adyacentes entre sí.
9. Un aparato de acuerdo con la reivindicación 1 o la reivindicación 2, en el que dicho procesador de señal se programa para analizar dicha señal de audio mapeando segmentos sucesivos de dicha señal de audio a un conjunto de características seleccionadas desde un diccionario de dichas características.
10. Un aparato de acuerdo con cualquier reivindicación anterior, en el que dicha agrupación de estimuladores es una disposición rectangular de m x n estimuladores separados regularmente o en el que dicha agrupación de estimuladores es una disposición hexagonal de subagrupaciones hexagonales concéntricas o una disposición circular de subagrupaciones circulares concéntricas.
11. Un aparato de acuerdo con cualquier reivindicación anterior, en el que dicho procesador es operable además para normalizar las magnitudes de las señales de accionamiento para que entren dentro de un intervalo predeterminado de intensidades de señal de accionamiento.
12. Un aparato de acuerdo con cualquier reivindicación anterior, en el que dicha unidad de electroestimulación tiene la forma de un cuerpo dimensionado para colocarse en la lengua de un sujeto humano, y en el que cada estimulador tiene la forma de un electrodo que tiene una superficie redondeada que se proyecta desde dicho cuerpo.
13. El aparato de acuerdo con cualquier reivindicación anterior que comprende, además, un medio de salida de audio para enviar la señal de audio, enviándose dicha señal de audio de forma simultánea con las señales de accionamiento aplicadas a la agrupación.
14. Un procedimiento para convertir una señal de audio en una pluralidad de señales de accionamiento para la posterior transmisión a una agrupación de estimuladores electrocutáneos, caracterizado porque el procedimiento comprende las etapas de
recibir una señal de audio;
analizar dicha señal de audio y generar dicha pluralidad de señales de accionamiento representativas de dicha señal de audio como una secuencia variable en el tiempo de patrones de agrupación de salida dividiendo dicha señal de audio en una serie de tramas en el dominio de tiempo, realizando una transformada en cada trama para generar un conjunto de coeficientes que representan dicha trama, y mapeando de manera tonotópica dicho conjunto de coeficientes en un conjunto de señales de accionamiento a aplicar a la agrupación, representando dicho conjunto de coeficientes la señal en el dominio de frecuencia, y en el que los coeficientes se mapean a las señales de accionamiento de manera que los coeficientes que representan frecuencias similares se mapean a señales de accionamiento dirigidas a estimuladores que están físicamente cerca entre sí y dicha agrupación; y enviar dicha pluralidad de señales de accionamiento para la transmisión a dicha agrupación de estimuladores electrocutáneos.
ES19174486T 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial Active ES2887781T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IES20100739 2010-11-23

Publications (1)

Publication Number Publication Date
ES2887781T3 true ES2887781T3 (es) 2021-12-27

Family

ID=45217513

Family Applications (3)

Application Number Title Priority Date Filing Date
ES11793370.5T Active ES2628356T3 (es) 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial
ES17162598T Active ES2741303T3 (es) 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial
ES19174486T Active ES2887781T3 (es) 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES11793370.5T Active ES2628356T3 (es) 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial
ES17162598T Active ES2741303T3 (es) 2010-11-23 2011-11-21 Procedimiento y aparato de sustitución sensorial

Country Status (13)

Country Link
US (3) US9124979B2 (es)
EP (3) EP3574951B1 (es)
CY (1) CY1119801T1 (es)
DK (3) DK3245990T3 (es)
ES (3) ES2628356T3 (es)
HR (1) HRP20170881T1 (es)
HU (2) HUE055666T2 (es)
LT (1) LT2658491T (es)
PL (2) PL2658491T3 (es)
PT (2) PT2658491T (es)
RS (1) RS56031B1 (es)
SI (2) SI3574951T1 (es)
WO (1) WO2012069429A1 (es)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2675330T3 (es) 2013-03-15 2018-07-10 The Regents Of The University Of Michigan Estimulación auditiva-somatosensorial personalizada para el tratamiento de acúfenos
EP2842530B1 (en) * 2013-08-30 2021-09-29 Neuromod Devices Limited Method and system for generation of customised sensory stimulus
EP3170479B1 (en) 2015-11-17 2021-05-05 Neuromod Devices Limited An apparatus and method for treating a neurological disorder of the auditory system
US9669159B2 (en) 2014-04-03 2017-06-06 Colorado State University Research Foundation Tongue stimulation for communication of information to a user
AU2014210579B2 (en) * 2014-07-09 2019-10-10 Baylor College Of Medicine Providing information to a user through somatosensory feedback
US9656060B2 (en) 2014-12-03 2017-05-23 Neurohabilitation Corporation Methods of manufacturing devices for the neurorehabilitation of a patient
US9993640B2 (en) 2014-12-03 2018-06-12 Neurohabilitation Corporation Devices for delivering non-invasive neuromodulation to a patient
US9616222B2 (en) 2014-12-03 2017-04-11 Neurohabilitation Corporation Systems for providing non-invasive neurorehabilitation of a patient
US10073523B2 (en) 2014-12-23 2018-09-11 Immersion Corporation Position control of a user input element associated with a haptic output device
GB201609448D0 (en) 2015-09-10 2016-07-13 Obl S A Medical device
US10893371B2 (en) * 2015-11-17 2021-01-12 Neuromod Devices Limited Apparatus and method for treating a neurological disorder of the auditory system
CN105411535B (zh) * 2016-01-06 2018-03-02 四川微迪数字技术有限公司 一种采用位置定位技术评估耳鸣治疗效果的装置及方法
EP3509549A4 (en) 2016-09-06 2020-04-01 Neosensory, Inc. METHOD AND SYSTEM FOR PROVIDING ADDITIONAL SENSORY INFORMATION TO A USER
US10181331B2 (en) 2017-02-16 2019-01-15 Neosensory, Inc. Method and system for transforming language inputs into haptic outputs
US10744058B2 (en) 2017-04-20 2020-08-18 Neosensory, Inc. Method and system for providing information to a user
WO2021062276A1 (en) 2019-09-25 2021-04-01 Neosensory, Inc. System and method for haptic stimulation
US11467668B2 (en) 2019-10-21 2022-10-11 Neosensory, Inc. System and method for representing virtual object information with haptic stimulation
WO2021142162A1 (en) 2020-01-07 2021-07-15 Neosensory, Inc. Method and system for haptic stimulation
US11497675B2 (en) 2020-10-23 2022-11-15 Neosensory, Inc. Method and system for multimodal stimulation
EP4197587A1 (en) 2021-12-17 2023-06-21 CereGate GmbH Auditory neural interface device
WO2022207910A1 (en) * 2021-04-01 2022-10-06 CereGate GmbH Balance prosthesis and auditory interface device and computer program
US11862147B2 (en) 2021-08-13 2024-01-02 Neosensory, Inc. Method and system for enhancing the intelligibility of information for a user
US11995240B2 (en) 2021-11-16 2024-05-28 Neosensory, Inc. Method and system for conveying digital texture information to a user
WO2024068005A1 (en) 2022-09-30 2024-04-04 CereGate GmbH Tinnitus suppression device, system and computer program

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE59607724D1 (de) 1996-07-09 2001-10-25 Siemens Audiologische Technik Programmierbares Hörgerät
WO1999007302A1 (en) 1997-08-07 1999-02-18 Natan Bauman Apparatus and method for an auditory stimulator
US6735315B1 (en) * 1997-09-08 2004-05-11 Densi, Inc. Electric artificial larynx
JP3643033B2 (ja) * 1998-02-06 2005-04-27 ウイスコンシン アラムナイ リサーチ フオンデーシヨン 舌に配置される触覚出力装置
AUPP927599A0 (en) 1999-03-17 1999-04-15 Curtin University Of Technology Tinnitus rehabilitation device and method
DE19915846C1 (de) * 1999-04-08 2000-08-31 Implex Hear Tech Ag Mindestens teilweise implantierbares System zur Rehabilitation einer Hörstörung
US6259951B1 (en) * 1999-05-14 2001-07-10 Advanced Bionics Corporation Implantable cochlear stimulator system incorporating combination electrode/transducer
DE19960014B4 (de) * 1999-12-13 2004-02-19 Trinkel, Marian, Dipl.-Ing. Vorrichtung zur Bestimmung und Charakterisierung von durch Zerkleinern von Lebensmitteln erzeugten Geräuschen
DE10046938A1 (de) * 2000-09-21 2002-04-25 Implex Ag Hearing Technology I Mindestens teilimplantierbares Hörsystem mit direkter mechanischer Stimulation eines lymphatischen Raums des Innenohres
WO2002062264A2 (en) 2001-02-05 2002-08-15 Regents Of The University Of California Eeg feedback controlled sound therapy for tinnitus
JP4290992B2 (ja) * 2001-04-06 2009-07-08 コクレア リミテッド 骨内膜電極
US7922671B2 (en) 2002-01-30 2011-04-12 Natus Medical Incorporated Method and apparatus for automatic non-cooperative frequency specific assessment of hearing impairment and fitting of hearing aids
US20070050212A1 (en) 2005-08-05 2007-03-01 Neurotone, Inc. Secure telerehabilitation system and method of use
DK1955575T3 (da) 2005-11-14 2012-10-29 Audiofusion Inc Apparat, systemer og fremgangsmåder til lindring af tinnitus, hyperakucis og/eller høretab
US8273034B2 (en) * 2006-04-17 2012-09-25 Natural Selection, Inc. Method and device for tinnitus masking
US8088077B2 (en) 2006-05-16 2012-01-03 Board Of Trustees Of Southern Illinois University Tinnitus testing device and method
WO2008052166A2 (en) * 2006-10-26 2008-05-02 Wicab, Inc. Systems and methods for altering brain and body functions an treating conditions and diseases
US20110040205A1 (en) 2007-11-09 2011-02-17 The City University Treatment for Alleviating Tinnitus and Hyperacusis with Auditory Stimulation by Compensating for Hearing Loss and Loss of Non-Linear Compressions
US20090270673A1 (en) * 2008-04-25 2009-10-29 Sonitus Medical, Inc. Methods and systems for tinnitus treatment
US20110218593A1 (en) * 2008-09-05 2011-09-08 Silere Medical Technology, Inc. Systems, devices and methods for the treatment of tinnitus
US20100208631A1 (en) * 2009-02-17 2010-08-19 The Regents Of The University Of California Inaudible methods, apparatus and systems for jointly transmitting and processing, analog-digital information
US20100318007A1 (en) * 2009-06-10 2010-12-16 O'brien Donald J Electromechanical tactile stimulation devices and methods

Also Published As

Publication number Publication date
US20170239092A1 (en) 2017-08-24
US20140079251A1 (en) 2014-03-20
RS56031B1 (sr) 2017-09-29
SI2658491T1 (sl) 2017-08-31
US20150320966A1 (en) 2015-11-12
ES2741303T3 (es) 2020-02-10
SI3574951T1 (sl) 2022-01-31
DK3245990T3 (da) 2019-08-19
WO2012069429A1 (en) 2012-05-31
EP3574951B1 (en) 2021-06-09
DK2658491T3 (en) 2017-06-19
DK3574951T3 (da) 2021-09-13
US9124979B2 (en) 2015-09-01
PT2658491T (pt) 2017-06-26
US10668244B2 (en) 2020-06-02
PL2658491T3 (pl) 2017-09-29
ES2628356T3 (es) 2017-08-02
PT3574951T (pt) 2021-09-16
EP3245990B1 (en) 2019-05-15
EP3574951A1 (en) 2019-12-04
PL3574951T3 (pl) 2021-12-27
US9675777B2 (en) 2017-06-13
EP2658491B1 (en) 2017-03-29
HUE055666T2 (hu) 2021-12-28
HRP20170881T1 (hr) 2017-08-25
EP3245990A1 (en) 2017-11-22
LT2658491T (lt) 2017-08-10
HUE032927T2 (en) 2017-11-28
EP2658491A1 (en) 2013-11-06
CY1119801T1 (el) 2018-06-27

Similar Documents

Publication Publication Date Title
ES2887781T3 (es) Procedimiento y aparato de sustitución sensorial
Molinaro et al. Delta (but not theta)‐band cortical entrainment involves speech‐specific processing
ES2897471T3 (es) Procedimiento y sistema de generación de estímulos sensoriales personalizados
Meddis et al. Computational models of the auditory system
JP5399396B2 (ja) 同時蝸牛内刺激
Tyler et al. Tinnitus suppression in cochlear implant patients using a sound therapy app
Fletcher et al. Enhanced pitch discrimination for cochlear implant users with a new haptic neuroprosthetic
Legris et al. Cortical reorganization after cochlear implantation for adults with single-sided deafness
Ranasinghe et al. Neural mechanisms supporting robust discrimination of spectrally and temporally degraded speech
Ævarsson et al. Vibrotactile threshold measurements at the wrist using parallel vibration actuators
EP2732641B1 (en) Test methods for cochlear implant stimulation strategies
Clark The multi-channel cochlear implant and the relief of severe-to-profound deafness
Creff et al. Comparison of tonotopic and default frequency fitting for speech understanding in noise in new cochlear implantees: A prospective, randomized, double-blind, cross-over study
Potier et al. Amplification of the poorer ear by StereoBiCROS in case of asymmetric sensorineural hearing loss: Effect on tinnitus
Malone et al. Neural basis of learning to perceive speech through touch using an acoustic-to-vibrotactile speech sensory substitution
Chang Exploration of behavioral, physiological, and computational approaches to auditory scene analysis
Perrotta et al. Bimodal stimulation for the reduction of tinnitus using vibration on the skin
Li Speech perception in a sparse domain
ATLI áVARSSON et al. Vibrotactile Threshold Measurements at the Wrist Using Parallel Vibration Actuators
Jain et al. Effectiveness of clinical trial of tinnitus retraining therapy on temporal processing and perceptual judgment in tinnitus.
Arsinte et al. On the Efficiency of Masking Effect of Hearing Aids for Tinnitus Treatment and Integration in the Hearing Aid Model
Marozeau et al. Xin Luo1* and Lauren Hayes2
Zhou et al. Reconstruction of speech spectrogram based on non-invasive EEG signal
Meng et al. Prior exposure to speech rapidly modulates cortical processing of high-level linguistic structure
Shahsavarani The Interaction of Temporal and Spectral Acoustic Information with Word Predictability on Speech Intelligibility