RU2013103897A - Способ слухоречевой реабилитации и устройство для его реализации - Google Patents

Способ слухоречевой реабилитации и устройство для его реализации Download PDF

Info

Publication number
RU2013103897A
RU2013103897A RU2013103897/14A RU2013103897A RU2013103897A RU 2013103897 A RU2013103897 A RU 2013103897A RU 2013103897/14 A RU2013103897/14 A RU 2013103897/14A RU 2013103897 A RU2013103897 A RU 2013103897A RU 2013103897 A RU2013103897 A RU 2013103897A
Authority
RU
Russia
Prior art keywords
patient
hearing
signal
frequency range
residual
Prior art date
Application number
RU2013103897/14A
Other languages
English (en)
Other versions
RU2525366C1 (ru
Inventor
Анатолий Васильевич Кочергин
Андрей Анатольевич Кочергин
Олег Анатольевич Колигаев
Сергей Олегович Колигаев
Original Assignee
Закрытое акционерное общество "Саунд"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Закрытое акционерное общество "Саунд" filed Critical Закрытое акционерное общество "Саунд"
Priority to RU2013103897/14A priority Critical patent/RU2525366C1/ru
Application granted granted Critical
Publication of RU2525366C1 publication Critical patent/RU2525366C1/ru
Publication of RU2013103897A publication Critical patent/RU2013103897A/ru

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

1. Способ слухоречевой реабилитации, характеризующийся подачей звуковых речевых сигналов пациенту и анализом ответных реакций,отличающийся тем, чтопредварительно с помощью процедуры аудиометрии оценивают амплитудно-частотную характеристику слуха пациента и выделяют частотный диапазон остаточной нейросенсорной чувствительности слуха пациента,формируют базу зрительных образов, озвученных соответствующими эталонными речевыми сигналами,зрительный образ выбирают из базы данных, воспроизводят его изображение и буквенное обозначение и одновременно озвучивают,при этом соответствующий ему эталонный речевой сигнал перед подачей к пациенту преобразуют путем переноса его спектра в частотный диапазон остаточной нейросенсорной чувствительности слуха пациента,после чего подают на органы слуха пациента,а анализ ответных реакций пациента ведут путем сравнения сигнала, поступившего от пациента после воспроизведения им эталонного речевого сигнала, с соответствующим ему эталонным речевым сигналом, и оценивают степень их совпадения, которую затем визуально отображают в виде числового значения уровня корреляции, по которому судят о правильном произношении пациента.2. Способ по п.1, отличающийся тем, что речевой сигнал, поступивший от пациента после воспроизведения им эталонного речевого сигнала и его преобразования, снова подают на органы слуха пациента.3. Способ по п.1, отличающийся тем, что преобразование сигнала осуществляют путем переноса спектра сигнала в частотный диапазон остаточной нейросенсорной чувствительности слуха пациента, ограничивая его частотный диапазон с помощью низкочастотной фильтрац�

Claims (18)

1. Способ слухоречевой реабилитации, характеризующийся подачей звуковых речевых сигналов пациенту и анализом ответных реакций,
отличающийся тем, что
предварительно с помощью процедуры аудиометрии оценивают амплитудно-частотную характеристику слуха пациента и выделяют частотный диапазон остаточной нейросенсорной чувствительности слуха пациента,
формируют базу зрительных образов, озвученных соответствующими эталонными речевыми сигналами,
зрительный образ выбирают из базы данных, воспроизводят его изображение и буквенное обозначение и одновременно озвучивают,
при этом соответствующий ему эталонный речевой сигнал перед подачей к пациенту преобразуют путем переноса его спектра в частотный диапазон остаточной нейросенсорной чувствительности слуха пациента,
после чего подают на органы слуха пациента,
а анализ ответных реакций пациента ведут путем сравнения сигнала, поступившего от пациента после воспроизведения им эталонного речевого сигнала, с соответствующим ему эталонным речевым сигналом, и оценивают степень их совпадения, которую затем визуально отображают в виде числового значения уровня корреляции, по которому судят о правильном произношении пациента.
2. Способ по п.1, отличающийся тем, что речевой сигнал, поступивший от пациента после воспроизведения им эталонного речевого сигнала и его преобразования, снова подают на органы слуха пациента.
3. Способ по п.1, отличающийся тем, что преобразование сигнала осуществляют путем переноса спектра сигнала в частотный диапазон остаточной нейросенсорной чувствительности слуха пациента, ограничивая его частотный диапазон с помощью низкочастотной фильтрации, далее посредством прямого Фурье-преобразования переводят сигнал в спектральную область и осуществляют сжатие.
4. Способ по п.1, отличающийся тем, что непосредственно перед подачей на органы слуха пациента преобразованный сигнал посредством обратного Фурье-преобразования переводят из спектральной области во временную, подвергают цифро-аналоговому преобразованию и усиливают.
5. Способ по п.1, отличающийся тем, что речевой сигнал, поступивший от пациента, для его анализа преобразуют в электрический, который далее предварительно усиливают и подвергают аналоговой низкочастотной фильтрации, полученный низкочастотный аналоговый сигнал Sвх(t), ограниченный верхней частотой fв, преобразуют в цифровой x(tn), где tn - момент выборки n-го отсчета, (tn-tn-1)=1/fд, где fд - частота дискретизации аналого-цифрового преобразования.
6. Способ по п.1, отличающийся тем, что процесс обучения повторяют до тех пор, пока уровень корреляции не достигнет 0,5-0,9.
7. Способ по п.1, отличающийся тем, что формируют базу речевых сигналов пациента и базу сравнительных характеристик эталонных речевых сигналов с речевыми сигналами пациента, с помощью которой, по изменению уровня корреляции, во времени судят о динамике обучения пациента.
8. Способ по п.1, отличающийся тем, что речевые сигналы пациента сопоставляют с ранее полученными у него же и с эталонными речевыми сигналами, и, если число речевых сигналов пациента с высоким уровнем корреляции статистически значимо выше, чем ранее полученные у него, динамику обучения считают удовлетворительной, но, если число таких сигналов значимо ниже, чем эталонных, обучение считают незавершенным.
9. Способ по п.1, отличающийся тем, что зрительные образы и эталонные речевые сигналы представлены виде фотографий и аудиозаписей голоса здорового человека, озвучивающего данные визуальные образы.
10. Способ по п.1, отличающийся тем, что выделяют частотный диапазон остаточной нейросенсорной чувствительности к акустическим сигналам с уровнем, не превышающим 90-100 дБ относительно минимального порогового уровня чувствительности слуха здорового человека.
11. Способ по п.10, отличающийся тем, что при выделении частотного диапазона остаточной нейросенсорной чувствительности к акустическим сигналам оценивают ширину полосы ΔF остаточной чувствительности слуха, нижнюю и верхнюю частоту Fн и Fв частотного диапазона остаточной чувствительности слуха, задают минимальный информативный диапазон частот и устанавливают при низкочастотной фильтрации верхнюю частоту полосы пропускания fв не менее 4 кГц, устанавливают частоту дискретизации аналого-цифрового преобразования не менее fд=2fв.
12. Способ по п.11, отличающийся тем, что в соответствии с полученной оценкой ширины полосы частот ΔF остаточной чувствительности слуха пациента определяют коэффициент сжатия спектра Kсж=fв/ΔF.
13. Устройство для реализации способа по п.1, содержащее микрофон, аналого-цифровой преобразователь, устройство цифровой обработки сигналов, цифро-аналоговый преобразователь и наушники, отличающееся тем, что содержит память с возможностью формирования базы данных для хранения обучающих изображений и аудиофайлов, дисплей для отображения обучающих изображений.
14. Устройство по п.13, отличающееся тем, что корпус состоит из верхней и нижней крышек.
15. Устройство по п.13, отличающееся тем, что на верхней крышке выполнена накладка.
16. Устройство по п.13, отличающееся тем, что содержит языковый словарь, состоящий из запоминающихся слов и выражений русского или другого языка.
17. Аппаратно-программный комплекс, включающий в себя аппаратное обеспечение, содержащее аудиокарту, процессор и компьютерно-читаемый носитель, содержащий коды, побуждающие процессор выполнять этапы способа по п.1.
18. Интерактивный обучающий стенд, содержащий объединенные в локальную сеть компьютер сурдопедагога и компьютеры обучающихся с подключенными к ним аппаратно-программными комплексами по п.17.
RU2013103897/14A 2013-01-30 2013-01-30 Способ слухоречевой реабилитации и устройство для его реализации RU2525366C1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2013103897/14A RU2525366C1 (ru) 2013-01-30 2013-01-30 Способ слухоречевой реабилитации и устройство для его реализации

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2013103897/14A RU2525366C1 (ru) 2013-01-30 2013-01-30 Способ слухоречевой реабилитации и устройство для его реализации

Publications (2)

Publication Number Publication Date
RU2525366C1 RU2525366C1 (ru) 2014-08-10
RU2013103897A true RU2013103897A (ru) 2014-08-10

Family

ID=51354834

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013103897/14A RU2525366C1 (ru) 2013-01-30 2013-01-30 Способ слухоречевой реабилитации и устройство для его реализации

Country Status (1)

Country Link
RU (1) RU2525366C1 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2816026C1 (ru) * 2023-07-10 2024-03-25 Федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации Способ тренировки навыков слушания у слухопротезированных пациентов с хронической сенсоневральной тугоухостью с использованием программы для ЭВМ

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2657941C1 (ru) * 2017-04-06 2018-06-18 Федеральное государственное бюджетное учреждение науки "Российский научно-практический центр аудиологии и слухопротезирования Федерального медико-биологического агентства" Способ кодирования стимулирующего сигнала в кохлеарном импланте
RU2764733C1 (ru) * 2021-04-19 2022-01-20 Александр Сергеевич Клемёнов Устройство для развития слуха и речи у тугоухих и глухих

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2159099C1 (ru) * 2000-02-09 2000-11-20 Кочергин Анатолий Васильевич Слуховой аппарат для тугоухих и глухих с остатками нейросенсорной чувствительности
RU2209057C1 (ru) * 2002-04-02 2003-07-27 Санкт-Петербургский научно-исследовательский институт уха, горла, носа и речи Способ слухо-речевой реабилитации и ее оценки у пациентов с кохлеарными имплантами
RU102421U1 (ru) * 2010-07-08 2011-02-27 Анатолий Васильевич Кочергин Универсальная двухканальная слуховая система

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2816026C1 (ru) * 2023-07-10 2024-03-25 Федеральное государственное бюджетное образовательное учреждение высшего образования "Самарский государственный медицинский университет" Министерства здравоохранения Российской Федерации Способ тренировки навыков слушания у слухопротезированных пациентов с хронической сенсоневральной тугоухостью с использованием программы для ЭВМ

Also Published As

Publication number Publication date
RU2525366C1 (ru) 2014-08-10

Similar Documents

Publication Publication Date Title
Grillo et al. Influence of smartphones and software on acoustic voice measures
WO2020006935A1 (zh) 动物声纹特征提取方法、装置及计算机可读存储介质
Ortega-Garcia et al. AHUMADA: A large speech corpus in Spanish for speaker characterization and identification
JP6673828B2 (ja) 自閉症における言語処理向上のための装置
US11120793B2 (en) Automatic speech recognition
Moya-Galé et al. The effects of intensive speech treatment on conversational intelligibility in Spanish speakers with Parkinson's disease
Francis Improved segregation of simultaneous talkers differentially affects perceptual and cognitive capacity demands for recognizing speech in competing speech
Nolan et al. Effects of the telephone on perceived voice similarity: implications for voice line-ups.
Faulkner et al. Comparing live to recorded speech in training the perception of spectrally shifted noise-vocoded speech
Zhu et al. Study on linguistic information and speaker individuality contained in temporal envelope of speech
Zhang et al. BASEN: Time-domain brain-assisted speech enhancement network with convolutional cross attention in multi-talker conditions
RU2013103897A (ru) Способ слухоречевой реабилитации и устройство для его реализации
Zouhir et al. A bio-inspired feature extraction for robust speech recognition
Derrick et al. Aero-tactile integration in fricatives: Converting audio to air flow information for speech perception enhancement
Sakayori et al. Critical spectral regions for vowel identification
Liu et al. Effects of low harmonics on tone identification in natural and vocoded speech
Hillier et al. A modified spectrogram with possible application as a visual hearing aid for the deaf
Chougule et al. Filter bank based cepstral features for speaker recognition
Hashim et al. Mobile microphone robust acoustic feature identification using coefficient of variance
Lelo de Larrea-Mancera et al. Development and validation of a Spanish-language spatial release from masking task in a Mexican population
Culling et al. Speech perception from monaural and binaural information
Noufi et al. Acoustically-Driven Phoneme Removal that Preserves Vocal Affect Cues
Marković et al. Recognition of the Multimodal Speech Based on the GFCC features
Liu et al. Audibility of American English vowels produced by English-, Chinese-, and Korean-native speakers in long-term speech-shaped noise
CN110808066B (zh) 教学环境安全分析方法

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20160131