RU2013119828A - METHOD FOR DETERMINING THE RISK OF DEVELOPMENT OF INDIVIDUAL DISEASES BY ITS VOICE AND HARDWARE AND SOFTWARE COMPLEX FOR IMPLEMENTING THE METHOD - Google Patents

METHOD FOR DETERMINING THE RISK OF DEVELOPMENT OF INDIVIDUAL DISEASES BY ITS VOICE AND HARDWARE AND SOFTWARE COMPLEX FOR IMPLEMENTING THE METHOD Download PDF

Info

Publication number
RU2013119828A
RU2013119828A RU2013119828/08A RU2013119828A RU2013119828A RU 2013119828 A RU2013119828 A RU 2013119828A RU 2013119828/08 A RU2013119828/08 A RU 2013119828/08A RU 2013119828 A RU2013119828 A RU 2013119828A RU 2013119828 A RU2013119828 A RU 2013119828A
Authority
RU
Russia
Prior art keywords
voice signal
individual
signal
parameters
voice
Prior art date
Application number
RU2013119828/08A
Other languages
Russian (ru)
Other versions
RU2559689C2 (en
Inventor
Антон Павлович Лысак
Original Assignee
Общество С Ограниченной Ответственностью "Эм Ди Войс"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество С Ограниченной Ответственностью "Эм Ди Войс" filed Critical Общество С Ограниченной Ответственностью "Эм Ди Войс"
Priority to RU2013119828/08A priority Critical patent/RU2559689C2/en
Priority to PCT/RU2013/000672 priority patent/WO2014178749A1/en
Publication of RU2013119828A publication Critical patent/RU2013119828A/en
Application granted granted Critical
Publication of RU2559689C2 publication Critical patent/RU2559689C2/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Epidemiology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Telephonic Communication Services (AREA)

Abstract

1. Аппаратно-программный комплекс для определения риска развития заболеваний индивида по его голосу, включающий терминальное устройство индивида с расположенными в нем модулем записи голосового сигнала индивида, модулем управления записью голосового сигнала, выполненным с возможностью выбора частоты дискретизации и длительности записи голосового сигнала, вычислительным модулем, выполненным с возможностью перевода записанного голосового сигнала из аналогового в цифровой сигнал, модулем отображения информации на мониторе терминального устройства индивида, полученной с блока анализа голосового сигнала, выполненного с возможностью определения для записанного голосового сигнала, по крайней мере, одного параметра из группы, характеризующей эффект «Дрожания» (Jitter) и/или эффект «Мерцания» (Shimmer) и/или физиологические свойства голосовых складок и/или уровень шума в голосовом сигнале, и параметра, характеризующего нелинейность голосового сигнала с последующим построением вектора в N-мерном пространстве параметров голосового сигнала индивида, где N - количество используемых групп, и определением апостериорной вероятности принадлежности полученного вектора к предварительно сформированным в многомерном пространстве областям для нормы и патологии посредством вычисления функций плотности вероятности для нормы и патологии.2. Аппаратно-программный комплекс по п.1, характеризующийся тем, что при наличии более одного параметра в группе, блок анализа голосового сигнала выполнен с возможностью формирования многомерного пространства для нормы и патологии с применением агрегирующих функций для каждой группы п�1. Hardware-software complex for determining the risk of developing an individual’s disease by his voice, including the terminal device of the individual with the module for recording the voice signal of the individual, the module for controlling the recording of the voice signal, configured to select the sampling frequency and recording duration of the voice signal, a computing module made with the possibility of translating the recorded voice signal from analog to digital signal, the information display module on the monitor terminal of an individual device received from the voice signal analysis unit, configured to determine for the recorded voice signal at least one parameter from the group characterizing the Jitter effect and / or the Shimmer effect and / or physiological properties of the vocal folds and / or noise level in the voice signal, and a parameter characterizing the nonlinearity of the voice signal with subsequent construction of a vector in the N-dimensional space of the parameters of the individual voice signal, where N is the number of s groups and the definition of the a posteriori probability of belonging to the vector obtained previously formed in a multidimensional space areas for the norm and pathology by calculating probability density functions for the norm and patologii.2. The hardware-software complex according to claim 1, characterized in that if there is more than one parameter in the group, the voice signal analysis unit is configured to form a multidimensional space for norm and pathology using aggregation functions for each group

Claims (30)

1. Аппаратно-программный комплекс для определения риска развития заболеваний индивида по его голосу, включающий терминальное устройство индивида с расположенными в нем модулем записи голосового сигнала индивида, модулем управления записью голосового сигнала, выполненным с возможностью выбора частоты дискретизации и длительности записи голосового сигнала, вычислительным модулем, выполненным с возможностью перевода записанного голосового сигнала из аналогового в цифровой сигнал, модулем отображения информации на мониторе терминального устройства индивида, полученной с блока анализа голосового сигнала, выполненного с возможностью определения для записанного голосового сигнала, по крайней мере, одного параметра из группы, характеризующей эффект «Дрожания» (Jitter) и/или эффект «Мерцания» (Shimmer) и/или физиологические свойства голосовых складок и/или уровень шума в голосовом сигнале, и параметра, характеризующего нелинейность голосового сигнала с последующим построением вектора в N-мерном пространстве параметров голосового сигнала индивида, где N - количество используемых групп, и определением апостериорной вероятности принадлежности полученного вектора к предварительно сформированным в многомерном пространстве областям для нормы и патологии посредством вычисления функций плотности вероятности для нормы и патологии.1. Hardware-software complex for determining the risk of developing an individual’s disease by his voice, including the terminal device of the individual with the module for recording the voice signal of the individual, the module for controlling the recording of the voice signal, configured to select the sampling frequency and recording duration of the voice signal, a computing module made with the possibility of translating the recorded voice signal from analog to digital signal, the information display module on the monitor terminal of an individual device received from the voice signal analysis unit, configured to determine for the recorded voice signal at least one parameter from the group characterizing the Jitter effect and / or the Shimmer effect and / or physiological properties of the vocal folds and / or noise level in the voice signal, and a parameter characterizing the nonlinearity of the voice signal with subsequent construction of a vector in the N-dimensional space of the parameters of the individual voice signal, where N is the number of s groups and the definition of the a posteriori probability of belonging to the vector obtained previously formed in a multidimensional space areas for the norm and pathology by calculating probability density functions for the norm and pathology. 2. Аппаратно-программный комплекс по п.1, характеризующийся тем, что при наличии более одного параметра в группе, блок анализа голосового сигнала выполнен с возможностью формирования многомерного пространства для нормы и патологии с применением агрегирующих функций для каждой группы параметров.2. The hardware-software complex according to claim 1, characterized in that if there is more than one parameter in the group, the voice signal analysis unit is configured to form a multidimensional space for norm and pathology using aggregating functions for each group of parameters. 3. Аппаратно-программный комплекс по п.1, характеризующийся тем, что блок анализа голосового сигнала расположен в терминальном устройстве индивида.3. The hardware-software complex according to claim 1, characterized in that the voice signal analysis unit is located in the terminal device of the individual. 4. Аппаратно-программный комплекс по п.1, характеризующийся тем, что он содержит сервер удаленного доступа и модуль подключения к сети Интернет, который расположен в терминальном устройстве индивида и выполнен с возможностью приема -передачи цифрового сигнала в блок анализа голосового сигнала, который расположен на сервере удаленного доступа.4. The hardware-software complex according to claim 1, characterized in that it contains a remote access server and an Internet connection module, which is located in the terminal device of the individual and is configured to receive-transmit a digital signal to the voice signal analysis unit, which is located on the remote access server. 5. Аппаратно-программный комплекс по п.1, характеризующийся тем, что блок анализа голосового сигнала включает базу данных с функциями распределения плотности вероятности для голосовых сигналов в норме и патологии.5. The hardware-software complex according to claim 1, characterized in that the voice signal analysis unit includes a database with probability density distribution functions for voice signals in normal and pathological conditions. 6. Аппаратно-программный комплекс по п.1, характеризующийся тем, что в качестве терминального устройства индивида используют мобильный телефон, смартфон, персональный компьютер, ноутбук, планшетный компьютер, а блок анализа голосового сигнала выполнен с возможностью вычисления параметров на платформах x86, x64, ARM, MIPS с использованием операционных систем: семейство Windows, Linux, MacOS, iOS, Android.6. The hardware-software complex according to claim 1, characterized in that the terminal device of the individual uses a mobile phone, smartphone, personal computer, laptop, tablet computer, and the voice signal analysis unit is configured to calculate parameters on x86, x64 platforms, ARM, MIPS using operating systems: Windows, Linux, MacOS, iOS, Android family. 7. Аппаратно-программный комплекс по п.1, характеризующийся тем, что вычислительный модуль выполнен с возможностью формирования голосового сигнала из записанной слитной речи посредством ее обработки путем выделения из слитной речи отдельных ударных гласных.7. The hardware-software complex according to claim 1, characterized in that the computing module is configured to generate a voice signal from the recorded continuous speech by processing it by extracting individual stressed vowels from the continuous speech. 8. Способ определения риска развития заболеваний индивида по его голосу с использованием аппаратно-программного комплекса по п.1, включающий запись голосового сигнала индивида, состоящего из набора гласных звуков, или формирование упомянутого голосового сигнала из записанной слитной речи, с последующим его анализом, включающим определение для записанного голосового сигнала, по крайней мере, одного параметра из группы, характеризующей эффект «Дрожания» (Jitter) и/или эффект «Мерцания» (Shimmer) и/или физиологические свойства голосовых складок и/или уровень шума в голосовом сигнале и нелинейность голосового сигнала с последующим построением вектора N-мерного пространства параметров голосового сигнала индивида, где N - количество используемых групп и вычислением апостериорной вероятности полученного вектора на принадлежность к предварительно сформированным многомерным пространствам для нормы и патологии посредством вычисления функции плотности вероятности для нормы и патологии, при этом формирование многомерного пространства для нормы и патологии при наличии более одного параметра в группе осуществляют с применением агрегирующих функций, которые вычисляют для каждой группы параметров.8. The method for determining the risk of developing an individual’s disease by his voice using the hardware-software complex according to claim 1, comprising recording an individual’s voice signal, consisting of a set of vowels, or generating said voice signal from recorded continuous speech, followed by analysis, including determining for the recorded voice signal at least one parameter from the group characterizing the Jitter effect and / or the Shimmer effect and / or physiological properties of the vocal folds / or the noise level in the voice signal and non-linearity of the voice signal with the subsequent construction of the vector of the N-dimensional space of the parameters of the voice signal of the individual, where N is the number of groups used and the posterior probability of the resulting vector belongs to pre-formed multidimensional spaces for norm and pathology by calculating the function probability density for norm and pathology, while the formation of a multidimensional space for norm and pathology in the presence of more than one a parameter in a group is carried out using aggregation functions, which are calculated for each group of parameters. 9. Способ по п.8, характеризующийся тем, что запись голосового сигнала индивида осуществляют с использованием микрофона, при этом записанный сигнал направляют в блок анализа голосового сигнала, расположенный в терминальном устройстве индивида и/или на удаленном сервере.9. The method according to claim 8, characterized in that the recording of the voice signal of the individual is carried out using a microphone, while the recorded signal is sent to the voice signal analysis unit located in the terminal device of the individual and / or on the remote server. 10. Способ по п.8, характеризующийся тем, что анализ голосового сигнала индивида осуществляют с использованием программно-аппаратного комплекса, выполненного на платформах x86, x64, ARM, MIPS с использованием семейств операционных систем: Windows, Linux, MacOS, iOS, Android.10. The method according to claim 8, characterized in that the analysis of the voice signal of an individual is carried out using a hardware-software complex made on x86, x64, ARM, MIPS platforms using the families of operating systems: Windows, Linux, MacOS, iOS, Android. 11. Способ по п.8, характеризующийся тем, что формирование голосового сигнала из записанной слитной речи осуществляют на вычислительном модуле терминального устройства индивида посредством ее обработки путем выделения из слитной речи отдельных ударных гласных.11. The method according to claim 8, characterized in that the formation of a voice signal from the recorded continuous speech is carried out on the computing module of the terminal device of the individual by processing it by extracting individual stressed vowels from the continuous speech. 12. Способ по п.8, характеризующийся тем, что при записи голосового сигнала индивида, состоящего из набора гласных звуков, количество гласных звуков выбирают не менее двух, один из которых - закрытый, второй - открытый, при этом продолжительность гласных звуков - не менее пяти секунд.12. The method according to claim 8, characterized in that when recording a voice signal of an individual, consisting of a set of vowels, the number of vowels is selected at least two, one of which is closed, the second is open, while the duration of vowels is at least five seconds. 13. Способ по п.8, характеризующийся тем, что при формировании голосового сигнала из записанной слитной речи, суммарная длительность гласного звука в наборе, составленная из выделенных фрагментов слитной речи, составляет не менее 10 с.13. The method according to claim 8, characterized in that when generating a voice signal from the recorded continuous speech, the total duration of the vowel sound in the set, composed of the selected fragments of continuous speech, is at least 10 s. 14. Способ по п.8, характеризующийся тем, что параметры «Jitter» эффекта получают посредством определения из записанного голосового сигнала трека частоты основного тона с последующим анализом колебаний частоты основного тона.14. The method according to claim 8, characterized in that the Jitter effect parameters are obtained by determining the fundamental frequency from the recorded voice signal of the track, followed by analysis of the fundamental frequency oscillations. 15. Способ по п.8, характеризующийся тем, что параметры «Shimmer» эффекта получают посредством определения трека максимальных амплитуд на периодах основного тона с последующим анализом колебаний амплитудных характеристик сигнала.15. The method according to claim 8, characterized in that the "Shimmer" effect parameters are obtained by determining the track of maximum amplitudes on the periods of the fundamental tone, followed by analysis of fluctuations in the amplitude characteristics of the signal. 16. Способ по п.8, характеризующийся тем, что параметры, характеризующие физиологические свойства голосовых складок, получают посредством обратной фильтрации голосового сигнала с последующим анализом сигнала остатка.16. The method according to claim 8, characterized in that the parameters characterizing the physiological properties of the vocal folds are obtained by reverse filtering the voice signal, followed by analysis of the remainder signal. 17. Способ по п.8, характеризующийся тем, что параметры уровня шума в голосовом сигнале определяют на интервалах основного тона.17. The method according to claim 8, characterized in that the parameters of the noise level in the voice signal are determined at intervals of the fundamental tone. 18. Способ по п.8, характеризующийся тем, что параметры, характеризующие нелинейность голосового сигнала, получают посредством построения фазового пространства голосового сигнала.18. The method according to claim 8, characterized in that the parameters characterizing the nonlinearity of the voice signal are obtained by constructing the phase space of the voice signal. 19. Способ по п.8, характеризующийся тем, что агрегирующие функции определяют с использованием метода главных компонент.19. The method according to claim 8, characterized in that the aggregating functions are determined using the principal component method. 20. Способ по п.8, характеризующийся тем, что для получения N-мерного пространства используют функцию распределения плотности вероятности.20. The method according to claim 8, characterized in that to obtain the N-dimensional space using the probability density distribution function. 21. Способ по п.8, характеризующийся тем, что формирование N-мерных пространств для нормы и патологии осуществляют с использованием баз данных звуковых сигналов голосов индивидов в норме и патологии, соответственно.21. The method according to claim 8, characterized in that the formation of N-dimensional spaces for norm and pathology is carried out using databases of sound signals of voices of individuals in norm and pathology, respectively. 22. Способ по п.8, характеризующийся тем, что запись голосового сигнала индивида производят в виде звуковой волны формата импульсно-кодовой модуляции, «Моно», с частотой дискретизации не меньше чем 16 кГц.22. The method according to claim 8, characterized in that the recording of an individual's voice signal is performed in the form of a sound wave of the pulse-code modulation format, "Mono", with a sampling frequency of not less than 16 kHz. 23. Способ по п.8, характеризующийся тем, что осуществляют повторную запись голосового сигнала индивида и ее анализ с получением параметров, которые сравнивают с ранее полученными параметрами с определением уровня отклонения, по которому судят о динамике вероятности заболевания голосовых складок индивида.23. The method according to claim 8, characterized in that the individual records the voice signal of the individual and analyzes them to obtain parameters that are compared with previously obtained parameters to determine the level of deviation, which is used to judge the dynamics of the probability of illness of the vocal folds of the individual. 24. Способ по п.8, характеризующийся тем, что в качестве параметров, характеризующих эффект «Дрожания», используют усредненное абсолютное значение эффекта «Дрожания» (Mean absolute Jitter), и/или стандартное отклонение частоты основного тона (Standard deviation of FO contour), и/или голосовой диапазон частот (Phonatory frequency Range), и/или фактор возмущения частоты основного тона (Pitch perturbation Factor), и/или относительное значение эффекта «Дрожания», выраженное в % (Jitter (%)), и/или коэффициент колебания частоты основного тона (Pitch Perturbation Quotient), и/или сглаженный коэффициент возмущения частоты основного тона (Smoothed Pitch Perturbation Quotient), и/или относительное среднее колебание частоты основного тона (Relative Average Perturbation).24. The method according to claim 8, characterized in that as the parameters characterizing the effect of "Trembling", use the average absolute value of the effect of "Trembling" (Mean absolute Jitter) and / or standard deviation of the frequency of the fundamental tone (Standard deviation of FO contour ), and / or the voice frequency range (Phonatory frequency Range), and / or the Pitch perturbation Factor, and / or the relative value of the “Jitter” effect, expressed in% (Jitter (%)), and / or the coefficient of oscillation of the frequency of the fundamental tone (Pitch Perturbation Quotient), and / or the smoothed perturbation coefficient h simplicity pitch (Smoothed Pitch Perturbation Quotient), and / or a relative mean oscillation frequency of the fundamental tone (Relative Average Perturbation). 25. Способ по п.24, характеризующийся тем, что в качестве параметров, характеризующих эффект «Дрожания», дополнительно используют кратковременное изменение эффекта «Дрожания» (Short term Jitter Estimation).25. The method according to paragraph 24, characterized in that as the parameters characterizing the effect of "Tremble", additionally use a short-term change in the effect of "Tremble" (Short term Jitter Estimation). 26. Способ по п.8, характеризующийся тем, что в качестве параметров, характеризующих эффект «Мерцания», используют относительное значение эффекта «Мерцания», выраженное в % (Shimmer (%)), и/или абсолютное значение эффекта «Мерцания» (Mean absolute shimmer), и/или стандартное отклонение амплитуды (Standard deviation of Amp contour), и/или фактор возмущения амплитуды (Amplitude Perturbation Factor), и/или значение эффекта «Мерцания», выраженное в децибелах (Shimmer (dB)), и/или колебания амплитуды относительно среднего (Amplitude Relative Average Perturbation), и/или коэффициент колебания амплитуды (Amplitude Perturbation Quotient), и/или сглаженный коэффициент колебания амплитуды (Smoothed Amplitude Perturbation Quotient).26. The method according to claim 8, characterized in that as the parameters characterizing the "Flicker" effect, use the relative value of the "Flicker" effect, expressed in% (Shimmer (%)), and / or the absolute value of the "Flicker" effect ( Mean absolute shimmer), and / or standard deviation of amplitude (Standard deviation of Amp contour), and / or amplitude perturbation factor (Amplitude Perturbation Factor), and / or the value of the “Flicker” effect, expressed in decibels (Shimmer (dB)), and / or amplitude fluctuations relative to the average (Amplitude Relative Average Perturbation), and / or amplitude fluctuation coefficient (Amplitude Perturbation Quoti ent), and / or the Smoothed Amplitude Perturbation Quotient. 27. Способ по п.8, характеризующийся тем, что в качестве параметров, характеризующих уровень шума на интервалах основного тона, используют параметр, характеризующий уровень турбулентного шума на периоде основного тона (Turbulent noise index (TNI)), и/или параметр, характеризующий степень схлопывания голосовых складок (Soft phonation index (SPI)), и/или показатель уровня шума относительно уровня вокализированной компоненты (Voice turbulence index (VTI)), и/или отношение гармонической компоненты сигнала к негармонической компоненте (Harmonic to Noise Ratio (HNR)), и/или отношение энергии возбуждения к энергии шума (Glottal to Noise Excitation Ratio (GNER)).27. The method according to claim 8, characterized in that as parameters characterizing the noise level in the intervals of the fundamental tone, use a parameter characterizing the level of turbulent noise in the period of the fundamental tone (Turbulent noise index (TNI)), and / or a parameter characterizing the degree of collapse of the vocal folds (Soft phonation index (SPI)), and / or the noise level indicator relative to the level of the voiced component (Voice turbulence index (VTI)), and / or the ratio of the harmonic component of the signal to the non-harmonic component (Harmonic to Noise Ratio (HNR) ), and / or the ratio of the energy of exc noise crater (Glottal to Noise Excitation Ratio (GNER)). 28. Способ по п.8, характеризующийся тем, что дополнительно в качестве параметров используют уровень турбулентного шума (Glottal to Noise Distribution Ratio), который определяют следующим образом: на вход подают сигнал в формате импульсно-кодовой модуляции, «Моно», с частотой дискретизации 16 кГц, у которого определяют трек частоты основного тона, после этого производят обратную фильтрацию входного сигнала (вычисление сигнала остатка), затем производят вычисление кохлеарного спектра-сигнала остатка, осуществляют взвешивание спектральной энергии сигнала остатка в диапазоне от 1,5 кГц до 2 кГц с использованием средней энергии в данном диапазоне частот, затем осуществляют взвешивание спектральной энергии сигнала остатка в диапазоне частоты основного тона с использованием средней энергии в диапазоне от минимальной частоты основного тона до максимальной частоты основного тона, по итогам полученных значений определяют отношение взвешенных энергий и получают распределение энергетического отношения посредством построения гистограммы.28. The method according to claim 8, characterized in that, in addition, as parameters use the level of turbulent noise (Glottal to Noise Distribution Ratio), which is determined as follows: the signal in the format of a pulse-code modulation, "Mono", with a frequency sampling 16 kHz, which determine the track of the frequency of the fundamental tone, then perform an inverse filtering of the input signal (calculation of the remainder signal), then calculate the cochlear spectrum signal of the remainder, carry out the weighting of the spectral energy of the signal about setting in the range from 1.5 kHz to 2 kHz using the average energy in this frequency range, then carry out the weighting of the spectral energy of the remainder signal in the frequency range of the fundamental tone using average energy in the range from the minimum fundamental frequency to the maximum fundamental frequency, The results of the obtained values determine the ratio of the weighted energies and obtain the distribution of the energy ratio by constructing a histogram. 29. Способ по п.8, характеризующийся тем, что для определения параметров, характеризующих нелинейность голосового сигнала, используют метод энтропии Шеннона, и/или метод энтропии Ренье, и/или значение первого минимума информационной функции (Value of First Minimum of Mutual Information Function), и/или показатель периодичности сигнала (Recurrent period density entropy); и/или показатель, получаемый в результате анализа сигнала с исключением внутреннего тренда (Detrended Fluctuation Analysis), и/или показатель, получаемый в результате анализа сигнала методом Теккен-Трейлера (Taken's Estimator), и/или показатель, получаемый в результате эмпирической декомпозиции сигнала на уровни (Empirical Mode Decomposition Excitations Ratios).29. The method according to claim 8, characterized in that to determine the parameters characterizing the nonlinearity of the voice signal, use the Shannon entropy method and / or the Rainier entropy method and / or the value of the first minimum of the information function (Value of First Minimum of Mutual Information Function ), and / or a signal periodicity index (Recurrent period density entropy); and / or an indicator obtained by analyzing a signal with the exception of the internal trend (Detrended Fluctuation Analysis), and / or an indicator obtained by analyzing a signal by the Taken's Estimator method, and / or an indicator obtained by empirically decomposing a signal to levels (Empirical Mode Decomposition Excitations Ratios). 30. Способ по п.8, характеризующийся тем, что для определения физиологических свойств голосовых складок используют параметры, характеризующие массу и жесткость в одномассовой модели голосовых складок, коэффициент открытия голосовой щели (Glottis Quotient) и/или показатель возбуждения голосовых складок (Vocal Fold Excitation Ratios). 30. The method according to claim 8, characterized in that to determine the physiological properties of the vocal folds using parameters characterizing the mass and stiffness in the single-mass model of the vocal folds, the coefficient of opening of the glottis Quotient and / or the rate of excitation of the vocal folds Ratios).
RU2013119828/08A 2013-04-29 2013-04-29 Method of determining risk of development of individual's disease by their voice and hardware-software complex for method realisation RU2559689C2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
RU2013119828/08A RU2559689C2 (en) 2013-04-29 2013-04-29 Method of determining risk of development of individual's disease by their voice and hardware-software complex for method realisation
PCT/RU2013/000672 WO2014178749A1 (en) 2013-04-29 2013-08-05 Method for determining an individual's risk of developing disorders on the basis of the individual's voice, and hardware and software system for implementing same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2013119828/08A RU2559689C2 (en) 2013-04-29 2013-04-29 Method of determining risk of development of individual's disease by their voice and hardware-software complex for method realisation

Publications (2)

Publication Number Publication Date
RU2013119828A true RU2013119828A (en) 2014-11-10
RU2559689C2 RU2559689C2 (en) 2015-08-10

Family

ID=51843751

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013119828/08A RU2559689C2 (en) 2013-04-29 2013-04-29 Method of determining risk of development of individual's disease by their voice and hardware-software complex for method realisation

Country Status (2)

Country Link
RU (1) RU2559689C2 (en)
WO (1) WO2014178749A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2582050C1 (en) * 2015-01-28 2016-04-20 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Пензенский государственный университет" (ФГБОУ ВПО "Пензенский государственный университет") Method for adaptive processing of speech signals in conditions of unstable operation of speech apparatus

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102216160B1 (en) * 2020-03-05 2021-02-16 가톨릭대학교 산학협력단 Apparatus and method for diagnosing disease that causes voice and swallowing disorders
CN116473521B (en) * 2023-06-21 2023-08-18 四川大学华西医院 Voice frequency spectrum identification method and system for suspected cyprocoytenoid dislocation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2313280C1 (en) * 2006-05-16 2007-12-27 Государственное образовательное учреждение высшего профессионального образования "Курский государственный технический университет" Method for studying vocal cords functional state
KR20080040803A (en) * 2006-11-03 2008-05-09 이민화 Method, apparatus, and system for diagnosing health status of mobile terminal users
US20080300867A1 (en) * 2007-06-03 2008-12-04 Yan Yuling System and method of analyzing voice via visual and acoustic data
US9055861B2 (en) * 2011-02-28 2015-06-16 Samsung Electronics Co., Ltd. Apparatus and method of diagnosing health by using voice

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2582050C1 (en) * 2015-01-28 2016-04-20 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Пензенский государственный университет" (ФГБОУ ВПО "Пензенский государственный университет") Method for adaptive processing of speech signals in conditions of unstable operation of speech apparatus

Also Published As

Publication number Publication date
WO2014178749A1 (en) 2014-11-06
RU2559689C2 (en) 2015-08-10

Similar Documents

Publication Publication Date Title
Kadiri et al. Analysis and detection of pathological voice using glottal source features
Eskenazi et al. Acoustic correlates of vocal quality
Drugman et al. A comparative study of glottal source estimation techniques
Kreiman et al. Variability in the relationships among voice quality, harmonic amplitudes, open quotient, and glottal area waveform shape in sustained phonation
JP5275612B2 (en) Periodic signal processing method, periodic signal conversion method, periodic signal processing apparatus, and periodic signal analysis method
Tsanas et al. Robust fundamental frequency estimation in sustained vowels: detailed algorithmic comparisons and information fusion with adaptive Kalman filtering
Alku et al. Closed phase covariance analysis based on constrained linear prediction for glottal inverse filtering
JP2017532082A (en) A system for speech-based assessment of patient mental status
AU2013274940B2 (en) Cepstral separation difference
Godin et al. Physical task stress and speaker variability in voice quality
Kawahara et al. Using instantaneous frequency and aperiodicity detection to estimate F0 for high-quality speech synthesis
Holambe et al. Advances in non-linear modeling for speech processing
McLoughlin et al. Reconstruction of continuous voiced speech from whispers.
Narendra et al. Estimation of the glottal source from coded telephone speech using deep neural networks
US8725498B1 (en) Mobile speech recognition with explicit tone features
RU2013119828A (en) METHOD FOR DETERMINING THE RISK OF DEVELOPMENT OF INDIVIDUAL DISEASES BY ITS VOICE AND HARDWARE AND SOFTWARE COMPLEX FOR IMPLEMENTING THE METHOD
Kafentzis et al. Glottal inverse filtering using stabilised weighted linear prediction
CN116978409A (en) Depression state evaluation method, device, terminal and medium based on voice signal
Le The use of spectral information in the development of novel techniques for speech-based cognitive load classification
Fürer et al. Supervised speaker diarization using random forests: a tool for psychotherapy process research
Airaksinen et al. Quadratic programming approach to glottal inverse filtering by joint norm-1 and norm-2 optimization
Parlak et al. Harmonic differences method for robust fundamental frequency detection in wideband and narrowband speech signals
Albornoz et al. Snore recognition using a reduced set of spectral features
Al-Radhi et al. Adaptive refinements of pitch tracking and HNR estimation within a vocoder for statistical parametric speech synthesis
Aggarwal et al. Parameterization techniques for automatic speech recognition system

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20160430