RU2510955C2 - Способ обнаружения эмоций по голосу - Google Patents

Способ обнаружения эмоций по голосу Download PDF

Info

Publication number
RU2510955C2
RU2510955C2 RU2012109382/08A RU2012109382A RU2510955C2 RU 2510955 C2 RU2510955 C2 RU 2510955C2 RU 2012109382/08 A RU2012109382/08 A RU 2012109382/08A RU 2012109382 A RU2012109382 A RU 2012109382A RU 2510955 C2 RU2510955 C2 RU 2510955C2
Authority
RU
Russia
Prior art keywords
voice
change
intensity
variation
value
Prior art date
Application number
RU2012109382/08A
Other languages
English (en)
Other versions
RU2012109382A (ru
Inventor
Игорь Акрамович Саитов
Олег Олегович Басов
Владимир Александрович Ягупов
Original Assignee
Государственное казенное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Государственное казенное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) filed Critical Государственное казенное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России)
Priority to RU2012109382/08A priority Critical patent/RU2510955C2/ru
Publication of RU2012109382A publication Critical patent/RU2012109382A/ru
Application granted granted Critical
Publication of RU2510955C2 publication Critical patent/RU2510955C2/ru

Links

Images

Landscapes

  • Feedback Control In General (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Изобретение относится к средствам распознавания эмоций человека по голосу. Технический результат заключается в повышении точности определения эмоционального состояния русскоязычного абонента. Обнаруживают интенсивности голоса и темпа, определяемого скоростью, с которой появляется голос, соответственно, и обнаруживают в виде величины времени, интонацию, которая отражает рисунок изменения интенсивности в каждом слове, выполняемом голосом, на основе введенного голосового сигнала. Получают первую величину изменения, указывающую изменение интенсивности обнаруженного голоса в направлении оси времени, и вторую величину изменения, указывающую изменение темпа голоса в направлении оси времени, и третью величину изменения, указывающую изменение интонации голоса в направлении оси времени. Вводят голосовой сигнал русскоязычного абонента, а затем обнаруживают интенсивности голоса и темпа. После того как получают третью величину измерения обнаруживают частоту основного тона голосового сигнала и получают четвертую величину изменения, указывающую изменение частоты основного тона в направлении оси времени, генерируют сигналы, выражающие эмоциональное состояние гнева, страха, печали и удовольствия, соответственно, на основе указанных первой, второй, третьей и четвертой величин изменения. 3 ил.

Description

Изобретение относится к средствам распознавания эмоций человека по голосу и может быть использовано для обнаружения эмоций в интеллектуальных инфокоммуникационных системах, а также при проведении различного рода психологических исследований.
Расширение поля коммуникативного взаимодействия должностных лиц, а также постоянно растущие психологические нагрузки при принятии управленческих решений, связанные с уменьшением квоты доверия общающихся друг к другу, трансформируют формально-ролевое общение в деловое, при котором наряду с обменом информацией должны учитываться особенности личности абонента, его настроение, физиологическое и эмоциональное состояния. Перспективным в этом смысле может стать отказ от традиционных принципов кодирования и передачи аудио (речевых) сигналов в инфокоммуникационных системах в пользу интеллектуальной обработки сигналов.
Интеллектуальность (совмещение передачи и обработки информации на различных уровнях представления) инфокоммуникационных систем должна закладываться на ранних этапах их жизненного цикла и одной из функций реализовывать возможность определения эмоционального состояния абонента по голосу.
Известны способы определения эмоциональной напряженности (стресса) (патенты RU 2068653 от 10.11.1996 и RU 2073484 от 20.02.1997), согласно которым регистрируют кожно-гальваническую реакцию, частоту сердечных сокращений и частоту дыхания и по их динамике оценивают эмоциональную напряженность. Общим недостатком указанных аналогов является невозможность обнаружения эмоций (эмоциональной напряженности) человека без использования датчиков.
Известен способ определения эмоций по синтезированному речевому сигналу (патент JP 02-236600 от 19.09.1990), согласно которому из оцифрованного речевого сигнала выделяют частоту основного тона и рассчитывают амплитудный спектр, а затем на основе указанных параметров генерируют сигнал, выражающий эмоцию. Недостатком аналога является низкая точность обнаружения эмоциональных состояний.
Наиболее близким по технической сущности к заявляемому способу и выбранным в качестве прототипа является способ обнаружения эмоций (патент RU 2287856 от 20.11.2006), заключающийся в том, что вводят голосовой сигнал; обнаруживают интенсивности голоса и темп, определяемый скоростью, с которой появляется голос, соответственно, и обнаруживают в виде величины времени, интонацию, которая отражает рисунок изменения интенсивности в каждом слове, выполняемом голосом, на основе введенного голосового сигнала; получают первую величину изменения, указывающую изменение интенсивности обнаруженного голоса в направлении оси времени, вторую величину изменения, указывающую изменение темпа голоса в направлении оси времени, и третью величину изменения, указывающую изменение интонации голоса в направлении оси времени, соответственно; и генерируют сигналы, выражающие эмоциональное состояние по меньшей мере гнева, печали и удовольствия, соответственно, на основе указанных первой, второй и третьей величин изменения.
Способ-прототип предусматривает распознавание эмоций на основе изменений интенсивности, темпа и интонации голоса во времени. Однако в большинстве языков эмоционально-различительную функцию выполняет частота основного тона (ЧОТ). В [А.Ф.Хроматиди, И.Б.Старченко. Оценка акустических параметров эмоциональной речи / Первая ежегодная научная конференция студентов и аспирантов базовых кафедр ЮНЦ РАН, 2009. - С.212-214] установлено, что среднее значение ЧОТ поднимается в состоянии удовольствия и понижается в состоянии печали, кроме того существенно меняется динамика изменения ЧОТ: при печали происходит ее плавное уменьшение, при гневе появляются резкие пики в изменении частоты. Таким образом, динамика изменения ЧОТ является важнейшим средством определения эмоциональной информации, а недостатком способа-прототипа является низкая точность обнаружения эмоций, в частности обнаружение эмоций для русского языка.
Задачей изобретения является разработка способа обнаружения эмоций по голосу, позволяющего повысить точность определения эмоционального состояния русскоязычного абонента.
В заявленном способе эта задача решается тем, что в способе обнаружения эмоций по голосу, в котором вводят голосовой сигнал; обнаруживают интенсивности голоса и темп, определяемый скоростью, с которой появляется голос, соответственно, и обнаруживают в виде величины времени, интонацию, которая отражает рисунок изменения интенсивности в каждом слове, выполняемом голосом, на основе введенного голосового сигнала; получают первую величину изменения, указывающую изменение интенсивности обнаруженного голоса в направлении оси времени, вторую величину изменения, указывающую изменение темпа голоса в направлении оси времени, и третью величину изменения, указывающую изменение интонации голоса в направлении оси времени, соответственно; дополнительно обнаруживают частоту основного тона голосового сигнала и получают четвертую величину изменения, указывающую изменение частоты основного тона в направлении оси времени. Затем генерируют сигналы, выражающие эмоциональное состояние гнева, страха, печали и удовольствия, соответственно, на основе указанных первой, второй, третьей и четвертой величин изменения.
Новая совокупность существенных признаков позволяет достичь указанного технического результата за счет обнаружения изменения частоты основного тона и генерации сигналов, выражающих эмоциональное состояние говорящего, на основе четырех величин изменения.
Проведенный анализ уровня техники позволил установить, что аналоги, характеризующиеся совокупностью признаков, тождественных всем признакам заявленного способа обнаружения эмоций, отсутствуют. Следовательно, заявленное изобретение соответствует условию патентоспособности «новизна».
Результаты поиска известных решений в данной и смежных областях техники с целью выявления признаков, совпадающих с отличительными от прототипа признаками заявленного объекта, показали, что они не следуют явным образом из уровня техники. Из уровня техники также не выявлена известность влияния предусматриваемых существенными признаками заявленного изобретения преобразований на достижение указанного технического результата. Следовательно, заявленное изобретение соответствует условию патентоспособности «изобретательский уровень».
Заявленное изобретение поясняется следующими фигурами:
на фиг.1 - вариант реализации системы обнаружения эмоций по голосу согласно предлагаемому способу;
на фиг.2 - решающие правила определения эмоций согласно предлагаемому способу;
на фиг.3 - результаты оценки точности определения эмоционального состояния.
Реализация заявленного способа заключается в следующем (фиг.1).
Голосовой сигнал, введенный через микрофон 101, квантуется с помощью аналого-цифрового преобразователя 102, а затем преобразуется в цифровой сигнал. Цифровой голосовой сигнал, полученный на выходе аналого-цифрового преобразователя, подается в блок 103 обработки сигналов, блок 104 обнаружения фонем, блок 105 обнаружения слов и блок 106 обнаружения частоты основного тона.
Блок 103 обработки сигналов извлекает частотные составляющие, необходимые для обнаружения интенсивности голоса. Блок 107 обнаружения интенсивности обнаруживает интенсивность сигнала, извлеченного блоком 103 обработки сигналов. Например, в качестве интенсивности можно использовать результат, полученный путем усреднения величины амплитуды голосового сигнала или его динамического диапазона D.
Блок 104 обнаружения фонем реализует сегментацию каждой фонемы голосового сигнала, введенного в него. Блок 108 обнаружения темпа принимает сигнал сегментации каждой фонемы, выданный блоком 104 обнаружения фонем, и обнаруживает число фонем F, которые появляются в единицу времени. В качестве цикла обнаружения темпа устанавливается время, равное, например, 10 с. Однако, если обнаружена сегментация фразы, то отсчет фонем останавливается до момента времени обнаружения сегментации фразы, даже если сегментация фразы обнаружена внутри 10 с, и вычисляется величина темпа. В частности, темп определяется для каждой фразы.
Блок 105 обнаружения слов реализует сегментацию каждого слова голосового сигнала, введенного в него. Блок 109 обнаружения интонации принимает сигнал сегментации каждого слова, выданный блоком 105 обнаружения слов, и обнаруживает интонацию, выражающую рисунок изменения интенсивности голоса в слове. Таким образом, блок 109 обнаружения интонации обнаруживает характеристический рисунок интенсивности в сегментации. Как показано в прототипе, в блоке 109 обнаружения интонации предусмотрены полосовой фильтр, блок преобразования абсолютной величины, блок сравнения, блок обнаружения центра зоны и блок обнаружения интервала зон. В качестве величины интонации I на выходе блока 109 обнаружения интонации выступает результат усреднения значений интервалов, между зонами в спектре мощности сигналов, для которых характерно превышение некоторого порогового значения.
Блок 106 обнаружения частоты основного тона реализует определение частоты основного тона введенного в него голосового сигнала. Блок 106 обнаружения частоты основного тона FОТ может быть реализован, например, в соответствии с известным решением (патент №78977 от 10.12.2008).
Эмоциональное состояние человека изменяется, поэтому для правильного определения эмоций, включающих гнев, страх, печаль и удовольствие, обязательно необходимо обнаруживать изменение характеристических величин, таких как интенсивность D, темп F, интонация I и частота основного тона FОТ.
В системе обнаружения эмоций, показанной на фиг.1, с целью обеспечения возможности опоры на величины характеристик в прошлом, величину интенсивности D, выдаваемую блоком 107 обнаружения интенсивности, величину темпа F, выдаваемую блоком 108 обнаружения темпа, величину интонации I, выдаваемую блоком 109 обнаружения интонации, и величину частоты основного тона FОТ, выдаваемую блоком 106 обнаружения частоты основного тона, временно сохраняют в блоке 110 временного хранения данных.
Кроме того, блок 111 обнаружения изменения эмоций принимает имеющуюся величину интенсивности D, выдаваемую блоком 107 обнаружения интенсивности, имеющуюся величину темпа F, выдаваемую блоком 108 обнаружения темпа, имеющуюся величину интонации I, выдаваемую блоком 109 обнаружения интонации, и имеющуюся величину частоты основного тона FОТ, выдаваемую блоком 106 обнаружения частоты основного тона. Блок 111 обнаружения изменения эмоций также принимает прошлые величины интенсивности, темпа, интонации и частоты основного тона, которые хранятся в блоке 110 временного хранения данных. Таким образом, блок 111 обнаружения изменения эмоций обнаруживает изменения в интенсивности, темпе, интонации и частоте основного тона голоса, соответственно. Блок 112 обнаружения эмоций по голосу принимает изменения интенсивности ΔD, темпа ΔF, интонации ΔI и частоты основного тона ΔFОТ голоса, которые выдает блок 111 обнаружения изменения эмоций, оценивает текущее эмоциональное состояние и генерирует сигналы, выражающие эмоциональное состояние гнева, страха, печали и удовольствия, в этом варианте реализации системы.
Заявленный способ обнаружения эмоций по голосу обеспечивает повышение точности определения эмоционального состояния русскоязычного абонента. Для доказательства достижения заявленного технического результата приведены следующие экспериментальные исследования.
Для определения эмоционального состояния использовались записи эмоциональной речи 80 профессиональных актеров - мужчин и женщин в возрасте от 28 до 32 лет. Каждым из них были произнесены 4 слова (картон, тихо, молоко, посуда) с выражением четырех эмоциональных состояний: гнева, страха, печали и удовольствия.
Указанные записи обрабатывались с использованием варианта выполнения системы обнаружения эмоций согласно способу-прототипу и варианту реализации системы обнаружения эмоций по голосу (фиг.1) согласно предлагаемому способу. При этом блок 112 обнаружения эмоций по голосу оценивал текущее эмоциональное состояние и генерировал сигналы, выражающие эмоциональное состояние гнева, страха, печали и удовольствия, согласно решающим правилам определения эмоций, представленным на фиг.2.
Для оценки точности определения эмоционального состояния русскоязычного абонента использовался коэффициент совпадений
K i = N с о в п . i N i
Figure 00000001
,
где Nсовп.i - число правильно определенных записей с выражением i-го эмоционального состояния; Ni - общее число записей с выражением г-го эмоционального состояния; i=1, 2, 3, 4 - номер эмоционально состояния - гнева, страха, печали и удовольствия соответственно.
Результаты оценивания согласно способу-прототипу и предлагаемому способу (фиг.3) указывают на повышение точности определения эмоционального состояния в заявляемом способе и на возможность решения поставленной задачи изобретения.

Claims (1)

  1. Способ обнаружения эмоций по голосу, заключающийся в том, что обнаруживают интенсивности голоса и темпа, определяемого скоростью, с которой появляется голос, соответственно, и обнаруживают в виде величины времени интонацию, которая отражает рисунок изменения интенсивности в каждом слове, выполняемом голосом, на основе введенного голосового сигнала; получают первую величину изменения, указывающую изменение интенсивности обнаруженного голоса в направлении оси времени, и вторую величину изменения, указывающую изменение темпа голоса в направлении оси времени, и третью величину изменения, указывающую изменение интонации голоса в направлении оси времени, отличающийся тем, что вводят голосовой сигнал русскоязычного абонента, а затем обнаруживают интенсивности голоса и темпа; после того как получают третью величину измерения, обнаруживают частоту основного тона голосового сигнала и получают четвертую величину изменения, указывающую изменение частоты основного тона в направлении оси времени; генерируют сигналы, выражающие эмоциональное состояние гнева, страха, печали и удовольствия, соответственно, на основе указанных первой, второй, третьей и четвертой величин изменения.
RU2012109382/08A 2012-03-12 2012-03-12 Способ обнаружения эмоций по голосу RU2510955C2 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2012109382/08A RU2510955C2 (ru) 2012-03-12 2012-03-12 Способ обнаружения эмоций по голосу

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2012109382/08A RU2510955C2 (ru) 2012-03-12 2012-03-12 Способ обнаружения эмоций по голосу

Publications (2)

Publication Number Publication Date
RU2012109382A RU2012109382A (ru) 2013-10-20
RU2510955C2 true RU2510955C2 (ru) 2014-04-10

Family

ID=49356664

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2012109382/08A RU2510955C2 (ru) 2012-03-12 2012-03-12 Способ обнаружения эмоций по голосу

Country Status (1)

Country Link
RU (1) RU2510955C2 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2718868C1 (ru) * 2019-06-19 2020-04-15 Федеральное Государственное Бюджетное Образовательное Учреждение Высшего Образования "Новосибирский Государственный Технический Университет" Способ диагностики психоэмоционального состояния по голосу

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2553413C2 (ru) * 2012-08-29 2015-06-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Воронежский государственный университет" (ФГБУ ВПО "ВГУ") Способ выявления эмоционального состояния человека по голосу

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6353810B1 (en) * 1999-08-31 2002-03-05 Accenture Llp System, method and article of manufacture for an emotion detection system improving emotion recognition
RU42905U1 (ru) * 2004-10-05 2004-12-20 Наздратенко Андрей Евгеньевич Система для обнаружения эмоций
RU2287856C2 (ru) * 2000-09-13 2006-11-20 А.Г.И. Инк. Способ обнаружения эмоций, способ генерирования чувствительности и система и машиночитаемый носитель для их осуществления
RU2403626C2 (ru) * 2005-06-09 2010-11-10 А.Г.И. Инк. Анализатор речи, обнаруживающий частоту основного тона, способ анализа речи и программа анализа речи

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6353810B1 (en) * 1999-08-31 2002-03-05 Accenture Llp System, method and article of manufacture for an emotion detection system improving emotion recognition
RU2287856C2 (ru) * 2000-09-13 2006-11-20 А.Г.И. Инк. Способ обнаружения эмоций, способ генерирования чувствительности и система и машиночитаемый носитель для их осуществления
RU42905U1 (ru) * 2004-10-05 2004-12-20 Наздратенко Андрей Евгеньевич Система для обнаружения эмоций
RU2403626C2 (ru) * 2005-06-09 2010-11-10 А.Г.И. Инк. Анализатор речи, обнаруживающий частоту основного тона, способ анализа речи и программа анализа речи

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2718868C1 (ru) * 2019-06-19 2020-04-15 Федеральное Государственное Бюджетное Образовательное Учреждение Высшего Образования "Новосибирский Государственный Технический Университет" Способ диагностики психоэмоционального состояния по голосу

Also Published As

Publication number Publication date
RU2012109382A (ru) 2013-10-20

Similar Documents

Publication Publication Date Title
Basu et al. Emotion recognition from speech using convolutional neural network with recurrent neural network architecture
US10991384B2 (en) Method for automatic affective state inference and an automated affective state inference system
Li et al. Stress and emotion classification using jitter and shimmer features
JP5708155B2 (ja) 話者状態検出装置、話者状態検出方法及び話者状態検出用コンピュータプログラム
Benba et al. Voiceprints analysis using MFCC and SVM for detecting patients with Parkinson's disease
ES2261706T3 (es) Metodo y aparato para analisis de la conversacion.
CN103021406B (zh) 基于压缩感知的鲁棒性语音情感识别方法
Benba et al. Voice analysis for detecting persons with Parkinson’s disease using MFCC and VQ
Tsenov et al. Speech recognition using neural networks
Bone et al. Classifying language-related developmental disorders from speech cues: the promise and the potential confounds.
CN112151066A (zh) 基于声音特征识别的语言冲突监测方法、介质及设备
Kaur et al. Genetic algorithm for combined speaker and speech recognition using deep neural networks
WO2017138376A1 (ja) 推定方法、推定プログラム、推定装置および推定システム
RU2510955C2 (ru) Способ обнаружения эмоций по голосу
Little et al. Fluency Profiling System: An automated system for analyzing the temporal properties of speech
Sharma et al. Processing and analysis of human voice for assessment of Parkinson disease
US20170032804A1 (en) Method for determining alcohol consumption, and recording medium and terminal for carrying out same
Mathur et al. Effect of disguise on fundamental frequency of voice
WO2021132289A1 (ja) 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム
CN111210838B (zh) 一种言语认知能力的评价方法
RU2718868C1 (ru) Способ диагностики психоэмоционального состояния по голосу
Park et al. A study on Leaders’ voice and that Influences
Tavi Acoustic correlates of female speech under stress based on/i/-vowel measurements.
CN112002342A (zh) 智能语音技术支持的中医闻声诊自动化系统
Kandali et al. Vocal emotion recognition in five languages of Assam using features based on MFCCs and Eigen Values of Autocorrelation Matrix in presence of babble noise

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20140323