JP7420216B2 - 音声評価システム、音声評価方法、及びコンピュータプログラム - Google Patents

音声評価システム、音声評価方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP7420216B2
JP7420216B2 JP2022507978A JP2022507978A JP7420216B2 JP 7420216 B2 JP7420216 B2 JP 7420216B2 JP 2022507978 A JP2022507978 A JP 2022507978A JP 2022507978 A JP2022507978 A JP 2022507978A JP 7420216 B2 JP7420216 B2 JP 7420216B2
Authority
JP
Japan
Prior art keywords
evaluation
voice
evaluation system
group
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022507978A
Other languages
English (en)
Other versions
JPWO2021186691A1 (ja
Inventor
芳紀 幸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021186691A1 publication Critical patent/JPWO2021186691A1/ja
Application granted granted Critical
Publication of JP7420216B2 publication Critical patent/JP7420216B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • G10L21/12Transforming into visible information by displaying time domain information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Hospice & Palliative Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Telephonic Communication Services (AREA)

Description

この開示は、音声を評価する音声評価システム、音声評価方法、及びコンピュータプログラムの技術分野に関する。
この種のシステムとして、発話音声を取得して、発話した人の感情を推定するシステムが知られている。例えば特許文献1では、コールセンターに電話をかけてきた顧客の音声から、怒りや困惑の感情を定量解析するという技術が開示されている。特許文献2では、入力音声データから抽出した音声特徴量のパラメータを用いて、感情を「笑い」、「怒り」、「悲しみ」などに分類する技術が開示されている。特許文献3では、対話音声データを入力として、喜怒、満足度、ストレス度、信頼度等の感情を数値化した定量的指標を出力する技術が開示されている。
特開2007-004001号公報 特開2005-354519号公報 特許第6517419号公報
上述した各特許文献では、主に一対一の会話を対象とするものであり、集団から発せられる音声に関する評価については考慮されていない。
この開示は、上記した課題を解決するための音声評価システム、音声評価方法、及びコンピュータプログラムを提供することを課題とする。
この開示の音声評価システムの一の態様は、複数人からなる集団が発する音声を取得する取得手段と、前記取得した音声から感情に応じた要素を検出する検出手段と、前記検出された要素に基づいて、前記取得した音声を評価する評価手段とを備える。
この開示の音声評価方法の一の態様は、複数人からなる集団が発する音声を取得し、前記取得した音声から感情に応じた要素を検出し、前記検出された要素に基づいて、前記取得した音声を評価する。
この開示のコンピュータプログラムの一の態様は、複数人からなる集団が発する音声を取得し、前記取得した音声から感情に応じた要素を検出し、前記検出された要素に基づいて、前記取得した音声を評価するようにコンピュータを動作させる。
第1実施形態に係る音声評価システムの全体構成を示すブロック図である。 第1実施形態に係る音声評価システムのハードウェア構成を示すブロック図である。 第1実施形態に係る音声評価システムの動作の流れを示すフローチャートである。 第2実施形態に係る音声評価システムの全体構成を示すブロック図である。 第2実施形態に係る音声評価システムの動作の流れを示すフローチャートである。 第3実施形態に係る音声評価システムの全体構成を示すブロック図である。 第3実施形態に係る音声評価システムの動作の流れを示すフローチャートである。 第4実施形態に係る音声評価システムの全体構成を示すブロック図である。 第4実施形態に係る音声評価システムの動作の流れを示すフローチャートである。 第5実施形態に係る評価データの表示例を示す図(その1)である。 第5実施形態に係る評価データの表示例を示す図(その2)である。 第5実施形態に係る評価データの表示例を示す図(その3)である。 第5実施形態に係る評価データの表示例を示す図(その4)である。 第5実施形態に係る評価データの表示例を示す図(その5)である。 第6実施形態に係る音声評価システムの全体構成を示すブロック図である。 第6実施形態に係る音声評価システムの動作の流れを示すフローチャートである。 第7実施形態に係る音声評価システムによるエリアごとの音声評価を示す概念図である。
以下、図面を参照しながら、音声評価システム、音声評価方法、及びコンピュータプログラムの実施形態について説明する。
<第1実施形態>
第1実施形態に係る音声評価システムについて、図1から図3を参照して説明する。
(システム構成)
まず、図1を参照しながら、第1実施形態に係る音声評価システムの全体構成について説明する。図1は、第1実施形態に係る音声評価システムの全体構成を示すブロック図である。
図1において、第1実施形態に係る音声評価システム10は、集団が発する音声を評価可能なシステムとして構成されている。ここでの「集団」とは、複数人からなる人の集まりであり、具体的には、舞台やスポーツ観戦等の各種イベントの観客等が一例として挙げられる。音声評価システム10は、その機能を実現するための機能ブロックとして、音声取得部110と、感情要素検出部120と、音声評価部130とを備えている。
音声取得部110は、集団が発する音声(以下、適宜「集団音声」と称する)を取得可能に構成されている。音声取得部110は、例えば集団ができる場所に設置されたマイクを含んで構成されている。また、音声取得部110は、取得した音声に対する各種処理(例えば、ノイズ除去処理や、特定の区間を抽出する処理等)を実行可能に構成されてよい。音声取得部110で取得された集団音声は、感情要素検出部120に出力される構成となっている。
感情要素検出部120は、音声取得部110で取得した集団音声から感情要素を検出可能に構成されている。ここでの「感情要素」とは、音声に含まれる集団の感情を示す要素であり、例えば「喜び」の感情に対応する要素、「怒り」の感情に対応する要素、「哀しみ」の感情に対応する要素等が一例として挙げられる。感情要素検出部120は、予め設定した少なくとも1種類の感情要素を検出可能に構成されている。なお、音声から感情要素を検出する手法については、適宜既存の技術を採用することができるが、例えば音声の周波数解析を用いた手法や、ディープラーニングを用いた手法等を利用可能である。感情要素検出部120で検出された感情要素に関する情報は、音声評価部130に出力される構成となっている。
音声評価部130は、感情要素検出部120で検出した感情要素に基づいて、集団音声を評価可能に構成されている。具体的には、音声評価部130は、集団音声から検出された感情要素から、集団の感情の度合いを評価可能に構成されている。音声評価部130は、例えば感情要素を数値化することで集団音声を評価する。例えば、「喜び」の感情に対応する要素が検出されている場合、音声評価部130は、集団の「喜び」の感情に対応するスコアを算出して評価を行う。具体的には、集団音声に「喜び」の感情に対応する要素が多く含まれている場合は、「喜び」の感情に対応するスコアを高い値として算出すればよい。一方、集団音声に「喜び」の感情に対応する要素が多く含まれていない場合は、「喜び」の感情に対応するスコアを低い値として算出すればよい。
(ハードウェア構成)
次に、図2を参照しながら、第1実施形態に係る音声評価システム10のハードウェア構成について説明する。図2は、第1実施形態に係る音声評価システムのハードウェア構成を示すブロック図である。
図2に示すように、第1実施形態に係る音声評価システム10は、プロセッサ11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、記憶装置14とを備えている。音声評価システム10は更に、入力装置15と、出力装置16とを備えていてもよい。プロセッサ11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、出力装置16とは、データバス17を介して接続されている。なお、音声評価システム10は、プロセッサ11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、出力装置16とを、それぞれ複数備えていてもよい。
プロセッサ11は、コンピュータプログラムを読み込む。例えば、プロセッサ11は、RAM12、ROM13及び記憶装置14のうちの少なくとも一つが記憶しているコンピュータプログラムを読み込むように構成されている。或いは、プロセッサ11は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。プロセッサ11は、ネットワークインタフェースを介して、音声評価システム10の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、読み込んでもよい)。プロセッサ11は、読み込んだコンピュータプログラムを実行することで、RAM12、記憶装置14、入力装置15及び出力装置16を制御する。本実施形態では特に、プロセッサ11が読み込んだコンピュータプログラムを実行すると、プロセッサ11内には、取得した音声を評価するための機能ブロックが実現される(図1参照)。なお、プロセッサ11として、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)、DSP(digital signal processor)、ASIC(application specific integrated circuit)の何れかを用いてもよい。また、これらのうち複数を並列に用いてもよい。
RAM12は、プロセッサ11が実行するコンピュータプログラムを一時的に記憶する。RAM12は、プロセッサ11がコンピュータプログラムを実行している際にプロセッサ11が一時的に使用するデータを一時的に記憶する。RAM12は、例えば、D-RAM(Dynamic RAM)であってもよい。
ROM13は、プロセッサ11が実行するコンピュータプログラムを記憶する。ROM13は、その他に固定的なデータを記憶していてもよい。ROM13は、例えば、P-ROM(Programmable ROM)であってもよい。
記憶装置14は、音声評価システム10が長期的に保存するデータを記憶する。記憶装置14は、プロセッサ11の一時記憶装置として動作してもよい。記憶装置14は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
入力装置15は、音声評価システム10のユーザからの入力指示を受け取る装置である。入力装置15は、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを含んでいてもよい。
出力装置16は、音声評価システム10に関する情報を外部に対して出力する装置である。例えば、出力装置16は、音声評価システム10に関する情報を表示可能な表示装置(例えば、ディスプレイ)であってもよい。
(動作の流れ)
次に、図3を参照しながら、第1実施形態に係る音声評価システム10の動作の流れについて説明する。図3は、第1実施形態に係る音声評価システムの動作の流れを示すフローチャートである。
図3に示すように、第1実施形態に係る音声評価システム10の動作時には、まず音声取得部110が集団音声を取得する(ステップS11)。なお、音声取得部110は、音声を常時取得してもよいし、所定期間にのみ取得するようにしてもよい。或いは、音声取得部110は、音声を常時取得して所定期間の音声のみを抽出するような処理を実行してもよい。
続いて、感情要素検出部120が、音声取得部110で取得された集団音声から感情要素を検出する(ステップS12)。そして、音声評価部130が、感情要素検出部120で検出された感情要素に基づいて集団音声を評価する(ステップS13)。なお、音声評価部130による評価結果は、例えば図示せぬ表示装置等に出力されてよい。
(技術的効果)
次に、第1実施形態に係る音声評価システム10によって得られる技術的効果の一例について説明する。
例えば、舞台、スポーツ観戦等、各種イベントの会場では、盛り上がりによって集団から発せられる音声(例えば、歓声や悲鳴等)が変化する。このため、このような音声を適切に評価することができれば、そのイベントがどの程度来場者に受け入れられたのか判断できると考えられる。
図1から図3で説明したように、第1実施形態に係る音声評価システム10では、集団が発する集団音声から感情要素を検出して評価が行われる。よって、第1実施形態に係る音声評価システム10によれば、集団音声を利用して、集団の感情を適切に評価することが可能である。例えば、第1実施形態に係る音声評価システム10では、大勢の観客を集めるイベント等において、その音声から観客の盛り上がり等を数値化して評価することができる。よって、そのイベントが成功したか否かを客観的に評価することが可能となる。
なお、第1実施形態に係る音声評価システム10は、集団が発する集団音声を評価するため、例えば一人ひとりから音声を取得するのが困難な状況であっても、集団全体としての感情を適切に評価することが可能である。また、顔画像等を用いずに音声のみで評価ができるため、照明が暗い環境下においても適切に集団の感情を評価することができる。
<第2実施形態>
第2実施形態に係る音声評価システムについて、図4及び図5を参照して説明する。なお、第2実施形態は、上述した第1実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分ついては概ね同様である。よって、以下では第1実施形態と異なる部分について詳細に説明し、他の重複する部分については適宜説明を省略するものとする。
(システム構成)
まず、図4を参照しながら、第2実施形態に係る音声評価システムの全体構成について説明する。図4は、第2実施形態に係る音声評価システムの全体構成を示すブロック図である。なお、図4では、図1で示した構成要素と同様のものに同一の符号を付している。
図4に示すように、第2実施形態に係る音声評価システム10は、音声取得部110が、発生区間記録部111と、無音区間記録部112とを備えている。感情要素検出部120が、第1要素検出部121と、第2要素検出部122と、第3要素検出部123と、第4要素検出部124とを備えている。
発生区間記録部111は、集団が音声を発している区間で取得された音声を記録する。発生区間記録部111で記録された音声は、感情要素検出部120に出力される構成となっている。一方、無音区間記録部112は、集団が音声を発していない区間(例えば、音量が所定閾値以下となるような区間)を記録する。無音区間記録部112で記録された区間については、感情要素検出部120には出力されず、評価データ生成部140に直接出力される構成となっている(言い換えれば、評価対象から外されている)。このようにすれば、音声評価する区間を限定してシステムの処理負荷を低減することができる。
第1要素検出部121、第2要素検出部122、第3要素検出部123、及び第4要素検出部124は、それぞれ異なる感情要素を検出可能に構成されている。例えば、第1要素検出部121は「喜び」の感情に対応する感情要素を検出し、第2要素検出部122は「怒り」の感情に対応する感情要素を検出し、第3要素検出部123は「哀しみ」の感情に対応する感情要素を検出し、第4要素検出部124は「楽しみ」の感情に対応する感情要素を検出してもよい。
(ハードウェア構成)
第2実施形態に係る音声評価システム10のハードウェア構成については、第1実施形態に係る音声評価システム10のハードウェア構成(図2参照)と同一であってもよいため、その説明については省略する。
(動作の流れ)
次に、図5を参照しながら、第2実施形態に係る音声評価システム10の動作の流れについて説明する。図5は、第2実施形態に係る音声評価システムの動作の流れを示すフローチャートである。
図5に示すように、第2実施形態に係る音声評価システム10の動作時には、まず音声取得部110が集団音声を取得する(ステップS21)。また音声取得部110は、取得した音声から、実際に集団が音声を発生している区間の音声を抽出する(ステップS22)。具体的には、集団が音声を発している区間の音声を発生区間記録部111が記録し、集団が音声を発していない区間を無音区間記録部112が記録する。
続いて、感情要素検出部120が、音声取得部110で取得された集団音声から感情要素を検出する(ステップS23)。具体的には、第1要素検出部121、第2要素検出部122、第3要素検出部123、及び第4要素検出部124が、それぞれ異なる感情に対応する感情要素を検出する。
第1要素検出部121、第2要素検出部122、第3要素検出部123、及び第4要素検出部124で検出された各感情要素は、それぞれ音声評価部130に入力される。そして、音声評価部130が、感情要素検出部120で検出された感情要素に基づいて集団音声を評価する(ステップS24a)。
(技術的効果)
次に、第2実施形態に係る音声評価システム10によって得られる技術的効果の一例について説明する。
図4及び図5で説明したように、第2実施形態に係る音声評価システム10では、感情要素検出部120に、第1要素検出部121、第2要素検出部122、第3要素検出部123、及び第4要素検出部124が備えられているため、音声取得部110で取得した音声から、複数種類の感情要素を検出することが可能である。これにより、感情の種類に応じた音声評価を実現することが可能となる。
<第3実施形態>
第3実施形態に係る音声評価システムについて、図6及び図7を参照して説明する。なお、第3実施形態は、上述した第1及び第2実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分ついては概ね同様である。よって、以下では第1及び第2実施形態と異なる部分について詳細に説明し、他の重複する部分については適宜説明を省略するものとする。
(システム構成)
まず、図6を参照しながら、第3実施形態に係る音声評価システムの全体構成について説明する。図6は、第3実施形態に係る音声評価システムの全体構成を示すブロック図である。なお、図6では、図1及び図4で示した構成要素と同様のものに同一の符号を付している。
図6に示すように、第3実施形態に係る音声評価システム10は、音声評価部130が、第1評価部131と、第2評価部132と、第3評価部133と、第4評価部134とを備えている。
第1評価部131は、第1要素検出部121が検出した感情要素に基づいて音声を評価可能に構成されている。第2評価部132は、第2要素検出部122が検出した感情要素に基づいて音声を評価可能に構成されている。第3評価部133は、第3要素検出部123が検出した感情要素に基づいて音声を評価可能に構成されている。第4評価部134は、第4要素検出部124が検出した感情要素に基づいて音声を評価可能に構成されている。
(ハードウェア構成)
第3実施形態に係る音声評価システム10のハードウェア構成については、第1実施形態に係る音声評価システム10のハードウェア構成(図2参照)と同一であってもよいため、その説明については省略する。
(動作の流れ)
次に、図7を参照しながら、第3実施形態に係る音声評価システム10の動作の流れについて説明する。図7は、第3実施形態に係る音声評価システムの動作の流れを示すフローチャートである。
図7に示すように、第3実施形態に係る音声評価システム10の動作時には、まず音声取得部110が集団音声を取得する(ステップS21)。また音声取得部110は、取得した音声から、実際に集団が音声を発生している区間の音声を抽出する(ステップS22)。
続いて、感情要素検出部120が、音声取得部110で取得された集団音声から感情要素を検出する(ステップS23)。具体的には、第1要素検出部121、第2要素検出部122、第3要素検出部123、及び第4要素検出部124が、それぞれ異なる感情に対応する感情要素を検出する。第1要素検出部121、第2要素検出部122、第3要素検出部123、及び第4要素検出部124で検出された各感情要素は、それぞれ音声評価部130に入力される。
続いて、音声評価部130が、感情要素検出部120で検出された感情要素に基づいて集団音声を評価する(ステップS24)。具体的には、第1評価部131、第2評価部132、第3評価部133、及び第4評価部134が、第1要素検出部121、第2要素検出部122、第3要素検出部123、及び第4要素検出部124で検出された感情要素に基づく評価を別々に行う。
(技術的効果)
次に、第3実施形態に係る音声評価システム10によって得られる技術的効果の一例について説明する。
図6及び図7で説明したように、第3実施形態に係る音声評価システム10では、音声評価部130に、第1評価部131、第2評価部132、第3評価部133、及び第4評価部134が備えられているため、第1要素検出部121、第2要素検出部122、第3要素検出部123、及び第4要素検出部124で検出した複数種類の感情要素の各々について、別々に音声評価を行うことが可能となる。
<第4実施形態>
第4実施形態に係る音声評価システムについて、図8及び図9を参照して説明する。なお、第4実施形態は、上述した第1から第3実施形態と比べて一部の動作が異なるのみであり、その他の部分ついては概ね同様である。よって、以下では第1から第3実施形態と異なる部分について詳細に説明し、他の重複する部分については適宜説明を省略するものとする。
(システム構成)
まず、図8を参照しながら、第4実施形態に係る音声評価システムの全体構成について説明する。図8は、第4実施形態に係る音声評価システムの全体構成を示すブロック図である。なお、図8では、図1、図4、及び図6で示した構成要素と同様のものに同一の符号を付している。
図8に示すように、第4実施形態に係る音声評価システム10は、第3実施形態の構成要素(図6参照)に加えて、評価データ生成部140を備えている。なお、第4実施形態に係る音声評価システム10は、第1実施形態の構成要素(図1参照)に加えて、評価データ生成部140を備えたものであってもよい。或いは、第4実施形態に係る音声評価システム10は、第2実施形態の構成要素(図4参照)に加えて、評価データ生成部140を備えたものであってもよい。
評価データ生成部140は、第1評価部131、第2評価部132、第3評価部133、及び第4評価部134の評価結果、並びに無音区間記録部112に記憶されている区間の情報を統合して、評価データを生成可能に構成されている。評価データは、音声評価システム10のユーザが評価結果を適切に把握するためのデータとして生成される。評価データの具体例については、後の第5実施形態で詳しく説明する。
(ハードウェア構成)
第4実施形態に係る音声評価システム10のハードウェア構成については、第1実施形態に係る音声評価システム10のハードウェア構成(図2参照)と同一であってもよいため、その説明については省略する。なお、評価データ生成部140については、例えばプロセッサ11(図2参照)により実現すればよい。
(動作の流れ)
次に、図9を参照しながら、第4実施形態に係る音声評価システム10の動作の流れについて説明する。図9は、第4実施形態に係る音声評価システムの動作の流れを示すフローチャートである。
図9に示すように、第4実施形態に係る音声評価システム10の動作時には、まず音声取得部110が集団音声を取得する(ステップS21)。また音声取得部110は、取得した音声から、実際に集団が音声を発生している区間の音声を抽出する(ステップS22)。
続いて、感情要素検出部120が、音声取得部110で取得された集団音声から感情要素を検出する(ステップS23)。具体的には、第1要素検出部121、第2要素検出部122、第3要素検出部123、及び第4要素検出部124が、それぞれ異なる感情に対応する感情要素を検出する。そして、音声評価部130が、感情要素検出部120で検出された感情要素に基づいて集団音声を評価する(ステップS24)。具体的には、第1評価部131、第2評価部132、第3評価部133、及び第4評価部134が、それぞれ異なる感情要素を用いて集団音声を評価する。
続いて、評価データ生成部140が、集団音声の評価結果から評価データを生成する(ステップS25)。なお、評価データ生成部140で生成された評価データは、例えば図示せぬ表示装置等に出力されてよい。
(技術的効果)
次に、第4実施形態に係る音声評価システム10によって得られる技術的効果の一例について説明する。
図8及び図9で説明したように、第4実施形態に係る音声評価システム10では、評価データ生成部140によって評価データが生成される。よって、評価データを用いて、集団音声の評価結果を適切に把握することが可能となる。
<第5実施形態>
次に、第5実施形態に係る音声評価ステム10について、図10から図14を参照して説明する。なお、第5実施形態は、上述した第4実施形態の評価データ生成部140で生成される評価データの具体例を示すものである。よって、システム構成、ハードウェア構成、及び動作の流れについては、第4実施形態と同一であってもよいため、詳しい説明を省略するものとする。
図10から図14を参照しながら、評価データ生成部140で生成される評価データの具体例について説明する。図10は、第5実施形態に係る評価データの表示例を示す図(その1)である。図11は、第5実施形態に係る評価データの表示例を示す図(その2)である。図12は、第5実施形態に係る評価データの表示例を示す図(その3)である。図13は、第5実施形態に係る評価データの表示例を示す図(その4)である。図14は、第5実施形態に係る評価データの表示例を示す図(その5)である。なお、以下では、音声評価システム10が「喜び」、「怒り」、「哀しみ」、「楽しみ」の4種類の感情を評価する例を挙げて説明する。
図10に示すように、評価用データは、各感情の大きさを棒グラフで示すものとして生成されてよい。図10に示す例では、「喜び」の感情が最も大きく、それと比べて「怒り」、「哀しみ」、「楽しみ」の感情は小さいことが直感的に分かる。
図11に示すように、評価用データは、各感情の大きさを円の大きさで示すものとして生成されてよい。図11に示す例では、「怒り」の感情が最も大きく、それと比べて「喜び」、「哀しみ」、「楽しみ」の感情は小さいことが直感的に分かる。
図12に示すように、評価用データは、各感情の大きさを数値化した表で示すものとして生成されてよい。図12に示す例では、「喜び」の感情が“70”、「怒り」の感情が“10”、「哀しみ」の感情が“5”、「楽しみ」の感情が“15”となっており、各感情の大きさをより正確に把握することができる。
図13に示すように、評価用データは、各感情の大きさの時間軸上での変化を示すもの(言い換えれば、時系列データ)として生成されてよい。図13に示す例では、「喜び」の感情が、時間とともにどのように変化しているかを具体的に把握することができる。このような評価データによれば、イベントの盛り上がりのタイミング等を正確に把握することができる。なお、ここでは「喜び」の感情に対応するグラフのみを図示しているが、他の感情に対応するグラフとの切り替えや、他の感情に対応するグラフを含めた一覧表示等が可能とされてよい。
図14に示すように、評価用データは、動画を表示する動画領域D1と、各感情の大きさを示すグラフを表示するグラフ領域D2とを含むデータとして生成されてよい。動画領域D1では、イベントの様子を撮影した動画が再生でき、シークバーSBを操作することで所望のタイミングに移動することができる。一方、グラフ領域D2では、動画領域D1で表示されている動画の再生タイミングに応じた各感情の大きさが棒グラフとして示される。このようにすれば、実際にどのような状況で、どのように集団の感情が変化したのかを把握することができる。
以上の各表示例は、適宜組み合わせて利用することも可能である。また、上述した評価データの表示例はあくまで一例であり、評価データは、その他の表示態様で表示されても構わない。
(技術的効果)
次に、第5実施形態に係る音声評価システム10によって得られる技術的効果の一例について説明する。
図10から図14で説明したように、第5実施形態に係る音声評価システム10では、集団音声の評価結果を分かりやすく示す評価データが生成される。よって、第5実施形態に係る音声評価システム10によれば、集団音声の評価結果を適切に把握する(例えば、より直感的に或いはより正確に把握する)ことが可能となる。
<第6実施形態>
第6実施形態に係る音声評価システムについて、図15及び図16を参照して説明する。なお、第6実施形態は、上述した第1から第5実施形態と比べて一部の構成や動作が異なるのみであり、その他の部分については概ね同様である。よって、以下では第1から第5実施形態と異なる部分について詳細に説明し、他の重複する部分については適宜説明を省略するものとする。
(システム構成)
まず、図15を参照しながら、第6実施形態に係る音声評価システムの全体構成について説明する。図15は、第6実施形態に係る音声評価システムの全体構成を示すブロック図である。なお、図15では、図1、図4、図6及び図8で示した構成要素と同様のものに同一の符号を付している。
図15に示すように、第6実施形態に係る音声評価システム10は、第4実施形態に係る構成要素(図6参照)に加えて、感情要素検出部120が、悲鳴要素検出部125を備えている。また、音声評価部130が、異常判定部135を備えている。
悲鳴要素検出部125は、音声取得部110が取得した音声から悲鳴に対応する感情要素(以下、適宜「悲鳴要素」と称する)を検出可能に構成されている。なお、ここでの「悲鳴」とは、集団の周囲環境において異常が発生した際(例えば、地震等の自然災害時)に集団から発せられる悲鳴であり、例えば歓声と同種の悲鳴とは明確に区別されている。なお、異常発生時の悲鳴と、他の悲鳴との区別は、例えばニューラルネットワークを用いた機械学習等によって実現することができる。悲鳴要素検出部125で検出された悲鳴要素に関する情報は、異常判定部135に出力される構成となっている。
異常判定部135は、悲鳴要素検出部125で検出した悲鳴要素に基づいて、集団の周囲環境において異常が発生したか否かを判定可能に構成されている。異常判定部135は、悲鳴要素を用いた評価結果として得られる悲鳴に対応する感情の大きさに基づいて異常が発生したか否かを判定する。例えば、異常判定部135は、悲鳴要素から悲鳴に対応する感情のスコアを算出し、そのスコアが所定閾値を超えている場合には異常が発生しており、超えていない場合には異常が発生していないと判定すればよい。
(ハードウェア構成)
第6実施形態に係る音声評価システム10のハードウェア構成については、第1実施形態に係る音声評価システム10のハードウェア構成(図2参照)と同一であってもよいため、その説明については省略する。
(動作の流れ)
次に、図16を参照しながら、第6実施形態に係る音声評価システム10の動作の流れについて説明する。図16は、第6実施形態に係る音声評価システムの動作の流れを示すフローチャートである。なお、図16では、図5、図7、及び図9で示した処理と同様の処理に同一の符号を付している。
図16に示すように、第6実施形態に係る音声評価システム10の動作時には、まず音声取得部110が集団音声を取得する(ステップS21)。また音声取得部110は、取得した音声から、実際に集団が音声を発生している区間の音声を抽出する(ステップS22)。
続いて、感情要素検出部120が、音声取得部110で取得された集団音声から感情要素を検出する(ステップS23)。具体的には、第1要素検出部121、第2要素検出部122、第3要素検出部123、及び第4要素検出部124が、それぞれ異なる感情に対応する感情要素を検出する。加えて、第6実施形態では特に、悲鳴要素検出部125が悲鳴要素を検出する(ステップS31)。
続いて、音声評価部130が、感情要素検出部120で検出された感情要素に基づいて集団音声を評価する(ステップS24)。具体的には、第1評価部131、第2評価部132、第3評価部133、及び第4評価部134が、それぞれ異なる感情要素を用いて集団音声を評価する。また、第6実施形態では特に、異常判定部135が、悲鳴要素検出部125で検出された悲鳴要素に基づいて、集団の周囲環境で異常が発生しているか否かを判定する(ステップS32)
続いて、評価データ生成部140が、集団音声の評価結果から評価データを生成する(ステップS25)。ここで特に、異常判定部135で異常が発生していると判定された場合、評価データ生成部140は、異常に関する情報(例えば、以上の発生タイミング等)を含むものとして生成される。或いは、評価データ生成部140は、通常の評価データとは別に、異常の発生を知らせる異常報知データを生成するようにしてもよい。この場合、異常報知データは、例えばイベント会場のアラーム等の動作を制御するデータを含んでいてもよい。
(技術的効果)
次に、第6実施形態に係る音声評価システム10によって得られる技術的効果の一例について説明する。
図15及び図16で説明したように、第6実施形態に係る音声評価システム10では、悲鳴要素に基づいて異常が発生しているか否かが判定される。よって、第6実施形態に係る音声評価システム10によれば、音声から集団の感情を評価するだけでなく、集団の周囲環境における異常の発生を検知することが可能である。
<第7実施形態>
第7実施形態に係る音声評価システムについて、図17を参照して説明する。なお、第7実施形態は、上述した第1から第6実施形態と比べて一部の構成や動作が異なるのみであり、その他の部分については概ね同様である。よって、以下では第1から第6実施形態と異なる部分について詳細に説明し、他の重複する部分については適宜説明を省略するものとする。
(システム構成)
第7実施形態に係る音声評価システム10の全体構成については、第1から第6実施形態に係る音声評価システム10の全体構成(図1、図4、図6、図8、及び図15参照)と同一であってもよいため、その説明については省略する。
(ハードウェア構成)
第7実施形態に係る音声評価システム10のハードウェア構成については、第1実施形態に係る音声評価システム10のハードウェア構成(図2参照)と同一であってもよいため、その説明については省略する。
(領域ごとの音声評価)
次に、図17を参照しながら、第7実施形態に係る音声評価システム10で実行可能な領域ごとの音声評価について説明する。図17は、第7実施形態に係る音声評価システムによるエリアごとの音声評価を示す概念図である。以下では、舞台の観客である集団が発する音声を評価するケースを例にして説明する。
図17に示すように、第7実施形態に係る音声評価システム10では、集団が事前に複数のエリアに分けられる。図に示す例では、舞台の500が、エリアA、エリアB、及びエリアCの3つのエリアに分けられている。
エリアA、エリアB、及びエリアCの各集団が発する音声は、それぞれ異なる音声として取得可能とされている。具体的には、エリアAの集団が発する音声はマイク200aで取得可能に構成されている。エリアBの集団が発する音声はマイク200bで取得可能に構成されている。エリアCの集団が発する音声はマイク200cで取得可能に構成されている。なお、各マイク200a~cは、音声取得部110の一部として構成されるものであり、エリアA~Cの音声は、それぞれ音声取得部110に取得されることになる。
(動作の流れ)
第7実施形態に係る音声評価システム10の動作時には、各エリア(例えば、図17のエリアA、エリアB、及びエリアC)から取得された音声の各々について、第1から第6実施形態に係る音声評価システム10と同様の処理(図3、図5、図7、図9、及び図16参照)が実行される。即ち、エリアごとに同様の処理が実行されるのみで、処理自体に変更はない。このため、具体的な処理の流れについては説明を省略する。
(技術的効果)
次に、第7実施形態に係る音声評価システム10によって得られる技術的効果の一例について説明する。
図17で説明したように、第7実施形態に係る音声評価システム10では、複数の領域に分けて集団音声が取得され、領域ごとに音声が評価される。この結果、音声の評価結果(或いは、評価データ)は、領域ごとに得られることになる。よって、第7実施形態に係る音声評価システム10によれば、1つの集団を領域ごとに分けて、それぞれの領域ごとに集団の感情を評価することが可能である。
<付記>
以上説明した実施形態に関して、更に以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
付記1に記載の視点位置推定システムは、複数人からなる集団が発する音声を取得する取得手段と、前記取得した音声から感情に応じた要素を検出する検出手段と、前記検出された要素に基づいて、前記取得した音声を評価する評価手段とを備えることを特徴とする音声評価システムである。
(付記2)
付記2に記載の音声評価システムは、前記検出手段は、前記取得した音声から複数種類の感情に応じた要素を検出することを特徴とする付記1に記載の音声評価システムである。
(付記3)
付記3に記載の音声評価システムは、前記評価手段は、前記複数種類の感情に応じた要素に基づいて、感情ごとに前記取得した音声を評価することを特徴とする付記2に記載の音声評価システムである。
(付記4)
付記4に記載の音声評価システムは、前記評価手段は、前記取得した音声の評価結果を示す評価データを生成することを特徴とする付記1から3のいずれか一項に記載の音声評価システムである。
(付記5)
付記5に記載の音声評価システムは、前記評価手段は、前記評価データを時系列データとして生成することを特徴とする付記4に記載の音声評価システムである。
(付記6)
付記6に記載の音声評価システムは、前記評価手段は、前記評価結果をグラフ化することで前記評価データを生成することを特徴とする付記4又は5のいずれか一項に記載の音声評価システムである。
(付記7)
付記7に記載の音声評価システムは、前記評価手段は、前記取得した音声の評価結果から、前記集団の周囲環境における異常の発生を検知することを特徴とする付記1から6のいずれか一項に記載の音声評価システムである。
(付記8)
付記8に記載の音声評価システムは、前記取得手段は、前記集団が発する音声を複数の領域に分けて取得し、前記評価手段は、前記領域ごとに前記取得した音声を評価することを特徴とする付記1から7のいずれか一項に記載の音声評価システムである。
(付記9)
付記9に記載の音声評価方法は、複数人からなる集団が発する音声を取得し、前記取得した音声から感情に応じた要素を検出し、前記検出された要素に基づいて、前記取得した音声を評価することを特徴とする音声評価方法である。
(付記10)
付記10に記載のコンピュータプログラムは、複数人からなる集団が発する音声を取得し、前記取得した音声から感情に応じた要素を検出し、前記検出された要素に基づいて、前記取得した音声を評価するようにコンピュータを動作させることを特徴とするコンピュータプログラムである。
この開示は、請求の範囲及び明細書全体から読み取ることのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う音声評価システム、音声評価方法、及びコンピュータプログラムもまたこの開示の技術思想に含まれる。
10 音声評価システム
110 音声取得部
111 発生区間記録部
112 無音区間記録部
120 感情要素検出部
121 第1要素検出部
122 第2要素検出部
123 第3要素検出部
124 第4要素検出部
125 悲鳴要素検出部
130 音声評価部
131 第1評価部
132 第2評価部
133 第3評価部
134 第4評価部
135 異常判定部
140 評価データ生成部
200 マイク
500 観客席

Claims (11)

  1. 複数人からなる集団が発する音声を取得する取得手段と、
    前記取得した音声から複数種類の感情に応じた要素を検出する検出手段と、
    前記検出された要素に基づいて、前記取得した音声を評価する評価手段と
    を備えることを特徴とする音声評価システム。
  2. 前記評価手段は、前記複数種類の感情に応じた要素に基づいて、感情ごとに前記取得した音声を評価することを特徴とする請求項に記載の音声評価システム。
  3. 前記評価手段は、前記取得した音声の評価結果を示す評価データを生成することを特徴とする請求項1又は2に記載の音声評価システム。
  4. 前記評価手段は、前記評価データを時系列データとして生成することを特徴とする請求項に記載の音声評価システム。
  5. 前記評価手段は、前記評価結果をグラフ化することで前記評価データを生成することを特徴とする請求項又はのいずれか一項に記載の音声評価システム。
  6. 前記評価手段は、前記取得した音声の評価結果から、前記集団の周囲環境における異常の発生を検知することを特徴とする請求項1からのいずれか一項に記載の音声評価システム。
  7. 前記取得手段は、前記集団が発する音声を複数の領域に分けて取得し、
    前記評価手段は、前記領域ごとに前記取得した音声を評価する
    ことを特徴とする請求項1からのいずれか一項に記載の音声評価システム。
  8. 複数人からなる集団が発する音声を取得し、
    前記取得した音声から複数種類の感情に応じた要素を検出し、
    前記検出された要素に基づいて、前記取得した音声を評価する
    ことを特徴とする音声評価方法。
  9. 複数人からなる集団が発する音声を取得し、
    前記取得した音声から複数種類の感情に応じた要素を検出し、
    前記検出された要素に基づいて、前記取得した音声を評価する
    ようにコンピュータを動作させることを特徴とするコンピュータプログラム。
  10. 複数人からなる集団が発する音声を取得する取得手段と、
    前記取得した音声から感情に応じた要素を検出する検出手段と、
    前記検出された要素に基づいて、前記取得した音声の評価結果を示す評価データを時系列データとして生成する評価手段と
    を備えることを特徴とする音声評価システム。
  11. 複数人からなる集団が発する音声を複数の領域に分けて取得する取得手段と、
    前記取得した音声から感情に応じた要素を検出する検出手段と、
    前記検出された要素に基づいて、前記取得した音声を前記領域ごとに評価する評価手段と
    を備えることを特徴とする音声評価システム。
JP2022507978A 2020-03-19 2020-03-19 音声評価システム、音声評価方法、及びコンピュータプログラム Active JP7420216B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/012381 WO2021186691A1 (ja) 2020-03-19 2020-03-19 音声評価システム、音声評価方法、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2021186691A1 JPWO2021186691A1 (ja) 2021-09-23
JP7420216B2 true JP7420216B2 (ja) 2024-01-23

Family

ID=77772013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022507978A Active JP7420216B2 (ja) 2020-03-19 2020-03-19 音声評価システム、音声評価方法、及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US20230138068A1 (ja)
EP (1) EP4123647A4 (ja)
JP (1) JP7420216B2 (ja)
WO (1) WO2021186691A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053557A (ja) 2009-09-03 2011-03-17 Raytron:Kk 悲鳴検出装置および悲鳴検出方法
JP2012227712A (ja) 2011-04-19 2012-11-15 Hoshun Ri 視聴覚システム、リモコン端末、会場機器制御装置、視聴覚システムの制御方法、及び視聴覚システムの制御プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2838158C3 (de) 1978-09-01 1982-12-16 Jagenberg-Werke AG, 4000 Düsseldorf Beleimungsvorrichtung für eine Etikettiermaschine
US7999857B2 (en) * 2003-07-25 2011-08-16 Stresscam Operations and Systems Ltd. Voice, lip-reading, face and emotion stress analysis, fuzzy logic intelligent camera system
JP2005354519A (ja) 2004-06-11 2005-12-22 Nippon Telegr & Teleph Corp <Ntt> 撮像装置および撮像プログラム
JP2007004001A (ja) 2005-06-27 2007-01-11 Tokyo Electric Power Co Inc:The オペレータ応対能力診断装置、オペレータ応対能力診断プログラム、プログラム格納媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053557A (ja) 2009-09-03 2011-03-17 Raytron:Kk 悲鳴検出装置および悲鳴検出方法
JP2012227712A (ja) 2011-04-19 2012-11-15 Hoshun Ri 視聴覚システム、リモコン端末、会場機器制御装置、視聴覚システムの制御方法、及び視聴覚システムの制御プログラム

Also Published As

Publication number Publication date
WO2021186691A1 (ja) 2021-09-23
EP4123647A1 (en) 2023-01-25
JPWO2021186691A1 (ja) 2021-09-23
EP4123647A4 (en) 2023-02-22
US20230138068A1 (en) 2023-05-04

Similar Documents

Publication Publication Date Title
US10580435B2 (en) Sentiment analysis of mental health disorder symptoms
US10559323B2 (en) Audio and video synchronizing perceptual model
JP6358093B2 (ja) 分析対象決定装置及び分析対象決定方法
WO2014069076A1 (ja) 会話分析装置及び会話分析方法
JP2007004001A (ja) オペレータ応対能力診断装置、オペレータ応対能力診断プログラム、プログラム格納媒体
JP5673429B2 (ja) 心音情報処理装置、心音情報処理方法、心音情報処理プログラム
JP6176041B2 (ja) 情報処理装置及びプログラム
JP2020148931A (ja) 議論分析装置及び議論分析方法
JP5700114B2 (ja) 通話支援装置、通話支援方法
JP7028307B2 (ja) ハウリング抑圧装置、その方法、およびプログラム
JP7420216B2 (ja) 音声評価システム、音声評価方法、及びコンピュータプログラム
JP3896760B2 (ja) 対話記録編集装置、方法及び記憶媒体
JP6327252B2 (ja) 分析対象決定装置及び分析対象決定方法
JP7340630B2 (ja) ニューラルネットワークを使用した音声入力の複数話者ダイアライゼーション
JP2020086023A (ja) 行動識別方法、行動識別装置、行動識別プログラム、機械学習方法、機械学習装置及び機械学習プログラム
JP6639857B2 (ja) 聴力検査装置、聴力検査方法および聴力検査プログラム
JP7452558B2 (ja) 処理装置、処理方法及びプログラム
JP2023012335A (ja) 異音特定装置、異音特定方法、及び、異音特定プログラム
JP6589040B1 (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP6838739B2 (ja) 近時記憶支援装置
JP2021519122A (ja) 呼吸障害のある被験者の検出
KR102616058B1 (ko) 음성 기록을 시각화하여 재연하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
JP2019148849A (ja) 理解度判定システムおよび理解度判定プログラム
JP7444820B2 (ja) 感情判定装置、感情判定方法、及びプログラム
JP7389070B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R151 Written notification of patent or utility model registration

Ref document number: 7420216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151