JP7407190B2 - 発話解析装置、発話解析方法及びプログラム - Google Patents

発話解析装置、発話解析方法及びプログラム Download PDF

Info

Publication number
JP7407190B2
JP7407190B2 JP2021529930A JP2021529930A JP7407190B2 JP 7407190 B2 JP7407190 B2 JP 7407190B2 JP 2021529930 A JP2021529930 A JP 2021529930A JP 2021529930 A JP2021529930 A JP 2021529930A JP 7407190 B2 JP7407190 B2 JP 7407190B2
Authority
JP
Japan
Prior art keywords
data
utterance
category
likelihood
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021529930A
Other languages
English (en)
Other versions
JPWO2021002137A5 (ja
JPWO2021002137A1 (ja
Inventor
夏樹 佐伯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2021002137A1 publication Critical patent/JPWO2021002137A1/ja
Publication of JPWO2021002137A5 publication Critical patent/JPWO2021002137A5/ja
Application granted granted Critical
Publication of JP7407190B2 publication Critical patent/JP7407190B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本開示は、発話者の発話における話題を解析し、話題に応じた情報を提供する発話解析装置、発話解析方法及びプログラムに関する。
音声認識技術の進歩により、発話者の音声データを取得し、音声認識された内容を処理することが可能になっている。
特許文献1では、コールセンターの等のオペレータによるトークスクリプトを参照した談話の内容が音声認識処理によりテキスト化され、トークスクリプトの利用頻度の情報を出力するシステムが記載される。この特許文献1に記載の技術では、オペレータのスキルに応じて応対記録の品質にばらつきがある問題等を解決し、統一生、簡潔性を確保した応対記録を自動作成することができる。
特許第5468474号
本開示は、発話者の発話における話題を解析し、話題に応じた情報を提供することができる発話解析装置、発話解析方法及びプログラムを提供する。
本開示の発話解析装置は、発話者の発話データを時系列の順番で取得する取得部と、取得部で取得した発話データが各カテゴリに該当する可能性を特定する値である複数の第1の尤度を用いて、発話データの内容を解析する制御部と、制御部による制御に従って、発話データのカテゴリに関連する関連情報を含む表示データを表示させる表示処理部とを備え、制御部は、時系列に沿って発話データが取得される毎に複数の第1の尤度を用いて、複数のカテゴリにおける各カテゴリに関連した複数の関連情報を記憶する記憶部から、表示処理部に優先して表示させる関連情報を順次選択する。
これらの概括的かつ特定の態様は、システム、方法、及びコンピュータプログラム、並びに、それらの組み合わせにより、実現されてもよい。
本開示の発話解析装置、発話解析方法及びプログラムによれば、発話者の発話における話題に応じた情報を提供することができる。
本開示の発話解析装置の構成を示すブロック図である。 図1の発話解析装置で利用する発話データを説明するデータ構成図である。 図1の発話解析装置で利用されるカテゴリ尤度を表すグラフである。 図2の発話解析装置で積算尤度の演算に利用する鮮度重み値を説明する図である。 図2の発話解析装置で積算尤度の演算に利用する頻度重み値を説明する図である。 図2の発話解析装置で得られる話題である確率を表すグラフである。 図2の発話解析装置により可視化データとして表示される画面の一例である。 図6Aに続いて可視化データとして表示される画面の一例である。 図2の発話解析装置で実行される発話解析処理を説明するフローチャートである。 図7の解析処理を説明するフローチャートである。 図2の発話解析装置で可視化データとして表示される画面の他の例である。
[本開示の基礎となった知見]
従来の技術では、発話者の発話を解析する際、文単位を処理対象とし、各文に含まれる単語を用いて解析している。一方、1文ではなく、ある期間の複数の文を対象に解析することが好ましい場合もある。
本開示に係る発話解析装置は、ある期間における発話者の発話における話題に応じた情報を提供するものである。具体的には、発話解析装置は、発話者の発話を取得し、発話の内容を特定し、また、その話題に対応する情報を提供することができる。
[実施形態]
[1-1.構成]
以下に、図面を用いて本開示における実施形態を、図面を適宜参照しながら説明する。ただし、詳細な説明において、従来技術および実質的に同一の構成に関する説明のうち不必要な部分は省略されることもある。これは、説明を簡単にするためである。また、以下の説明および添付の図面は、当業者が本開示を充分に理解できるよう開示されるのであって、特許請求の範囲の主題を限定することを意図されていない。
本開示に係る発話解析装置は、複数の発話者が会話をしている際、必要となる情報を提供するものである。例えば、発話解析装置は、質問者や相談者等の第1の発話者に対し、回答者である第2の発話者に、回答に使用する情報を提供する。
以下の説明では、第1の発話者を車両の乗務員とし、第2の発話者を乗務員からの問い合わせに応答するオペレータとする。また、第1の発話者と第2の発話者とは、電話機等の通信回線を利用して会話をするものとする。以下では、これら発話者の会話を解析し、解析結果に応じた情報をオペレータに提供する一例で説明する。
オペレータは、問い合わせに回答する際、マニュアル等の情報で規定される方法で回答することがある。しかしながら、このマニュアルは多数あるため、オペレータは、問い合わせ内容に関するマニュアルを瞬時に特定することが困難である。したがって、発話解析装置は、乗務員からの問い合わせと、これに対するオペレータの回答の発話を両者が使用する端末を介して取得して解析し、発話の話題のカテゴリを特定する。また、発話解析装置は、複数の情報のなかからこの話題のカテゴリに関連付けられるマニュアルを、乗務員からの問い合わせに対する回答を導くマニュアルとして選択し、選択したマニュアルをオペレータに提供する。
本説明において、「発話」は、発話者が話す行為及び話すことで生じた音声であるものとする。「発話データ」は、発話者が話すことで生じた音声データであるものとする。また、「発話データ」は、発話者が話すことで生じた音声データを音声認識によってテキスト化されたテキストデータであってもよい。さらに、「発話データ」は、これら「音声データ」と「テキストデータ」を含むデータであってもよい。
「話題」は、発話者の発話の内容であるとして説明する。また、「話題のカテゴリ」または「カテゴリ」は、発話者の話題を特定する分類であるとして説明する。具体例については後述するが、発話解析装置1では、発話者の発話の話題が、予め設定される複数の話題のカテゴリのうち、どのカテゴリであるかを特定する。
「尤度」とは、尤度関数で利用される、尤もらしさを表す数値として利用される尤度である。この尤度は、対象の発話が、各話題のカテゴリに該当する尤もらしさを表す数値として利用される。
図1に示すように、発話解析装置1は、例えば、制御部11と、記憶部12と、入力部13と、出力部14と、通信部15とを備え、これらがバス16で接続される情報処理装置である。
制御部11は、発話解析装置1全体の制御を司るコントローラである。例えば、制御部11は、記憶部12に記憶されるプログラムPを読み出して実行することにより、取得部111、演算部112、解析部113、生成部114及び表示処理部115としての処理を実現する。また、制御部11は、ハードウェアとソフトウェアの協働により所定の機能を実現するものに限定されず、所定の機能を実現する専用に設計されたハードウェア回路でもよい。すなわち、制御部11は、CPU、MPU、GPU、FPGA、DSP、ASIC等、種々のプロセッサで実現することができる。
記憶部12は種々の情報を記憶する記憶媒体である。記憶部12は、例えば、RAM、ROM、フラッシュメモリ、SSD(Solid State Device)、ハードディスク、その他の記憶デバイス又はそれらを適宜組み合わせて実現される。記憶部12には、制御部11が実行するプログラムPの他、識別情報で使用する情報や識別情報付与のために取得された種々の情報等が格納される。例えば、記憶部12は、発話データ121、マニュアルデータ122及びプログラムPを記憶する。
入力部13は、操作やデータの入力に利用される操作ボタン、キーボード、マウス、タッチパネル、マイクロフォン等の入力手段である。出力部14は、処理結果やデータの出力に利用されるディスプレイ、スピーカ等の出力手段である。発話解析装置1は、入力部13であるマイクロフォンで発話データを取得し、制御部11で取得された発話データから可視化データを生成し、得られた可視化データを出力部14であるディスプレイ等に出力する。
通信部15は、外部の装置(図示せず)とのデータ通信を可能とするためのインタフェース回路(モジュール)である。
ここで、発話解析装置1は、1台のコンピュータにより実現されてもよいし、ネットワークを介して接続される複数台のコンピュータの組み合わせにより実現されてもよい。また例えば、記憶部12に記憶されるデータの全部又は一部が、ネットワークを介して接続される外部の記憶媒体に記憶され、発話解析装置1は、外部の記憶媒体に記憶されるデータを使用するように構成されていてもよい。具体的には、発話データ121や、マニュアルデータ122を外部の記憶媒体に記憶してもよい。
例えば、この発話解析装置1は、乗務員が使用する端末と、オペレータが使用する端末と通信可能に設置され、乗務員及びオペレータの発話を取得可能に構成される。または、発話解析装置1は、乗務員が使用する端末と通信可能に設置され、オペレータが使用する端末自体であり、乗務員とオペレータの発話を取得可能に構成されてもよい。
取得部111は、例えば、発話者が発話をする際、通信部を介して発話者の発話データを取得する。また、取得部111は、取得した発話者の発話データを時系列の順序で取得する。また、取得部111は、取得した発話データに、時系列の順序で番号を付し、発話データ121として記憶部12に記憶させる。
演算部112は、各発話データ121の話題が所定の各カテゴリに該当する可能性を特定する値である尤度を求める。また、演算部112は、各発話データ121に対して求めた各カテゴリの尤度を、発話データ121と関連付けて記憶させる。以下では、各カテゴリに関する「尤度」を、必要に応じて「カテゴリ尤度」として説明する。
このとき、発話データ121は、音声データとともに、または、音声データに代えて、音声データを音声認識処理によってテキスト化したテキストデータを含むことができる。この場合、音声認識処理は、発話解析装置1内で実行されてもよいし、外部の装置において実行されてもよい。
図2に一例を示すように、発話データ121は、各発話データ121の識別情報である「番号」と、この期間の音声データから生成された「テキストデータ」と、この期間の発話データについて得られた各カテゴリの「カテゴリ尤度」とを関連付けるデータである。図2において発話データ121は、「ブザー」、「架線トラブル」、「急病人」及び「地震発生」の話題のカテゴリがある。「ブザー」は、ブザーが鳴った場合の話題のカテゴリである。「架線トラブル」は、架線トラブルが発生した場合の話題のカテゴリである。「急病人」は、急病人が発生した場合の話題のカテゴリである。「地震発生」は、地震が発生した場合の話題のカテゴリである。
なお、ここでは、説明の容易化のため、「ブザー」、「架線トラブル」、「急病人」及び「地震発生」の4つのカテゴリを用いて説明するが、発話解析装置1で処理の対象とするカテゴリの数は限定されない。また、説明で使用されるカテゴリも単なる例示であって限定されず、発話の内容に応じて自由に設定することが可能である。
図3は、演算部112において、複数の発話データ121に関し、予め設定された話題である複数の話題のカテゴリについて求められたカテゴリ尤度を表すグラフの一例である。演算部112は、各カテゴリ尤度を、事前に学習されたクラス分類モデルを用いて求めることができる。具体的には、クラス分類のクラスが、ここで説明する話題のカテゴリに相当する。図3において、横軸は、発話データ121の識別情報である「番号」であり、発話データの122の時系列を示すものである。また、縦軸は、演算部112で得られた「カテゴリ尤度」である。
図3に示すカテゴリ尤度は、「ブザー」、「架線トラブル」、「急病人」及び「地震発生」の各カテゴリについて得られたカテゴリ尤度の一例である。
図3に示すような、発話データ121毎のカテゴリでは、その変化が細かく全体としての話題を特定しにくい。そのため、発話解析装置1では、次の解析部113によって、発話データ121毎のカテゴリの分類よりも広い範囲で、カテゴリを特定し、話題のカテゴリを把握しやすくすることができる。
解析部113は、演算部112で得られたカテゴリ尤度を用いて話題のカテゴリを解析する。ここで、解析部113は、ある時点tの話題のカテゴリを特定する際、その時点tの直前の解析対象期間Tの複数の発話データ121のカテゴリ尤度を用いて、解析対象期間Tの発話について所定のカテゴリに該当する可能性を特定する第2の尤度を求め、解析対象期間Tの話題のカテゴリを特定する。なお、以下では、必要に応じて、「第2の尤度」を「積算尤度」として説明する。
図3では解析対象期間Tは、発話データ121の数、50に相当する期間の一例である。例えば、番号「89」の時点での話題のカテゴリを特定するためには、解析対象期間Tに相当する、番号「40」~「89」の発話データ121のカテゴリ尤度を用いる。
具体的には、解析部113は、各カテゴリについて、対象範囲を設定し、この対象範囲に含まれる各発話データ121に対して得られたそれぞれのカテゴリについて積算尤度を求める。また、解析部113は、各カテゴリについて得られた積算尤度のうち、値が最も大きいカテゴリをある発話番号時点の話題のカテゴリとして特定することができる。
また、解析部113は、話題の鮮度に応じて設定された「鮮度重み値w1」を用いて、積算尤度を求めることができる。具体的には、図4Aに示すように、鮮度重み値w1は、解析対象期間Tの終了時tを基準として新しい発話データ121のカテゴリ尤度の重み(図4A中の「w11」)を、古い発話データ121のカテゴリ尤度の重み(図4A中の「w12」)よりも大きくする値である。例えば、ある対象範囲において、より新しい発話については、その期間の話題のカテゴリである、或いは話題が遷移している可能性が高く、古い発話については、その期間の話題のカテゴリである可能性は低い。したがって、解析部113において、鮮度重み値w1をその解析対象期間Tの話題の特定に利用することで、話題の特定の精度を向上させることができる。具体的には、仮に、解析対象期間Tとして「5分」が設定される場合、解析対象期間Tの終了時より1分以内の発話データ121から特定されるカテゴリ尤度は、解析対象期間Tの終了時より4分以上前の発話データ121から特定されるカテゴリ尤度よりも、重みが大きく設定される。
さらに、解析部113は、話題の頻度に応じて設定された「頻度重み値w2」を用いて、積算尤度を求めることができる。具体的には、頻度重み値w2は、対象範囲に含まれる発話データ121のカテゴリ尤度が最も高いカテゴリの出現頻度について、図4Bに示すように、出現頻度が高いカテゴリのカテゴリ尤度の重み(図4B中の「w21」)を、出現頻度が低いカテゴリの尤度の重み(図4B中の「w22」)よりも大きくする値である。例えば、解析対象期間Tの範囲において、何度も出現するカテゴリについては、その期間の話題のカテゴリである可能性が高く、一方、あまり登場しないカテゴリについては、その期間の話題のカテゴリである可能性は低い。したがって、解析部113において、頻度重み値w2をその解析対象期間Tの話題の特定に利用することで、話題の特定の精度を向上させることができる。具体的には、仮に、解析対象期間Tに50の発話データ121が含まれるとき、20回出現するカテゴリは、2回しか出現しないカテゴリよりも、重みが大きく設定されカテゴリ尤度が大きくなる。解析部113は、解析対象期間Tの範囲おける、各カテゴリの出現頻度(図4B中の「w21」「w22」)を上述のように算出する。
例えば、解析部113は、以下の式(1)によりカテゴリ毎に、積算尤度Lc2を求めることができる。
Lc2(i)=Σ(Lc(j)×w1)×w2) ・・・ (1)
ここで、式(1)に使用する各値はそれぞれ以下のように規定する。
c:カテゴリを特定する番号
i:対象範囲を特定する番号
Lc2(i):i番目の対象範囲の積算尤度
j:対象範囲の中で各発話データ121に付された番号
Lc(j):対象範囲の中でj番目の発話データ121のカテゴリ尤度
w1:鮮度重み値
w2:頻度重み値
なお、式(1)は、i=1からi=q(後述する対象範囲の数)までの総和である。
例えば、これにより得られた各カテゴリの積算尤度Lc2に対し、後述する正規化を施すことにより、ある発話の番号における各カテゴリが話題である確率として、図5に示すようにも表わすことができる。
生成部114は、解析部113による解析結果を用いて、発話データ121の内容及びこの内容に対応するマニュアルを特定した可視化データを生成する。具体的には、生成部114は、図6Aに一例を示すような表示画面W1を表示させる可視化データを生成する。図6Aに示す一例の表示画面W1は、時系列に配置された複数の発話データ121のテキストデータを表示する表示部B11と、複数の発話データ121の解析結果である発話データ121のカテゴリに関するマニュアルを表示させるためのリンク情報を積算尤度の高い順に表示する表示部B12とを含む。表示部B12では、各カテゴリに対して演算された積算尤度を含む。図6Aに示す表示画面W1により、オペレータは、発話の内容が、「ブザー」に関するものであることを把握することが可能である。また、オペレータがこの、「ブザー」を選択することで、「ブザー」が話題となった場合のマニュアルなどの参考資料に誘導することができる。
仮に、図6Bに示すように、新たな発話データ122が取得されたことにより、解析部113で解析され、新たに積算尤度が得られると、順次、新たな積算尤度の高い順でカテゴリが選択される。これにより、図6Aに示すように「ブザー」、「架線トラブル」、「急病人」、「地震発生」の順で表示部B12に表示されていた順序が、図6Bに示すように、「ブザー」、「急病人」、「架線トラブル」、「地震発生」の順に変更される。これは、新たに得られた発話データ122によって、「急病人」のカテゴリの積算尤度が大きくなったためである。
[1-2.動作]
図7及び図8に示すフローチャートを用いて、発話解析装置1における発話データの発話解析処理について説明する。図7に示すように、発話解析装置1では、発話者が発話をする際、取得部111は、発話データを取得し、時系列に付与される番号とともに発話データ121として記憶部12に記憶させる(S1)。
その後、演算部112は、ステップS1で記憶された発話データ121について、カテゴリ毎にカテゴリ尤度を演算し、発話データ121に記憶させる(S2)。
その後、解析部113は、発話データ121に含まれるカテゴリ尤度を用いて、解析対象期間の発話データ121を解析する(S3)。
ステップS3の解析処理における具体的な処理の流れを図8に示すフローチャートを用いて説明する。図8に示すように、特定処理では、解析部113は、順に対象のカテゴリを選択する(S11)。例えば、「ブザー」、「架線トラブル」、「急病人」及び「地震」のそれぞれのカテゴリについて順に選択し、各カテゴリについて以降の処理を実行する。
まず、解析部113は、積算尤度を演算するための対象範囲を設定する(S12)。具体的には、図8のフローチャートのステップS1で取得された発話データ121の番号を基準として、対象範囲が設定される。このとき、解析部113は、対象範囲の発話データ121に対し、対象範囲内で新たな「1」からの番号「j」を設定する。図3で上述したように、50の発話データ121を解析対象期間Tとする例では、「j」は、1~50までの番号を利用することになる。この場合、対象範囲の数qは、「50」である。
具体的には、図3で上述したように、iが「89」であるとき、解析部113は、40~89番の発話データ121を対象範囲とする。この場合、jについては、iの「40」がjの「1」となり、iの「89」がjの「50」となるように、それぞれ設定される。
また、仮に、iが「39」であるとき、39番の発話データ121を基準とし、一連の発話データ121の積算尤度を演算するため、解析部113は、0~40番の発話データ121を対象範囲とする。この場合も、jについては、iの「0」がjの「1」となる。また、対象範囲の数qは、「41」である。
その後、解析部113は、ステップS12で設定された対象範囲について、積算尤度を算出するため、jの値を1に初期化し、一時積算尤度Scの値を0に初期化する(S13)。jは、上述したように、対象範囲の中で発話データ121を特定する値である。jを初期化することで、対象範囲に含まれる各発話データ121のカテゴリ尤度Lc(j)を加算して、積算尤度Lc2(i)を求めることができる。また、一時積算尤度Scは、対象範囲で積算尤度Lc2(i)を求める計算経過において利用する値である。
続いて、解析部113は、一時積算尤度Scに、番号「j」の発話データ121のカテゴリ尤度Lc(j)を鮮度重み値w1(=j/q)で重みづけした値(Lc(j)×w1)を加算し、得られた値を、新たな一時積算尤度Scとする(S14)。
新たな一時積算尤度Scを求めると、解析部113は、jの値をインクリメントする(S15)。その後、解析部113は、j≦qであるか否か判定する(S16)。
j≦qであるとき(S16でYES)、対象範囲に含まれる全ての発話データ121について処理が終了していないため、解析部113は、ステップS14の処理に戻り、ステップS14~S16の処理を繰り返す。
一方、j≦qでないとき(S16でNO)、対象範囲に含まれる全ての発話データ121について処理が終了したため、解析部113は、対象範囲において対象のカテゴリの最尤話題カテゴリ頻度Ncを求める(S17)。ここで、最尤話題カテゴリ頻度Ncとは、対象範囲の各発話データ121において、ステップS11で処理の対象として選択されたカテゴリの尤度が最も高い値となった回数である。例えば、「架線トラブル」に関し処理がされているとき、対象範囲の中で、架線トラブルのカテゴリ尤度Lc(j)が最も高い発話データ121の数が「20」であるとき、最尤話題カテゴリ頻度Ncは「20」となる。
その後、解析部113は、一時積算尤度Scを、頻度重み値w2(=Nc/q)で重みづけした値(Sc×w2)を、対象範囲の積算尤度Lc2(i)とする(S18)。
解析部113は、積算尤度L2c(i)を求めると、正規化により、対象範囲に関する選択されたカテゴリの確率Pc(i)を求める(S19)。例えば、正規化には、softmaxで確率を求める方法を利用することができる。こうして得られたPc(i)を用い各発話の番号において、各カテゴリにその確率値をプロットすることで、話題の移り変わりを表すグラフ(図5)を得ることができる。これにより、実際の会話における話題の移り変わりのように、滑らかな移り変わりとして話題の遷移状態を視覚化することができる。
その後、解析部113は、全てのカテゴリについてステップS12~S19の処理が終了したか否かを判定する(S20)。終了していない場合(S20でNO)、ステップS11に戻り、他のカテゴリを選択し、全てのカテゴリについて終了するまで、ステップS11~S19の処理を繰り返す。例えば、「ブザー」のカテゴリが終了すると、「架線トラブル」を選択し、その後「急病人」を選択し、続いて「地震発生」を選択して同様の処理を繰り返す。
また、全てのカテゴリについてステップS11~S19の処理が終了すると(S20でYES)、解析部113は、各カテゴリに積算尤度Lc2(i)や確率Pc(i)を用いてカテゴリを特定し、解析処理(図8のステップS3)を終了する(S21)。
図7に示すように、生成部114は、ステップS4の処理において各カテゴリについて、可視化データを生成する(S4)。
また、表示処理部115は、ステップS4で生成された可視化データを、出力部14に出力する(S5)。
そして、発話が継続する場合(S6でNO)、発話解析装置1は、ステップS1の処理に戻り、ステップS1~S5の処理を繰り返す。
一方、発話が終了した場合(S6でYES)、発話解析装置1は、処理を終了する。
[1-3.効果等]
発話解析装置1では、このように、発話者の発話を解析し、ある期間における発話者の発話における話題に応じた情報を提供することができる。また、これにより、発話者は、容易に、現在の状況に対応する情報にアクセスすることが可能となる。
以上のように、本出願において開示する技術の例示として、上記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。
(他の実施の形態)
実施の形態においては、発話解析装置1内の演算部112において、「カテゴリ尤度」を演算する一例で説明したが、これに限定されない。具体的には、発話解析装置1は、外部の演算装置で演算されたカテゴリ尤度を取得し、利用してもよい。
また、実施形態においては、演算部112及び解析部113が処理対象とする発話データ121について、乗務員から発話されたものとオペレータから発話されたものとを区別せずに処理する例で説明したが、区別してもよい。具体的には、乗務員ではなく、オペレータが発話する内容のみを処理対象としてもよい。例えば、状況によっては、乗務員とオペレータとの発話は、繰り返しである場合もあり、また、乗務員よりもオペレータの方が、処理に適切な用語等を選択して発話することができる場合、一方の発話のみを利用することで、処理結果の精度を向上させることができる。
解析部113は、利用者によって指定された期間を解析対象期間Tとして積算尤度を演算することができる。具体的には、発話者又は発話者以外の利用者が、対象とする発話に応じて自由に解析対象期間Tを設定可能にしてもよい。発話において、あるカテゴリの話題が長く続く場合、解析対象期間Tとして設定する期間の長さによっては、話題の変化が検出しにくくなる。したがって、このように、適切な解析対象期間Tを設定することで、話題の変化の検出精度を向上させることができる。例えば、解析部113は、入力部13や通信部15を介してユーザから指定される期間を受け付ける受付部となることが可能であり、受け付けた期間を解析対象Tとして利用することができる。
生成部114は、図9に一例を示すような表示画面W2を表示させる可視化データを生成してもよい。図9に示す一例の表示画面W2は、発話データ121から得られた積算尤度のグラフを表する表示部B21と、テキストデータを表示する表示部B22とを含む。例えば、乗務員とオペレータの会話を必要に応じて補助する第三者がいる場合、乗務員とオペレータの一連の会話を聞いていなかった場合であっても、この表示画面W2を一見することで、一連の発話データ121でされた会話がどのようなカテゴリの話題を推移したのか容易に特定できるため、適切に補助することが可能となる。
また、取得部111は、継続する一連の発話データ121ではなく、新規の発話データ121を取得した場合、記憶部121において過去に同一の発話者による一連の発話データ121が記憶されていたとき、この一連の発話データ121に継続して処理することができる。例えば、乗務員とオペレータとの会話の場合、オペレータからの質問に対して乗務員が確認作業のため、会話を一旦終了し、ある時間が経過した後で、会話を再開するような場合がある。このような場合、過去の一連の発話データ121と、新たに開始する一連の発話データ121とは連続する番号を付すことにより、関連するものとして扱うことができる。さらに、所定の用語(図9の例では、「ブザー」)の色、フォント、文字サイズ等を他の用語と異なるものとし、強調して表示させてもよい。これにより、会話の重要な内容を把握しやすくすることができる。
《実施形態の概要》
(1)本開示の発話解析装置は、発話者の発話データを時系列の順番で取得する取得部と、取得部で取得した発話データが各カテゴリに該当する可能性を特定する値である複数の第1の尤度を用いて、発話データの内容を解析する制御部と、制御部による制御に従って、発話データのカテゴリに関連する関連情報を含む表示データを表示させる表示処理部とを備え、制御部は、時系列に沿って発話データが取得される毎に複数の第1の尤度を用いて、複数のカテゴリにおける各カテゴリに関連した複数の関連情報を記憶する記憶部から、表示処理部に優先して表示させる関連情報を順次選択してもよい。
これにより、発話者の発話における話題に応じた情報を提供することができる。
(2)(1)の制御部は、時系列における解析対象期間内の複数の発話データの第1の尤度を積算して第2の尤度をカテゴリ毎に演算し、当該第2尤度が高いカテゴリを優先して、対応する関連情報を表示処理部に表示させてもよい。
これにより、尤度の高いカテゴリの情報を優先して提供するため、最適な情報を提供することができる。
(3)(2)の制御部は、解析対象期間に出現する頻度が高い程、大きな値に設定される第1の重みを用いて、第2の尤度を求めてもよい。
これにより、出現する頻度に応じて尤度が計算されるため、最適な情報を提供することができる。
(4)(2)又は(3)の制御部は、解析対象期間の開始時よりも終了時に近い程、大きな値に設定される第2の重み値を用いて、第2の尤度を求めてもよい。
これにより、出現するタイミングに応じて尤度が計算されるため、最適な情報を提供することができる。
(5)(2)~(4)の発話解析装置は、ユーザから指定された期間の入力を受け付ける受付部を備え、制御部は、受付部が受け付けた期間を解析対象期間として第2の尤度を求めてもよい。
これにより、ユーザが解析対象期間を設定可能となるため、ユーザにとって最適な情報を提供することができる。
(6)(2)~(5)の制御部は、第2の尤度の高いカテゴリと関連付けられる所定数の情報を選択し、表示処理部によって表示される表示データは、第2の尤度の降順で情報を含んでもよい。
これにより、発話のカテゴリである可能性の高いものから提示されるため、ユーザにとって分かり易い情報を提供することができる。
(7)(1)~(6)の表示処理部によって表示される表示データは、発話データが音声認識処理によってテキスト化されたテキストデータを発話の時系列で含んでもよい。
これにより、会話の内容を把握可能となるため、ユーザにとって分かり易い情報を提供することができる。
(8)(7)の表示処理部によって表示される表示データは、テキストデータにおいて所定の用語を強調されたデータであってもよい。
これにより、会話の内容のポイントが把握可能となるため、ユーザにとって分かり易い情報を提供することができる。
(9)(1)~(8)の制御部は、発話データ毎に、各カテゴリに関する第1の尤度を演算してもよい。
これにより、発話解析装置内で第1の尤度を算出することができるため、ネットワークの負荷に依存せずに処理することができる。
(10)(1)~(9)発話データは、複数の発話者の対話のデータであってもよい。
これにより、より多くの情報から尤度を算出することができるため、話題のカテゴリを特定しやすくなる。
(11)本開示の発話解析方法は、発話者の発話の内容を解析し、発話に関する情報を表示する発話解析方法であって、取得部が、発話者の発話データを時系列の順番で取得するステップと、制御部が、取得部で取得した発話データが各カテゴリに該当する可能性を特定する値である複数の第1の尤度を用いて、発話データの内容を解析するステップと、表示処理部が、制御部による制御に従って、発話データのカテゴリに関連する関連情報を含む表示データを表示させるステップとを含み、制御部は、時系列に沿って発話データが取得される毎に複数の第1の尤度を用いて、複数のカテゴリにおける各カテゴリに関連した複数の関連情報を記憶する記憶部から、表示処理部に優先して表示させる関連情報を順次に選択する。
これにより、発話者の発話における話題に応じた情報を提供することができる。
(12)本開示のプログラムは、(11)の方法をコンピュータに実行させる。
これにより、発話者の発話における話題に応じた情報を提供することができる。
本開示の全請求項に記載の発話解析装置、発話解析方法及びプログラムは、ハードウェア資源、例えば、プロセッサ、メモリ、及びプログラムとの協働などによって、実現される。
本開示の発話解析装置、発話解析方法及びプログラムは、例えば、質問、問い合わせ等に回答する回答者に対し、回答の際に参照するマニュアル等の情報に誘導する場合に有用である。
1 発話解析装置
11 制御部
111 取得部
112 演算部
113 解析部
114 生成部
115 表示処理部
12 記憶部
121 発話データ
122 マニュアルデータ

Claims (12)

  1. 発話者の発話データを時系列の順番で取得する取得部と、
    前記取得部で取得した発話データが各カテゴリに該当する可能性を特定する値である複数の第1の尤度を用いて、前記発話データの内容を解析する制御部と、
    前記制御部による制御に従って、前記発話データのカテゴリに関連する関連情報を含む表示データを表示させる表示処理部とを備え、
    前記制御部は、前記時系列に沿って前記発話データが取得される毎に前記複数の第1の尤度を用いて、複数のカテゴリにおける各カテゴリに関連した複数の関連情報を記憶する記憶部から、前記表示処理部に優先して表示させる関連情報を順次選択する
    発話解析装置。
  2. 前記制御部は、
    前記時系列における解析対象期間内の複数の発話データの第1の尤度を積算して第2の尤度をカテゴリ毎に演算し、
    当該第2尤度が高いカテゴリを優先して、対応する関連情報を前記表示処理部に表示させる
    請求項1に記載の発話解析装置。
  3. 前記制御部は、前記解析対象期間に出現する頻度が高い程、大きな値に設定される第1の重み値を用いて、前記第2の尤度を求める
    請求項2に記載の発話解析装置。
  4. 前記制御部は、前記解析対象期間の開始時よりも終了時に近い程、大きな値に設定される第2の重み値を用いて、前記第2の尤度を求める
    請求項2又は3に記載の発話解析装置。
  5. ユーザから指定された期間の入力を受け付ける受付部を備え、
    前記制御部は、前記受付部が受け付けた期間を前記解析対象期間として前記第2の尤度を求める
    請求項2乃至4のいずれか1に記載の発話解析装置。
  6. 前記制御部は、前記第2の尤度の高いカテゴリと関連付けられる所定数の情報を選択し、
    前記表示処理部によって表示される表示データは、前記第2の尤度の降順で前記情報を含む
    請求項2乃至5のいずれか1に記載の発話解析装置。
  7. 前記表示処理部によって表示される表示データは、前記発話データが音声認識処理によってテキスト化されたテキストデータを発話の時系列で含む
    請求項1乃至6のいずれか1に記載の発話解析装置。
  8. 前記表示処理部によって表示される表示データは、前記テキストデータにおいて所定の用語を強調されたデータである
    請求項7に記載の発話解析装置。
  9. 前記制御部は、前記発話データ毎に、各カテゴリに関する第1の尤度を演算する
    請求項1乃至8のいずれか1に記載の発話解析装置。
  10. 前記発話データは、複数の発話者の対話のデータである
    請求項1乃至9のいずれか1に記載の発話解析装置。
  11. 発話者の発話の内容を解析し、発話に関する情報を表示する発話解析方法であって、
    取得部が、発話者の発話データを時系列の順番で取得するステップと、
    制御部が、前記取得部で取得した発話データが各カテゴリに該当する可能性を特定する値である複数の第1の尤度を用いて、前記発話データの内容を解析するステップと、
    表示処理部が、前記制御部による制御に従って、前記発話データのカテゴリに関連する関連情報を含む表示データを表示させるステップとを含み、
    前記制御部は、前記時系列に沿って前記発話データが取得される毎に前記複数の第1の尤度を用いて、複数のカテゴリにおける各カテゴリに関連した複数の関連情報を記憶する記憶部から、前記表示処理部に優先して表示させる関連情報を順次に選択する
    発話解析方法。
  12. 請求項11に記載の方法をコンピュータに実行させるためのプログラム。
JP2021529930A 2019-07-04 2020-06-02 発話解析装置、発話解析方法及びプログラム Active JP7407190B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2019125454 2019-07-04
JP2019125454 2019-07-04
JP2019134559 2019-07-22
JP2019134559 2019-07-22
PCT/JP2020/021811 WO2021002137A1 (ja) 2019-07-04 2020-06-02 発話解析装置、発話解析方法及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2021002137A1 JPWO2021002137A1 (ja) 2021-01-07
JPWO2021002137A5 JPWO2021002137A5 (ja) 2022-06-02
JP7407190B2 true JP7407190B2 (ja) 2023-12-28

Family

ID=74100168

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021529929A Pending JPWO2021002136A1 (ja) 2019-07-04 2020-06-02
JP2021529930A Active JP7407190B2 (ja) 2019-07-04 2020-06-02 発話解析装置、発話解析方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021529929A Pending JPWO2021002136A1 (ja) 2019-07-04 2020-06-02

Country Status (4)

Country Link
US (2) US20220108697A1 (ja)
JP (2) JPWO2021002136A1 (ja)
CN (2) CN114072786A (ja)
WO (2) WO2021002137A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220343067A1 (en) * 2019-09-02 2022-10-27 Imatrix Holdings Corp. Text Analysis System, and Characteristic Evaluation System for Message Exchange Using the Same
JP2022117730A (ja) * 2021-02-01 2022-08-12 オムロン株式会社 情報処理装置、制御システムおよびレポート出力方法
US11893990B2 (en) * 2021-09-27 2024-02-06 Sap Se Audio file annotation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123706A (ja) 2009-12-11 2011-06-23 Advanced Media Inc 文章分類装置および文章分類方法
JP2011221873A (ja) 2010-04-12 2011-11-04 Nippon Telegr & Teleph Corp <Ntt> データ分類方法及び装置及びプログラム
JP2013120547A (ja) 2011-12-08 2013-06-17 Nomura Research Institute Ltd 談話要約テンプレート作成システムおよび談話要約テンプレート作成プログラム
WO2016027364A1 (ja) 2014-08-22 2016-02-25 株式会社日立製作所 話題クラスタ選択装置、及び検索方法
WO2018110029A1 (ja) 2016-12-13 2018-06-21 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP2018194980A (ja) 2017-05-15 2018-12-06 富士通株式会社 判定プログラム、判定方法および判定装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080300872A1 (en) * 2007-05-31 2008-12-04 Microsoft Corporation Scalable summaries of audio or visual content
WO2009084554A1 (ja) * 2007-12-27 2009-07-09 Nec Corporation テキスト分割装置とテキスト分割方法およびプログラム
US8612211B1 (en) * 2012-09-10 2013-12-17 Google Inc. Speech recognition and summarization
EP3254456B1 (en) * 2015-02-03 2020-12-30 Dolby Laboratories Licensing Corporation Optimized virtual scene layout for spatial meeting playback
JP2017016566A (ja) * 2015-07-06 2017-01-19 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6718345B2 (ja) * 2016-09-21 2020-07-08 日本電信電話株式会社 テキスト分析方法、テキスト分析装置、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123706A (ja) 2009-12-11 2011-06-23 Advanced Media Inc 文章分類装置および文章分類方法
JP2011221873A (ja) 2010-04-12 2011-11-04 Nippon Telegr & Teleph Corp <Ntt> データ分類方法及び装置及びプログラム
JP2013120547A (ja) 2011-12-08 2013-06-17 Nomura Research Institute Ltd 談話要約テンプレート作成システムおよび談話要約テンプレート作成プログラム
WO2016027364A1 (ja) 2014-08-22 2016-02-25 株式会社日立製作所 話題クラスタ選択装置、及び検索方法
WO2018110029A1 (ja) 2016-12-13 2018-06-21 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP2018194980A (ja) 2017-05-15 2018-12-06 富士通株式会社 判定プログラム、判定方法および判定装置

Also Published As

Publication number Publication date
US20220108697A1 (en) 2022-04-07
CN114026557A (zh) 2022-02-08
WO2021002136A1 (ja) 2021-01-07
JPWO2021002137A1 (ja) 2021-01-07
US20220114348A1 (en) 2022-04-14
JPWO2021002136A1 (ja) 2021-01-07
CN114072786A (zh) 2022-02-18
WO2021002137A1 (ja) 2021-01-07

Similar Documents

Publication Publication Date Title
JP7407190B2 (ja) 発話解析装置、発話解析方法及びプログラム
JP6755304B2 (ja) 情報処理装置
CN108630193B (zh) 语音识别方法及装置
US11450311B2 (en) System and methods for accent and dialect modification
CN107818798A (zh) 客服服务质量评价方法、装置、设备及存储介质
US10839788B2 (en) Systems and methods for selecting accent and dialect based on context
US10592997B2 (en) Decision making support device and decision making support method
CN109313892A (zh) 稳健的语言识别方法和系统
CN110570853A (zh) 基于语音数据的意图识别方法和装置
US11270691B2 (en) Voice interaction system, its processing method, and program therefor
JP2015219480A (ja) 対話状況特徴計算装置、文末記号推定装置、これらの方法及びプログラム
CN112053702B (zh) 一种语音处理的方法、装置及电子设备
US20220392485A1 (en) System and Method For Identifying Sentiment (Emotions) In A Speech Audio Input
JP2020034683A (ja) 音声認識装置、音声認識プログラムおよび音声認識方法
JP6616038B1 (ja) 営業トークナビゲーションシステム、営業トークナビゲーション方法および営業トークナビゲーション用プログラム
JP2021124530A (ja) 情報処理装置、情報処理方法及びプログラム
KR20210000802A (ko) 인공지능 음성 인식 처리 방법 및 시스템
WO2020196743A1 (ja) 評価システム及び評価方法
CN113593523A (zh) 基于人工智能的语音检测方法、装置及电子设备
CN116741143B (zh) 基于数字分身的个性化ai名片的交互方法及相关组件
EP4024395A1 (en) Speech analyser and related method
Patel et al. Google duplex-a big leap in the evolution of artificial intelligence
KR20230156482A (ko) 음성으로부터 감정 상태를 추론하는 신경망 기반의 감정 상태 추론 장치 및 방법
JP2022082049A (ja) 発話評価方法および発話評価装置
CN117219118A (zh) 音频质检的方法及系统

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20211227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R151 Written notification of patent or utility model registration

Ref document number: 7407190

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151