JP6213476B2 - 不満会話判定装置及び不満会話判定方法 - Google Patents
不満会話判定装置及び不満会話判定方法 Download PDFInfo
- Publication number
- JP6213476B2 JP6213476B2 JP2014544355A JP2014544355A JP6213476B2 JP 6213476 B2 JP6213476 B2 JP 6213476B2 JP 2014544355 A JP2014544355 A JP 2014544355A JP 2014544355 A JP2014544355 A JP 2014544355A JP 6213476 B2 JP6213476 B2 JP 6213476B2
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- specific word
- target
- data
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 57
- 230000014509 gene expression Effects 0.000 claims description 167
- 238000012545 processing Methods 0.000 claims description 147
- 238000004458 analytical method Methods 0.000 claims description 123
- 230000008859 change Effects 0.000 claims description 105
- 241001122315 Polites Species 0.000 claims description 88
- 238000001514 detection method Methods 0.000 claims description 43
- 238000004364 calculation method Methods 0.000 claims description 28
- 238000000605 extraction Methods 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 11
- 230000007423 decrease Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 230000008451 emotion Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006397 emotional response Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000007794 irritation Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Hospice & Palliative Care (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
- Telephonic Communication Services (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、会話の分析技術に関する。
会話を分析する技術の一例として、通話データを分析する技術がある。例えば、コールセンタ、コンタクトセンタなどと呼ばれる部署で行われる通話のデータが分析される。以降、このような、商品やサービスに関する問い合わせや苦情や注文といった顧客からの電話に応対する業務を専門的に行う部署をコンタクトセンタと表記する。
コンタクトセンタに寄せられる顧客の声には、顧客ニーズや満足度などが反映されている場合が多く、顧客との通話からそのような顧客の感情やニーズを抽出することは、リピータ顧客を増加させるために企業にとって大変重要である。そこで、音声を分析することで、ユーザの感情(怒り、苛立ち、不快感など)等を抽出する各種手法が提案されている。
下記特許文献1には、話者の音声を音声認識することで得られるテキスト、及び、単語ごとに親密度が設定されている辞書データベースに基づいて、発話の親密度を算出し、履歴として記憶されているその話者の親密度とその発話の親密度との差が一定の大きさ以上である場合には、その発話の親密度でその話者の親密度を更新する手法が提案されている。下記特許文献2には、入力されたテキストを形態素解析により単語列に分割し、単語単位の感情情報(ていねいさ、親しさ)を数量化して登録した単語辞書を用いて、単語列の単語ごとの感情情報を合成し、そのテキストの感情情報を抽出する手法が提案されている。下記特許文献3には、特定の人物や事物に対する好悪感情を学習し、ユーザ毎に異なる感情的応答を示し、この感情的応答をユーザの接し方で調整可能とする感情生成手法が提案されている。
上記特許文献2における提案手法では、単語ごとの感情情報からテキストの感情情報が決定され、上記特許文献3における提案手法では、ユーザの音声の語気からユーザの感情が抽出される。このような手法では、平均的に語気が荒い話者や平均的に言葉遣いが粗略な話者の、不満でない通話が、不満通話として誤って抽出される可能性がある。また、上記特許文献1における提案手法では、話者の親密度の変化の差が一定の大きさ以上である場合に、話者の親密度の更新を決定しているに過ぎず、話者の不満に関する分析を行うことについて全く想定されていない。
本発明は、このような事情に鑑みてなされたものであり、不満会話(その一例が不満通話)を高精度に抽出する技術を提供する。ここで、不満会話とは、会話へ参加する者(以降、会話参加者と表記する)がその会話に対して不満を感じたであろうと推定される会話を意味する。
本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第1の態様は、不満会話判定装置に関する。第1態様に係る不満会話判定装置は、対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、対象会話参加者による各単語の発声時間を示す複数の発声時間データを取得するデータ取得部と、データ取得部により取得される複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出する抽出部と、抽出部により抽出される複数の特定単語データ及び複数の特定単語データに関する複数の発声時間データに基づいて、対象会話における、対象会話参加者の丁寧表現から非丁寧表現への変化点を検出する変化検出部と、変化検出部による変化点の検出結果に基づいて、当該対象会話が、対象会話参加者の不満会話であるか否かを判定する不満判定部と、を有する。
第2の態様は、少なくとも1つのコンピュータにより実行される不満会話判定方法に関する。第2態様に係る不満会話判定方法は、対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、対象会話参加者による各単語の発声時間を示す複数の発声時間データを取得し、取得される複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出し、抽出される複数の特定単語データ及び複数の特定単語データに関する複数の発声時間データに基づいて、対象会話における、対象会話参加者の丁寧表現から非丁寧表現への変化点を検出し、変化点の検出結果に基づいて、当該対象会話が、対象会話参加者の不満会話であるか否かを判定する、ことを含む。
なお、本発明の他の態様としては、上記第1の態様における各構成を少なくとも1つのコンピュータに実現させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
上記各態様によれば、不満会話を高精度に抽出する技術を提供することができる。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
以下、本発明の実施の形態について説明する。なお、以下に挙げる各実施形態はそれぞれ例示であり、本発明は以下の各実施形態の構成に限定されない。
本実施形態に係る不満会話判定装置は、対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、対象会話参加者による各単語の発声時間を示す複数の発声時間データを取得するデータ取得部と、データ取得部により取得される複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出する抽出部と、抽出部により抽出される複数の特定単語データ及び複数の特定単語データに関する複数の発声時間データに基づいて、対象会話における、対象会話参加者の丁寧表現から非丁寧表現への変化点を検出する変化検出部と、変化検出部による変化点の検出結果に基づいて、当該対象会話が、対象会話参加者の不満会話であるか否かを判定する不満判定部と、を有する。
本実施形態に係る不満会話判定方法は、少なくとも1つのコンピュータにより実行され、対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、対象会話参加者による各単語の発声時間を示す複数の発声時間データを取得し、取得される複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出し、抽出される複数の特定単語データ及び複数の特定単語データに関する複数の発声時間データに基づいて、対象会話における、対象会話参加者の丁寧表現から非丁寧表現への変化点を検出し、変化点の検出結果に基づいて、当該対象会話が、対象会話参加者の不満会話であるか否かを判定する、ことを含む。
ここで、対象会話とは、分析対象となる会話を意味する。会話とは、2以上の話者が、言語の発声などによる意思表示によって、話をすることを意味する。会話には、銀行の窓口や店舗のレジ等のように、会話参加者が直接、話をする形態もあれば、通話機を用いた通話やテレビ会議等のように、離れた位置にいる会話参加者同士が話をする形態もあり得る。本実施形態では、対象会話の内容や形態は制限されないが、友達同士の会話など私的な会話よりは、公的な会話のほうが対象会話として望ましい。また、対象会話参加者の音声から抽出される単語データとは、例えば、対象会話参加者の音声に含まれる単語(名詞、動詞、助詞など)がテキスト化されたデータである。
本実施形態では、対象会話参加者の音声から抽出される、複数の単語データ及び複数の発声時間データが取得され、当該複数の単語データから複数の特定単語データが抽出される。ここで、特定単語とは、単語の中でも、丁寧表現又は非丁寧表現を構成し得る単語を意味し、例えば、「です」、「ます」、「よ」、「わよ」、「あなた」、「あんた」等である。また、ここでの非丁寧とは、粗略、乱暴といった、丁寧でないことを示す広い意味で用いられる。
本発明者らは、特に公的な場において、全体的に概ね丁寧な言葉遣いをする会話参加者(顧客など)が多く、会話の前半、即ち、会話参加者自身の要件などを伝える時点では、平常の発話が行われる傾向にある。会話参加者は、期待が裏切られた、会話相手の応対内容が悪いなどのように不満を感じた時点で不満を表出させる。結果として、全体的には丁寧な言葉遣いをする会話参加者も、不満を感じた時点で、言葉遣いの丁寧さ度合いが一時的に下がる(非丁寧になる)ことが見出された。例えば、コンタクトセンタの通話において、平常時に、「パソコンが立ち上がらなくなったんです。」と言っていた顧客が、不満を感じると、「何回やっても立ち上がらないよ。」と表現するようになる。また、銀行の窓口の会話において、平常時に、「この支払をしたいのですが。」と言っていた顧客が、不満を感じると、「なんでこの窓口ではできないの。」という表現に変わる。
本発明者らは、このような知見から、発言の丁寧さの変化に着目し、会話におけるこの変化点が会話参加者の不満の表出点であり、不満の表出点が存在する会話は、会話参加者により不満が感じられた不満会話である可能性が高いとの着想を得た。
そこで、本実施形態では、上述のように抽出された複数の特定単語データ及びこれらに関する複数の発声時間データが用いられることにより、対象会話における、対象会話参加者の丁寧表現から非丁寧表現への変化点が検出される。ここで検出される変化点は、対象会話における対象会話参加者の不満の表出点に相当する。この変化点は、例えば、対象会話の中の或る時点(箇所)を特定し得る情報であり、例えば、時間により表わされる。本実施形態では、上述のような、会話における会話参加者の特性(傾向)に関する知見に基づいて、丁寧表現から非丁寧表現への変化点が、対象会話参加者の不満の表出点として検出され、この変化点(不満表出点)の検出結果により、当該対象会話が、対象会話参加者の不満会話であるか否かが判定される。
本実施形態で検出される上記変化点は、対象会話参加者の不満に関する分析の対象区間を決めるための基準として用いることができる。丁寧表現から非丁寧表現への変化点、即ち、不満の表出点周辺の各会話参加者の音声には、その不満の原因や不満度などの対象会話参加者の不満に関する情報が含まれている可能性が高いからである。よって、本実施形態によれば、上記変化点を終端とする対象会話の所定幅の区間を対象会話参加者の不満に関する分析の対象に決定することもできる。そして、この決定された分析対象の区間が分析されることにより、対象会話参加者の不満を誘引する原因などの情報を抽出することができる。即ち、本実施形態によれば、会話における会話参加者の特性(傾向)に基づく処理により、会話参加者が不満を感じた会話を抽出することができるだけでなく、対象会話参加者の不満に関する会話内分析箇所も適切に特定することができる。
以下、上述の実施形態について更に詳細を説明する。以下には、詳細実施形態として、第1実施形態及び第2実施形態を例示する。以下の各実施形態は、上述の不満会話判定装置及び不満会話判定方法をコンタクトセンタシステムに適用した場合の例である。なお、上述の不満会話判定装置及び不満会話判定方法は、通話データを扱うコンタクトセンタシステムへの適用に限定されるものではなく、会話データを扱う様々な態様に適用可能である。例えば、それらは、コンタクトセンタ以外の社内の通話管理システムや、個人が所有する、PC(Personal Computer)、固定電話機、携帯電話機、タブレット端末、スマートフォン等の通話端末などに適用することも可能である。更に、会話データとしては、例えば、銀行の窓口や店舗のレジにおける、担当者と顧客の会話を示すデータなどが例示できる。以下、通話とは、或る通話者と或る通話者とがそれぞれ持つ通話機間が呼接続されてから呼切断されるまでの間の呼を意味する。
[第1実施形態]
〔システム構成〕
図1は、第1実施形態におけるコンタクトセンタシステム1の構成例を示す概念図である。第1実施形態におけるコンタクトセンタシステム1は、交換機(PBX)5、複数のオペレータ電話機6、複数のオペレータ端末7、ファイルサーバ9、通話分析サーバ10等を有する。通話分析サーバ10は、上述の実施形態における不満会話判定装置に相当する構成を含む。第1実施形態では、顧客が上述の対象会話参加者に相当する。
〔システム構成〕
図1は、第1実施形態におけるコンタクトセンタシステム1の構成例を示す概念図である。第1実施形態におけるコンタクトセンタシステム1は、交換機(PBX)5、複数のオペレータ電話機6、複数のオペレータ端末7、ファイルサーバ9、通話分析サーバ10等を有する。通話分析サーバ10は、上述の実施形態における不満会話判定装置に相当する構成を含む。第1実施形態では、顧客が上述の対象会話参加者に相当する。
交換機5は、通信網2を介して、顧客により利用される、PC、固定電話機、携帯電話機、タブレット端末、スマートフォン等の通話端末(顧客電話機)3と通信可能に接続されている。通信網2は、インターネットやPSTN(Public Switched Telephone Network)等のような公衆網、無線通信ネットワーク等である。更に、交換機5は、コンタクトセンタの各オペレータが用いる各オペレータ電話機6とそれぞれ接続される。交換機5は、顧客からの呼を受け、その呼に応じたオペレータのオペレータ電話機6にその呼を接続する。
各オペレータは、オペレータ端末7をそれぞれ用いる。各オペレータ端末7は、コンタクトセンタシステム1内の通信網8(LAN(Local Area Network)等)に接続される、PC等のような汎用コンピュータである。例えば、各オペレータ端末7は、各オペレータと顧客との間の通話における顧客の音声データ及びオペレータの音声データをそれぞれ録音する。各オペレータ端末7は、通話保留中の顧客の音声データも録音するようにしてもよい。顧客の音声データとオペレータの音声データとは、混合状態から所定の音声処理により分離されて生成されてもよい。なお、本実施形態は、このような音声データの録音手法及び録音主体を限定しない。各音声データの生成は、オペレータ端末7以外の他の装置(図示せず)により行われてもよい。
ファイルサーバ9は、一般的なサーバコンピュータにより実現される。ファイルサーバ9は、顧客とオペレータとの間の各通話の通話データを、各通話の識別情報と共にそれぞれ格納する。各通話データには、顧客の音声データとオペレータの音声データとのペアがそれぞれ含まれる。ファイルサーバ9は、顧客及びオペレータの各音声を録音する他の装置(各オペレータ端末7等)から、顧客の音声データとオペレータの音声データとを取得する。
通話分析サーバ10は、ファイルサーバ9に格納される各通話データに関し、顧客の不満に関する分析を行う。
通話分析サーバ10は、図1に示されるように、ハードウェア構成として、CPU(Central Processing Unit)11、メモリ12、入出力インタフェース(I/F)13、通信装置14等を有する。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。入出力I/F13は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置、ディスプレイ装置やプリンタ等のようなユーザに情報を提供する装置などと接続される。通信装置14は、通信網8を介して、ファイルサーバ9などと通信を行う。なお、通話分析サーバ10のハードウェア構成は制限されない。
通話分析サーバ10は、図1に示されるように、ハードウェア構成として、CPU(Central Processing Unit)11、メモリ12、入出力インタフェース(I/F)13、通信装置14等を有する。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。入出力I/F13は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置、ディスプレイ装置やプリンタ等のようなユーザに情報を提供する装置などと接続される。通信装置14は、通信網8を介して、ファイルサーバ9などと通信を行う。なお、通話分析サーバ10のハードウェア構成は制限されない。
〔処理構成〕
図2は、第1実施形態における通話分析サーバ10の処理構成例を概念的に示す図である。第1実施形態における通話分析サーバ10は、通話データ取得部20、処理データ取得部21、特定単語テーブル22、抽出部23、変化検出部24、対象決定部27、分析部28、不満判定部29等を有する。これら各処理部は、例えば、CPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13を介してインストールされ、メモリ12に格納されてもよい。
図2は、第1実施形態における通話分析サーバ10の処理構成例を概念的に示す図である。第1実施形態における通話分析サーバ10は、通話データ取得部20、処理データ取得部21、特定単語テーブル22、抽出部23、変化検出部24、対象決定部27、分析部28、不満判定部29等を有する。これら各処理部は、例えば、CPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13を介してインストールされ、メモリ12に格納されてもよい。
通話データ取得部20は、ファイルサーバ9から、分析対象となる通話の通話データをその通話の識別情報と共に取得する。当該通話データは、通話分析サーバ10とファイルサーバ9との間の通信により取得されてもよいし、可搬型記録媒体を介して取得されてもよい。
処理データ取得部21は、通話データ取得部20により取得される通話データから、その通話データに含まれる顧客の音声データから抽出される、複数の単語データ、及び、顧客による各単語の発声時間を示す複数の発声時間データを取得する。例えば、処理データ取得部21は、顧客の音声データを音声認識処理によりテキスト化し、単語列および単語ごとの発話時間データを取得する。音声認識処理では、例えば、音声データのテキスト化と共に、そのテキストデータに含まれる文字の発声時間を示す発声時間データが生成される。なお、このような音声認識処理には周知の手法が利用されればよいため、ここでは説明は省略する。処理データ取得部21は、そのように音声認識処理で生成される発声時間データに基づいて、各単語データについて発声時間データをそれぞれ取得する。
音声認識処理において、単語ごとの発話時間情報を取得できないような場合、処理データ取得部21は、発声時間データを次のように取得してもよい。処理データ取得部21は、顧客の音声データから顧客の発話区間を検出する。例えば、処理データ取得部21は、顧客の音声データが示す音声波形において、所定値以上の音量が継続している区間を発話区間として検出する。発話区間の検出とは、音声データの中の顧客の1発話を示す区間を検出することを意味し、それにより、その区間の始端時間と終端時間とが取得される。処理データ取得部21は、音声認識処理により音声データをテキスト化する際に、各発話区間とその発話区間で示される発話に対応するテキストデータとの関係を取得し、この関係に基づいて、形態素解析で得られる各単語データと各発話区間との関係を取得する。処理データ取得部21は、発話区間の始端時間及び終端時間と、その発話区間中の単語データの並び順とに基づいて、各単語データに対応する各発声時間データをそれぞれ算出する。例えば、始端時間が5分30秒で終端時間が5分36秒となる発話区間に6個の単語が存在している場合、2番目の単語の発声時間データは、5分31秒(=5分30秒+(2−1)×6秒/6個)と算出され、6番目の単語の発声時間データは、5分35秒(=5分30秒+(6−1)×6秒/6個)と算出される。処理データ取得部21は、各発声時間データを算出するために、各単語データの文字数を合せて加味するようにしてもよい。
特定単語テーブル22は、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データ、及び、当該複数の特定単語の各々に関する丁寧さ又は非丁寧さをそれぞれ示す複数の単語指標値を保持する。単語指標値は、例えば、その特定単語が示す丁寧さが上がる(非丁寧さが下がる)程、大きな値に設定され、その特定単語が示す丁寧さが下がる(非丁寧さが上がる)程、小さな値に設定される。単語指標値は、丁寧か、非丁寧か、どちらでもないかのいずれか1つを示すようにしてもよい。この場合、丁寧さを示す特定単語の単語指標値が「+1」に設定され、非丁寧さを示す特待単語の単語指標値が「−1」に設定され、どちらでもない特定単語の単語指標値が「0」に設定される。本実施形態は、このような特定単語テーブル22に格納される特定単語データ及び単語指標値を制限しない。また、特定単語テーブル22に格納される特定単語データ及び単語指標値は、周知の単語情報(品詞情報)や丁寧さ情報が利用されればよいため、ここでは説明を簡略化する。この特定単語テーブルについては、上記特許文献2にも開示される。
抽出部23は、処理データ取得部21により取得された複数の単語データの中から、特定単語テーブル22に登録されている複数の特定単語データを抽出する。
変化検出部24は、抽出部23により抽出される複数の特定単語データ及び当該複数の特定単語データに関する複数の発声時間データに基づいて、対象通話における、顧客の丁寧表現から非丁寧表現への変化点を検出する。変化検出部24は、図2に示されるとおり、指標値算出部25及び特定部26を含む。変化検出部24は、これら処理部を用いて、当該変化点を検出する。
指標値算出部25は、複数の発声時間データに基づいて時系列に並べられた当該複数の特定単語データの中の所定範囲に含まれる特定単語データを処理単位とし、当該所定範囲をその時系列に沿って所定幅で順次スライドさせることで特定される各処理単位について、丁寧さ又は非丁寧さを示す指標値をそれぞれ算出する。処理単位を決めるための上記所定範囲は、例えば、特定単語データの数、時間、発話区間の数などで特定される。また、上記所定範囲のスライド幅に相当する上記所定幅についても、同様に、例えば、特定単語データの数、時間、発話区間の数などで特定される。上記所定範囲及び上記所定幅は、予め調整可能に指標値算出部25により保持される。
上記所定幅及び上記所定範囲は、変化点の検出粒度と処理負荷との要求バランスから決定されることが望ましい。上記所定幅が小さく設定された場合、及び、上記所定範囲が狭く設定された場合、処理単位の数が増加する。処理単位の数が増加すると、変化点の検出粒度を上げることができるが、それに応じて、処理負荷は高まる。一方、上記所定幅が大きく設定された場合、及び、上記所定範囲が広く設定された場合、処理単位の数が減少する。処理単位の数が減少すると、変化点の検出粒度が下がるが、それに応じて、処理負荷は軽くなる。
図3は、指標値算出部25による処理単位を概念的に示す図である。図3は、上記所定範囲及び上記所定幅が、特定単語データの数により特定される例を示す。図3の例では、上記所定範囲が、特定単語データ数(=8)に設定され、上記所定幅が、特定単語データ数(=2)に設定されている。
指標値算出部25は、特定単語テーブル22から、各処理単位に含まれる各特定単語データに関する単語指標値をそれぞれ抽出し、各処理単位について単語指標値の合計値を各処理単位の指標値としてそれぞれ算出する。図3の例によれば、指標値算出部25は、処理単位#1、処理単位#2、処理単位#3、処理単位#nの各々について単語指標値の合計値をそれぞれ算出する。
特定部26は、隣接する処理単位間の指標値の差異が所定閾値を超える隣接する処理単位を特定する。第1実施形態では、当該指標値の差異は、後ろ側の処理単位の指標値から前側の処理単位の指標値が減算され、その減算結果の絶対値により得られる。この特定部26の処理により、丁寧表現から非丁寧表現への変化が検出される。具体的には、特定部26は、後ろ側の処理単位の指標値から前側の処理単位の指標値が減算されることで得られる値が負の値でありかつその減算値の絶対値が所定閾値を超える、隣接する処理単位を特定する。この特定部26の処理例は、単語指標値が、特定単語が示す丁寧さが上がる(非丁寧さが下がる)程、大きな値に設定され、その特定単語が示す丁寧さが下がる(非丁寧さが上がる)程、小さな値に設定される場合の例である。所定閾値は、例えば、コンタクトセンタでの顧客の音声データに基づいて検証することで決定され、予め調整可能に特定部26により保持される。
変化検出部24は、特定部26により特定された隣接する処理単位に基づいて、上述の変化点を決定する。例えば、変化検出部24は、特定部26により特定された隣接する処理単位のうち、後ろ側の処理単位に含まれかつ前側の処理単位に含まれない特定単語の発声時間を当該変化点に決定する。これは、処理単位の上記所定幅のスライドにより、後ろ側の処理単位に含まれることになった特定単語が、当該所定閾値を超える処理単位間の指標値の差を引き起こした可能性が高いからである。後ろ側の処理単位に含まれかつ前側の処理単位に含まれない特定単語が複数存在する場合には、変化検出部24は、前側の処理単位の末尾の特定単語の次の特定単語の発声時間を当該変化点に決定してもよい。
不満判定部29は、変化検出部24による変化点の検出結果に基づいて、対象会話が、対象会話参加者の不満会話であるか否かを判定する。具体的には、不満判定部29は、顧客の丁寧表現から非丁寧表現への変化点が対象通話データから検出された場合、その対象通話を不満通話と判定し、当該変化点が検出されなかった場合、その対象通話を不満通話でないと判定する。不満判定部29は、不満通話と判定された対象通話の識別情報を、入出力I/F13を介して表示部や他の出力装置に出力するようにしてもよい。本実施形態は、この出力の具体的形態を制限しない。
対象決定部27は、変化検出部24で検出された変化点を終端とする、対象通話の所定幅の区間を、顧客の不満に関する分析の対象区間に決定する。この所定幅は、顧客の不満表出の原因等を分析するために必要となる、音声データ又はその音声データに対応するテキストデータの、当該対象通話中の範囲を示す。その所定幅は、例えば、発話区間の数、時間などで特定される。当該所定幅は、例えば、コンタクトセンタでの顧客の音声データに基づいて検証することで決定され、予め調整可能に対象決定部27により保持される。
対象決定部27は、決定された分析対象区間を示すデータ(例えば、区間の始端時間及び終端時間を示すデータ)を生成し、入出力I/F13を介して表示部や他の出力装置にその判定結果を出力するようにしてもよい。本実施形態は、このデータ出力の具体的形態を制限しない。
分析部28は、対象決定部27により決定された分析対象区間に対応する、顧客及びオペレータの音声データ又はその音声データから抽出されたテキストデータ等に基づいて、対象通話における顧客の不満に関する分析を行う。不満に関する分析として、例えば、不満表出の原因や不満の度合いなどが分析される。なお、分析部28による具体的分析手法には、音声認識技術や感情認識技術などの周知の手法が利用されればよいため、ここでは説明を省略する。本実施形態では、分析部28による具体的分析手法は制限されない。
分析部28は、分析結果を示すデータを生成し、入出力I/F13を介して表示部や他の出力装置にその判定結果を出力するようにしてもよい。本実施形態は、このデータ出力の具体的形態を制限しない。
〔動作例〕
以下、第1実施形態における不満会話判定方法について図4を用いて説明する。図4は、第1実施形態における通話分析サーバ10の動作例を示すフローチャートである。
以下、第1実施形態における不満会話判定方法について図4を用いて説明する。図4は、第1実施形態における通話分析サーバ10の動作例を示すフローチャートである。
通話分析サーバ10は、通話データを取得する(S40)。第1実施形態では、通話分析サーバ10は、ファイルサーバ9に格納される複数の通話データの中から、分析対象となる通話データを取得する。
通話分析サーバ10は、(S40)で取得された通話データから、その通話データに含まれる顧客の音声データから抽出される、複数の単語データ、及び、顧客による各単語の発声時間を示す複数の発声時間データを取得する(S41)。
通話分析サーバ10は、顧客の音声に関する複数の単語データの中から、特定単語テーブル22に登録されている複数の特定単語データを抽出する(S42)。特定単語テーブル22には、上述したとおり、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データ、及び、当該複数の特定単語の各々に関する丁寧さ又は非丁寧さをそれぞれ示す複数の単語指標値が保持される。工程(S42)により、顧客の音声に関する、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データ、及び、各特定単語データの発声時間データが取得される。
次に、通話分析サーバ10は、(S42)で抽出された複数の特定単語データに基づく各処理単位について、単語指標値の合計値をそれぞれ各処理単位の指標値としてそれぞれ算出する(S43)。通話分析サーバ10は、特定単語テーブル22から、各特定単語データの単語指標値を抽出する。
続いて、通話分析サーバ10は、隣接する処理単位ごとに、指標値の差を算出する(S44)。具体的には、通話分析サーバ10は、後ろ側の処理単位の指標値から前側の処理単位の指標値を減算することで、当該指標値の差を算出する。
通話分析サーバ10は、当該指標値の差が負の値であり、かつ、上記差の絶対値が所定閾値(正の値)を超える、隣接する処理単位の特定を試みる(S45)。通話分析サーバ10は、隣接する処理単位の特定に失敗した場合(S45;NO)、当該対象通話を、顧客の不満に関する分析対象から除外する(S46)。
一方、隣接する処理単位の特定に成功した場合(S45;YES)、通話分析サーバ10は、その特定された隣接する処理単位に基づいて、対象通話における変化点を決定する(S47)。更に、通話分析サーバ10は、対象通話データから変化点が検出された場合、その対象通話を不満通話と判定する(S47)。
通話分析サーバ10は、決定された変化点を終端とする、対象通話の所定幅の区間を顧客の不満に関する分析の対象区間に決定する(S48)。ここで、通話分析サーバ10は、この決定された対象区間を示すデータを生成し、このデータを出力するようにしてもよい。
通話分析サーバ10は、決定された分析対象区間の音声データ又はそのテキストデータを用いて、対象通話の顧客の不満に関する分析を行う(S49)。通話分析サーバ10は、この分析結果を示すデータを生成し、このデータを出力するようにしてもよい。
〔第1実施形態の作用及び効果〕
上述したように第1実施形態では、対象通話の顧客の音声データから、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データが抽出され、更に、抽出された特定単語データの単語指標値が特定単語テーブル22から抽出され、当該複数の特定単語データに基づく各処理単位について単語指標値の合計値が各処理単位の指標値としてそれぞれ算出される。そして、隣接する処理単位の指標値の差が算出され、この差が負の値を示しかつその差の絶対値が所定閾値を超える隣接する処理単位が特定され、この特定された隣接する処理単位に基づいて当該対象通話の変化点が検出される。
上述したように第1実施形態では、対象通話の顧客の音声データから、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データが抽出され、更に、抽出された特定単語データの単語指標値が特定単語テーブル22から抽出され、当該複数の特定単語データに基づく各処理単位について単語指標値の合計値が各処理単位の指標値としてそれぞれ算出される。そして、隣接する処理単位の指標値の差が算出され、この差が負の値を示しかつその差の絶対値が所定閾値を超える隣接する処理単位が特定され、この特定された隣接する処理単位に基づいて当該対象通話の変化点が検出される。
このように、特定単語データに関する所定範囲ごとの指標値から変化点が検出されるため、第1実施形態によれば、時折誤って発声された非丁寧語に左右されることなく、丁寧表現から非丁寧表現への統計的変化を高精度に検出することができる。更に、第1実施形態によれば、丁寧表現から非丁寧表現への変化点が検出された通話を不満通話と判定するため、平均的に言葉遣いが粗略な顧客の通話を不満通話と誤判定することを防ぐことができる。これにより、平均的に言葉遣いが粗略な顧客の通話の全体が、顧客の不満分析対象に決定されることも防ぐことができ、通話者の不満に関する通話内分析箇所を適切に特定することができる。
更に、第1実施形態では、上述のように決定された変化点を終端とする対象通話の所定幅の区間が顧客の不満に関する分析の対象に決定され、この分析対象区間におけるオペレータ及び顧客の音声データ又はそのテキストデータ等を対象に顧客の不満に関する分析が行われる。このように高精度に検出された顧客の不満の表出点以前の所定幅の区間の通話データが不満分析に利用されるため、第1実施形態によれば、分析対象を制限することができると共に、その不満表出に関わる箇所を集中的に分析できることから、不満分析の精度も向上させることができる。
[第2実施形態]
通話において丁寧表現から非丁寧表現への変化が存在する場合、「〜なんです。」と「〜なんだよ。」との組み合わせ、「どうして〜ですか?」と「なんで〜なの?」との組み合わせ、「あなた」、「あんた」及び「お前」の組み合わせなどのように、同意であり、かつ、丁寧表現と非丁寧表現との組み合わせが混在し得る。逆に言えば、通話においてこのような同意の両表現の組み合わせが存在する場合には、その通話において丁寧表現から非丁寧表現への変化が生じている可能性が高く、ひいては、その通話において顧客が不満を表出させている可能性が高い。
通話において丁寧表現から非丁寧表現への変化が存在する場合、「〜なんです。」と「〜なんだよ。」との組み合わせ、「どうして〜ですか?」と「なんで〜なの?」との組み合わせ、「あなた」、「あんた」及び「お前」の組み合わせなどのように、同意であり、かつ、丁寧表現と非丁寧表現との組み合わせが混在し得る。逆に言えば、通話においてこのような同意の両表現の組み合わせが存在する場合には、その通話において丁寧表現から非丁寧表現への変化が生じている可能性が高く、ひいては、その通話において顧客が不満を表出させている可能性が高い。
そこで、第2実施形態では、このような、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせを示す組み合わせ情報を利用して、各処理単位の指標値がそれぞれ算出される。以下、第2実施形態におけるコンタクトセンタシステム1について、第1実施形態と異なる内容を中心説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。
〔処理構成〕
図5は、第2実施形態における通話分析サーバ10の処理構成例を概念的に示す図である。第2実施形態における通話分析サーバ10は、第1実施形態の構成に加えて、組み合わせテーブル51を更に有する。
図5は、第2実施形態における通話分析サーバ10の処理構成例を概念的に示す図である。第2実施形態における通話分析サーバ10は、第1実施形態の構成に加えて、組み合わせテーブル51を更に有する。
組み合わせテーブル51は、丁寧表現又は非丁寧表現を構成し得る複数の特定単語の中で、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせを示す組み合わせ情報を保持する。組み合わせ情報には、各組み合わせに関し、丁寧表現の特定単語と非丁寧表現の特定単語との両方が抽出部23により抽出される複数の特定単語データに含まれる場合に適用される単語指標値(以降、特別単語指標値と表記する)と、それらのいずれか一方のみが当該複数の特定単語データに含まれる場合に適用される単語指標値(以降、通常単語指標値)とがそれぞれ含まれる。
上記特別単語指標値は、その絶対値が上記通常単語指標値の絶対値よりも大きくなるように設定される。これは、丁寧表現から非丁寧表現への変化を顕著に表わす、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との組み合わせにより、支配的に各処理単位の指標値を決めるためである。また、特別単語指標値には、丁寧表現の特定単語のための特別単語指標値(例えば、正の値)と、非丁寧表現の特定単語のための特別単語指標値(例えば、負の値)とが存在する。一方、通常単語指標値についても、同様に、丁寧表現の特定単語のための通常単語指標値(例えば、正の値)と、非丁寧表現の特定単語のための通常単語指標値(例えば、負の値)とが存在する。なお、通常単語指標値は、特定単語テーブル22に格納される特定単語データの単語指標値と同値であることが望ましい。
但し、上記組み合わせ情報には、各組み合わせに関し、上記通常単語指標値と重み値とがそれぞれ含まれるようにしてもよい。この場合、上記特別単語指標値は、通常単語指標値と重み値とが掛け合わされることで算出される。
指標値算出部25は、組み合わせテーブル51から上記組み合わせ情報を取得し、その組み合わせ情報により示される複数の組み合わせの中の、丁寧表現の特定単語と非丁寧表現の特定単語との両方が、抽出部23により抽出された複数の特定単語データに含まれる組み合わせを、他の特定単語データと区別して扱うことにより、各処理単位についての指標値をそれぞれ算出する。具体的には、指標値算出部25は、組み合わせ情報により示される各組み合わせについて、丁寧表現の特定単語と非丁寧表現の特定単語との両方が当該複数の特定単語データに含まれるか否かをそれぞれ確認する。指標値算出部25は、組み合わせに係る両方が含まれる場合には、その組み合わせに係る各特定単語データの単語指標値に上記特別単語指標値(丁寧表現用及び非丁寧表現用)をそれぞれ設定する。一方、指標値算出部25は、組み合わせに係る一方が含まれる場合には、その特定単語データの単語指標値に上記通常単語指標値(丁寧表現用又は非丁寧表現用)を設定する。
指標値算出部25は、抽出部23により抽出された複数の特定単語データの中で、上記組み合わせ情報に含まれない特定単語データについては、第1実施形態と同様に、特定単語テーブル22から抽出される単語指標値を設定する。指標値算出部25は、このように各特定単語データに設定された単語指標値を用いて、各処理単位の指標値をそれぞれ算出する。
〔動作例〕
以下、第2実施形態における不満会話判定方法について図4を用いて説明する。第2実施形態では、工程(S43)内の処理が第1実施形態と異なる。第2実施形態では、各処理単位についての単語指標値の合計値を算出する前に、特定単語テーブル22に格納される単語指標値と、組み合わせテーブル51に格納される特別単語指標値及び通常単語指標値とにより、各処理単位に含まれる各特定単語データの単語指標値がそれぞれ決定される。各特定単語データの単語指標値の決定手法については、上述の指標値算出部25における説明のとおりである。
以下、第2実施形態における不満会話判定方法について図4を用いて説明する。第2実施形態では、工程(S43)内の処理が第1実施形態と異なる。第2実施形態では、各処理単位についての単語指標値の合計値を算出する前に、特定単語テーブル22に格納される単語指標値と、組み合わせテーブル51に格納される特別単語指標値及び通常単語指標値とにより、各処理単位に含まれる各特定単語データの単語指標値がそれぞれ決定される。各特定単語データの単語指標値の決定手法については、上述の指標値算出部25における説明のとおりである。
〔第2実施形態の作用及び効果〕
上述のように第2実施形態では、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせを示す組み合わせ情報が利用されることにより、各処理単位の指標値がそれぞれ算出される。同意の、丁寧表現の特定単語と非丁寧表現の特定単語との組み合わせには、他の特定単語データよりも絶対値が大きくなるような単語指標値が設定される。
上述のように第2実施形態では、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせを示す組み合わせ情報が利用されることにより、各処理単位の指標値がそれぞれ算出される。同意の、丁寧表現の特定単語と非丁寧表現の特定単語との組み合わせには、他の特定単語データよりも絶対値が大きくなるような単語指標値が設定される。
このように、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせが支配的になるように各処理単位の指標値が算出されるため、第2実施形態によれば、顧客が不満とは無関係に不意に使ってしまったような非丁寧表現に左右されることなく、その通話において丁寧表現から非丁寧表現への変化をより正確に検出することができる。
[第3実施形態]
上述の各実施形態では、検出された変化点を終端とする対象通話の所定幅の区間が、顧客の不満に関する分析の対象区間に決定された。この対象区間は、顧客の不満の表出点以前の区間であるため、顧客の不満を誘引する原因が含まれる可能性が高い。しかしながら、顧客の不満に関する分析としては、原因分析に加えて、顧客の不満の程度(不満度)の分析もある。このような顧客の不満度は、顧客が不満を表出させている通話区間で表わされる可能性が高い。
上述の各実施形態では、検出された変化点を終端とする対象通話の所定幅の区間が、顧客の不満に関する分析の対象区間に決定された。この対象区間は、顧客の不満の表出点以前の区間であるため、顧客の不満を誘引する原因が含まれる可能性が高い。しかしながら、顧客の不満に関する分析としては、原因分析に加えて、顧客の不満の程度(不満度)の分析もある。このような顧客の不満度は、顧客が不満を表出させている通話区間で表わされる可能性が高い。
そこで、第3実施形態では、対象通話における非丁寧表現から丁寧表現への復帰点が更に検出され、当該変化点を始端としその復帰点を終端とする対象通話の区間を当該分析対象区間に更に加える。第3実施形態では、この追加された分析対象区間が顧客が不満を表出させている区間であると設定する。これは、復帰点は、非丁寧表現から丁寧表現への変化点であるため、顧客の不満の程度が低下してきたと考えられ、不満の表出点(変化点)からその復帰点までの間は、少なくとも、顧客が不満を感じている状態であると推定できるからである。
以下、第3実施形態におけるコンタクトセンタシステム1について、第1実施形態及び第2実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態及び第2実施形態と同様の内容については適宜省略する。
〔処理構成〕
第3実施形態における通話分析サーバ10の処理構成は、第1実施形態又は第2実施形態と同様であり、図2又は図5に示されるとおりである。但し、以下に示す処理部の処理内容が第1実施形態及び第2実施形態とは異なる。
第3実施形態における通話分析サーバ10の処理構成は、第1実施形態又は第2実施形態と同様であり、図2又は図5に示されるとおりである。但し、以下に示す処理部の処理内容が第1実施形態及び第2実施形態とは異なる。
変化検出部24は、抽出部23により抽出される複数の特定単語データ及びそれら複数の特定単語データに関する複数の発声時間データに基づいて、顧客の、対象通話における非丁寧表現から丁寧表現への復帰点を更に検出する。変化検出部24は、特定部26により特定される隣接する処理単位に基づいて、復帰点を決定する。特定された隣接する処理単位から復帰点を決定する方法は、変化点の決定方法と同様であるため、ここでは説明を省略する。
特定部26は、上述の各実施形態での処理に加えて、次のような隣接する処理単位を特定する。特定部26は、後ろ側の処理単位の指標値から前側の処理単位の指標値が減算されることで得られる値が正の値でありかつその減算値が所定閾値を超える、隣接する処理単位を特定する。この特定部26の処理例についても、単語指標値が、特定単語が示す丁寧さが上がる(非丁寧さが下がる)程、大きな値に設定され、その特定単語が示す丁寧さが下がる(非丁寧さが上がる)程、小さな値に設定される場合の例である。この復帰点を決定するために特定部26で用いられる所定閾値には、変化点を決定するために用いられる所定閾値が用いられてもよいし、別の所定閾値が用いられてもよい。顧客が不満を表出させてから完全な平常心に戻るのは難しいと考えられるため、例えば、変化点のための所定閾値の絶対値よりも復帰点のための所定閾値の絶対値のほうが小さく設定されてもよい。
対象決定部27は、上述の各実施形態のように決定された分析対象区間に加えて、当該変化点を始端とし当該復帰点を終端とする対象通話の区間を分析対象区間に更に決定する。対象決定部27は、変化点を終端として決定される分析対象区間と、変化点を始端とし復帰点を終端として決定される分析対象区間とを区別可能に決定するようにしてもよい。以降、前者の区間を原因分析対象区間と表記し、後者の区間を不満度分析対象区間と表記する場合もある。但し、この表記は、前者の区間を原因分析のためだけに用い、後者の区間を不満度の分析のためだけに用いることを限定するものではない。原因分析対象区間から不満度が抽出され、不満度分析区間から不満原因が抽出されてもよいし、両区間から他の分析結果が得られてもよい。
分析部28は、対象決定部27により決定された原因分析対象区間及び不満度分析対象区間に対応する、顧客及びオペレータの音声データ又はその音声データから抽出されたテキストデータ等に基づいて、対象通話における顧客の不満に関する分析を行う。分析部28は、原因分析対象区間と不満度分析対象区間とに異なる分析処理を適用するようにしてもよい。
〔動作例〕
以下、第3実施形態における不満会話判定方法について図6を用いて説明する。図6は、第3実施形態における通話分析サーバ10の動作例を示すフローチャートである。第3実施形態では、第1実施形態に加えて、工程(S61)から工程(S63)が追加される。図6では、図4と同じ工程については、図4と同じ符号が付されている。
以下、第3実施形態における不満会話判定方法について図6を用いて説明する。図6は、第3実施形態における通話分析サーバ10の動作例を示すフローチャートである。第3実施形態では、第1実施形態に加えて、工程(S61)から工程(S63)が追加される。図6では、図4と同じ工程については、図4と同じ符号が付されている。
通話分析サーバ10は、当該変化点を終端とする対象通話の所定幅の区間を原因分析対象区間に決定すると(S48)、当該指標値の差が正の値であり、かつ、当該差が所定閾値(正の値)を超える、隣接する処理単位の特定を更に試みる(S61)。通話分析サーバ10は、隣接する処理単位の特定に失敗した場合(S61;NO)、(S48)で決定された原因分析対象区間のみを対象に、対象通話の顧客の不満に関する分析を行う(S49)。
一方、隣接する処理単位の特定に成功した場合(S61;YES)、通話分析サーバ10は、その特定された隣接する処理単位に基づいて、対象通話における復帰点を決定する(S62)。
通話分析サーバ10は、工程(S47)で決定された変化点を始端とし、工程(S62)で決定された復帰点を終端とする、対象通話の所定幅の区間を不満度分析対象区間に決定する(S63)。ここで、通話分析サーバ10は、この決定された不満度分析対象区間を示すデータを生成し、このデータを出力するようにしてもよい。
この場合、通話分析サーバ10は、原因分析対象区間及び不満度分析対象区間の音声データ又はそのテキストデータを用いて、対象通話の顧客の不満に関する分析を行う(S49)。
〔第3実施形態における作用及び効果〕
上述のように第3実施形態では、丁寧表現から非丁寧表現への変化点に加えて、非丁寧表現から丁寧表現への復帰点が検出され、変化点を終端とする対象通話の所定幅の通話区間(上記原因分析対象区間)に加えて、当該変化点を始端としその復帰点を終端とする通話区間(上記不満度分析対象区間)が、顧客の不満に関する分析の対象区間に決定される。
上述のように第3実施形態では、丁寧表現から非丁寧表現への変化点に加えて、非丁寧表現から丁寧表現への復帰点が検出され、変化点を終端とする対象通話の所定幅の通話区間(上記原因分析対象区間)に加えて、当該変化点を始端としその復帰点を終端とする通話区間(上記不満度分析対象区間)が、顧客の不満に関する分析の対象区間に決定される。
第3実施形態により追加的に決定される分析対象区間は、上述したように、顧客が不満を表出させている状態にある可能性が高いため、第3実施形態によれば、顧客の不満度の分析等に適した通話区間を特定することができる。即ち、第3実施形態によれば、顧客の不満に関するあらゆる分析のための対象区間を適切に特定することができ、ひいては、その特定された通話区間により顧客の不満に関するあらゆる分析を高精度に行うことが可能となる。
[変形例]
上述の各実施形態では、通話分析サーバ10が通話データ取得部20、処理データ取得部21及び分析部28を有する例が示されたが、それら各処理部は他の装置により実現されてもよい。この場合、通話分析サーバ10は、不満会話判定装置として動作し、当該他の装置から、顧客の音声データから抽出される、複数の単語データ、及び、顧客による各単語の発声時間を示す複数の発声時間データを取得するようにすればよい(本発明のデータ取得部に相当)。また、通話分析サーバ10は、特定単語テーブル22を持たず、他の装置上で実現される特定単語テーブル22から所望のデータを取得するようにしてもよい。
上述の各実施形態では、通話分析サーバ10が通話データ取得部20、処理データ取得部21及び分析部28を有する例が示されたが、それら各処理部は他の装置により実現されてもよい。この場合、通話分析サーバ10は、不満会話判定装置として動作し、当該他の装置から、顧客の音声データから抽出される、複数の単語データ、及び、顧客による各単語の発声時間を示す複数の発声時間データを取得するようにすればよい(本発明のデータ取得部に相当)。また、通話分析サーバ10は、特定単語テーブル22を持たず、他の装置上で実現される特定単語テーブル22から所望のデータを取得するようにしてもよい。
また、上述の各実施形態では、各処理単位の指標値が、各処理単位に含まれる特定単語データの単語指標値の合計により得られたが、単語指標値を用いることなく決定されるようにしてもよい。この場合、特定単語テーブル22は、各特定単語の単語指標値を保持せず、各特定単語について丁寧表現か非丁寧表現かを示す情報をそれぞれ保持するようにすればよい。これにより、指標値算出部25は、各処理単位に含まれる特定単語データの数を丁寧表現毎及び非丁寧表現毎にカウントし、各処理単位における丁寧表現のカウント数及び非丁寧表現のカウント数に基づいて、各処理単位についての指標値がそれぞれ算出されるようにしてもよい。例えば、丁寧表現のカウント数と非丁寧表現のカウント数との割合を各処理単位の指標値とするようにしてもよい。
また、上述の第2実施形態では、通話分析サーバ10は、特定単語テーブル22と組み合わせテーブル51とを有したが、特定単語テーブル22は除かれてもよい。この場合、抽出部23は、処理データ取得部21により取得された複数の単語データの中から、組み合わせテーブル51に保持されている複数の特定単語データを抽出する。また、指標値算出部25は、組み合わせテーブル51に保持される特別単語指標値及び通常単語指標値のいずれか一方を各特定単語データの単語指標値に決定する。この形態では、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせに係る少なくとも一方の特定単語のみを対象に、各処理単位の指標値が算出され、結果として、変化点が検出される。この形態によれば、処理対象となる特定単語データを少なくすることができるため、処理負荷を軽減することができる。
[他の実施形態]
上述の各実施形態では、通話データが扱われたが、上述の不満会話判定装置及び不満会話判定方法は、通話以外の会話データを扱う装置やシステムに適用されてもよい。この場合、例えば、分析対象となる会話を録音する録音装置がその会話が行われる場所(会議室、銀行の窓口、店舗のレジなど)に設置される。また、会話データが複数の会話参加者の声が混合された状態で録音される場合には、その混合状態から所定の音声処理により会話参加者毎の音声データに分離される。
上述の各実施形態では、通話データが扱われたが、上述の不満会話判定装置及び不満会話判定方法は、通話以外の会話データを扱う装置やシステムに適用されてもよい。この場合、例えば、分析対象となる会話を録音する録音装置がその会話が行われる場所(会議室、銀行の窓口、店舗のレジなど)に設置される。また、会話データが複数の会話参加者の声が混合された状態で録音される場合には、その混合状態から所定の音声処理により会話参加者毎の音声データに分離される。
なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、本実施形態で実行される工程の実行順序は、その記載の順番に制限されない。本実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
上記の各実地形態及び各変形例の一部又は全部は、以下の付記のようにも特定され得る。但し、各実地形態及び各変形例が以下の記載に限定されるものではない。
(付記1)
対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、該対象会話参加者による各単語の発声時間を示す複数の発声時間データを取得するデータ取得部と、
前記データ取得部により取得される前記複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出する抽出部と、
前記抽出部により抽出される前記複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話における、前記対象会話参加者の丁寧表現から非丁寧表現への変化点を検出する変化検出部と、
前記変化検出部による前記変化点の検出結果に基づいて、前記対象会話が、前記対象会話参加者の不満会話であるか否かを判定する不満判定部と、
を備える不満会話判定装置。
対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、該対象会話参加者による各単語の発声時間を示す複数の発声時間データを取得するデータ取得部と、
前記データ取得部により取得される前記複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出する抽出部と、
前記抽出部により抽出される前記複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話における、前記対象会話参加者の丁寧表現から非丁寧表現への変化点を検出する変化検出部と、
前記変化検出部による前記変化点の検出結果に基づいて、前記対象会話が、前記対象会話参加者の不満会話であるか否かを判定する不満判定部と、
を備える不満会話判定装置。
(付記2)
前記変化検出部で検出される前記変化点を終端とする前記対象会話の所定幅の区間を前記対象会話参加者の不満に関する分析の対象区間に決定する対象決定部、
を更に備える付記1に記載の不満会話判定装置。
前記変化検出部で検出される前記変化点を終端とする前記対象会話の所定幅の区間を前記対象会話参加者の不満に関する分析の対象区間に決定する対象決定部、
を更に備える付記1に記載の不満会話判定装置。
(付記3)
前記変化検出部は、前記抽出部により抽出される前記複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話参加者の、前記対象会話における非丁寧表現から丁寧表現への復帰点を更に検出し、
前記対象決定部は、前記対象会話における前記変化検出部により検出される前記変化点を始端とし前記復帰点を終端とする前記対象会話の区間を前記分析対象区間に更に決定する、
付記2に記載の不満会話判定装置。
前記変化検出部は、前記抽出部により抽出される前記複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話参加者の、前記対象会話における非丁寧表現から丁寧表現への復帰点を更に検出し、
前記対象決定部は、前記対象会話における前記変化検出部により検出される前記変化点を始端とし前記復帰点を終端とする前記対象会話の区間を前記分析対象区間に更に決定する、
付記2に記載の不満会話判定装置。
(付記4)
前記変化検出部は、
前記複数の発声時間データに基づいて時系列に並べられた前記複数の特定単語データの中の所定範囲に含まれる特定単語データを処理単位とし、該所定範囲を該時系列に沿って所定幅で順次スライドさせることで特定される各処理単位について、丁寧さ又は非丁寧さを示す指標値をそれぞれ算出する指標値算出部と、
隣接する処理単位間の指標値の差異が所定閾値を超える隣接する処理単位を特定する特定部と、
を含み、
前記特定部により特定される前記隣接する処理単位に基づいて、前記変化点及び前記復帰点の少なくとも一方を検出する、
付記2又は3に記載の不満会話判定装置。
前記変化検出部は、
前記複数の発声時間データに基づいて時系列に並べられた前記複数の特定単語データの中の所定範囲に含まれる特定単語データを処理単位とし、該所定範囲を該時系列に沿って所定幅で順次スライドさせることで特定される各処理単位について、丁寧さ又は非丁寧さを示す指標値をそれぞれ算出する指標値算出部と、
隣接する処理単位間の指標値の差異が所定閾値を超える隣接する処理単位を特定する特定部と、
を含み、
前記特定部により特定される前記隣接する処理単位に基づいて、前記変化点及び前記復帰点の少なくとも一方を検出する、
付記2又は3に記載の不満会話判定装置。
(付記5)
前記指標値算出部は、丁寧表現又は非丁寧表現を構成し得る複数の特定単語の中で、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせを示す組み合わせ情報を取得し、該組み合わせ情報により示される複数の組み合わせの中の、丁寧表現の特定単語と非丁寧表現の特定単語との両方が前記複数の特定単語データに含まれる組み合わせを、他の特定単語データと区別して扱うことにより、前記各処理単位についての前記指標値をそれぞれ算出する、
付記4に記載の不満会話判定装置。
前記指標値算出部は、丁寧表現又は非丁寧表現を構成し得る複数の特定単語の中で、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせを示す組み合わせ情報を取得し、該組み合わせ情報により示される複数の組み合わせの中の、丁寧表現の特定単語と非丁寧表現の特定単語との両方が前記複数の特定単語データに含まれる組み合わせを、他の特定単語データと区別して扱うことにより、前記各処理単位についての前記指標値をそれぞれ算出する、
付記4に記載の不満会話判定装置。
(付記6)
前記指標値算出部は、前記各処理単位に含まれる前記各特定単語データに関する丁寧さ又は非丁寧さを示す単語指標値をそれぞれ取得し、前記各処理単位について該単語指標値の合計値を前記指標値としてそれぞれ算出する、
付記4又は5に記載の不満会話判定装置。
前記指標値算出部は、前記各処理単位に含まれる前記各特定単語データに関する丁寧さ又は非丁寧さを示す単語指標値をそれぞれ取得し、前記各処理単位について該単語指標値の合計値を前記指標値としてそれぞれ算出する、
付記4又は5に記載の不満会話判定装置。
(付記7)
前記指標値算出部は、前記各処理単位に含まれる前記特定単語データの数を丁寧表現毎及び非丁寧表現毎にカウントし、前記各処理単位における丁寧表現のカウント数及び非丁寧表現のカウント数に基づいて、前記各処理単位についての前記指標値をそれぞれ算出する、
付記4又は5に記載の不満会話判定装置。
前記指標値算出部は、前記各処理単位に含まれる前記特定単語データの数を丁寧表現毎及び非丁寧表現毎にカウントし、前記各処理単位における丁寧表現のカウント数及び非丁寧表現のカウント数に基づいて、前記各処理単位についての前記指標値をそれぞれ算出する、
付記4又は5に記載の不満会話判定装置。
(付記8)
前記所定範囲及び前記所定幅は、前記特定単語データの数、時間、又は、発話区間の数で特定される付記4から7のいずれか1つに記載の不満会話判定装置。
前記所定範囲及び前記所定幅は、前記特定単語データの数、時間、又は、発話区間の数で特定される付記4から7のいずれか1つに記載の不満会話判定装置。
(付記9)
少なくとも1つのコンピュータにより実行される不満会話判定方法において、
対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、該対象会話参加者による各単語の発声時間を示す複数の発声時間データを取得し、
前記取得された複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出し、
前記抽出された複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話における、前記対象会話参加者の丁寧表現から非丁寧表現への変化点を検出し、
前記変化点の検出結果に基づいて、前記対象会話が、前記対象会話参加者の不満会話であるか否かを判定する、
ことを含む不満会話判定方法。
少なくとも1つのコンピュータにより実行される不満会話判定方法において、
対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、該対象会話参加者による各単語の発声時間を示す複数の発声時間データを取得し、
前記取得された複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出し、
前記抽出された複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話における、前記対象会話参加者の丁寧表現から非丁寧表現への変化点を検出し、
前記変化点の検出結果に基づいて、前記対象会話が、前記対象会話参加者の不満会話であるか否かを判定する、
ことを含む不満会話判定方法。
(付記10)
前記検出された変化点を終端とする前記対象会話の所定幅の区間を前記対象会話参加者の不満に関する分析の対象区間に決定する、
ことを更に含む付記9に記載の不満会話判定方法。
前記検出された変化点を終端とする前記対象会話の所定幅の区間を前記対象会話参加者の不満に関する分析の対象区間に決定する、
ことを更に含む付記9に記載の不満会話判定方法。
(付記11)
前記抽出される複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話参加者の、前記対象会話における非丁寧表現から丁寧表現への復帰点を検出し、
前記対象会話における前記変化点を始端とし前記復帰点を終端とする前記対象会話の区間を前記分析対象区間に決定する、
ことを更に含む付記10に記載の不満会話判定方法。
前記抽出される複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話参加者の、前記対象会話における非丁寧表現から丁寧表現への復帰点を検出し、
前記対象会話における前記変化点を始端とし前記復帰点を終端とする前記対象会話の区間を前記分析対象区間に決定する、
ことを更に含む付記10に記載の不満会話判定方法。
(付記12)
前記複数の発声時間データに基づいて時系列に並べられた前記複数の特定単語データの中の所定範囲に含まれる特定単語データを処理単位とし、該所定範囲を該時系列に沿って所定幅で順次スライドさせることで特定される各処理単位について、丁寧さ又は非丁寧さを示す指標値をそれぞれ算出し、
隣接する処理単位間の指標値の差異が所定閾値を超える隣接する処理単位を特定する、
ことを更に含み、
前記変化点の検出又は前記復帰点の検出は、前記特定される隣接する処理単位に基づいて、前記変化点又は前記復帰点を検出する、
付記10又は11に記載の不満会話判定方法。
前記複数の発声時間データに基づいて時系列に並べられた前記複数の特定単語データの中の所定範囲に含まれる特定単語データを処理単位とし、該所定範囲を該時系列に沿って所定幅で順次スライドさせることで特定される各処理単位について、丁寧さ又は非丁寧さを示す指標値をそれぞれ算出し、
隣接する処理単位間の指標値の差異が所定閾値を超える隣接する処理単位を特定する、
ことを更に含み、
前記変化点の検出又は前記復帰点の検出は、前記特定される隣接する処理単位に基づいて、前記変化点又は前記復帰点を検出する、
付記10又は11に記載の不満会話判定方法。
(付記13)
前記指標値の算出は、丁寧表現又は非丁寧表現を構成し得る複数の特定単語の中で、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせを示す組み合わせ情報を取得し、該組み合わせ情報により示される複数の組み合わせの中の、丁寧表現の特定単語と非丁寧表現の特定単語との両方が前記複数の特定単語データに含まれる組み合わせを、他の特定単語データと区別して扱うことにより、前記各処理単位についての前記指標値をそれぞれ算出する、
付記12に記載の不満会話判定方法。
前記指標値の算出は、丁寧表現又は非丁寧表現を構成し得る複数の特定単語の中で、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせを示す組み合わせ情報を取得し、該組み合わせ情報により示される複数の組み合わせの中の、丁寧表現の特定単語と非丁寧表現の特定単語との両方が前記複数の特定単語データに含まれる組み合わせを、他の特定単語データと区別して扱うことにより、前記各処理単位についての前記指標値をそれぞれ算出する、
付記12に記載の不満会話判定方法。
(付記14)
前記指標値の算出は、前記各処理単位に含まれる前記各特定単語データに関する丁寧さ又は非丁寧さを示す単語指標値をそれぞれ取得し、前記各処理単位について該単語指標値の合計値を前記指標値としてそれぞれ算出する、
付記12又は13に記載の不満会話判定方法。
前記指標値の算出は、前記各処理単位に含まれる前記各特定単語データに関する丁寧さ又は非丁寧さを示す単語指標値をそれぞれ取得し、前記各処理単位について該単語指標値の合計値を前記指標値としてそれぞれ算出する、
付記12又は13に記載の不満会話判定方法。
(付記15)
前記指標値の算出は、前記各処理単位に含まれる前記特定単語データの数を丁寧表現毎及び非丁寧表現毎にカウントし、前記各処理単位における丁寧表現のカウント数及び非丁寧表現のカウント数に基づいて、前記各処理単位についての前記指標値をそれぞれ算出する、
付記12又は13に記載の不満会話判定方法。
前記指標値の算出は、前記各処理単位に含まれる前記特定単語データの数を丁寧表現毎及び非丁寧表現毎にカウントし、前記各処理単位における丁寧表現のカウント数及び非丁寧表現のカウント数に基づいて、前記各処理単位についての前記指標値をそれぞれ算出する、
付記12又は13に記載の不満会話判定方法。
(付記16)
前記所定範囲及び前記所定幅は、前記特定単語データの数、時間、又は、発話区間の数で特定される付記12から15のいずれか1つに記載の不満会話判定方法。
前記所定範囲及び前記所定幅は、前記特定単語データの数、時間、又は、発話区間の数で特定される付記12から15のいずれか1つに記載の不満会話判定方法。
(付記17)
少なくとも1つのコンピュータに、付記9から16のいずれか1つに記載の不満会話判定方法を実行させるプログラム。
少なくとも1つのコンピュータに、付記9から16のいずれか1つに記載の不満会話判定方法を実行させるプログラム。
(付記18)
付記17に記載のプログラムをコンピュータが読み取り可能に記録する記録媒体。
付記17に記載のプログラムをコンピュータが読み取り可能に記録する記録媒体。
この出願は、2012年10月31日に出願された日本出願特願2012−240755号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
Claims (14)
- 対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、該対象会話参加者による各単語の発声時間を示す複数の発声時間データを取得するデータ取得部と、
前記データ取得部により取得される前記複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出する抽出部と、
前記抽出部により抽出される前記複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話における、前記対象会話参加者の丁寧表現から非丁寧表現への変化点を検出する変化検出部と、
前記変化検出部による前記変化点の検出結果に基づいて、前記対象会話が、前記対象会話参加者の不満会話であるか否かを判定する不満判定部と、
を備える不満会話判定装置。 - 前記変化検出部で検出される前記変化点を終端とする前記対象会話の所定幅の区間を前記対象会話参加者の不満に関する分析の対象区間に決定する対象決定部、
を更に備える請求項1に記載の不満会話判定装置。 - 前記変化検出部は、前記抽出部により抽出される前記複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話参加者の、前記対象会話における非丁寧表現から丁寧表現への復帰点を更に検出し、
前記対象決定部は、前記対象会話における前記変化検出部により検出される前記変化点を始端とし前記復帰点を終端とする前記対象会話の区間を前記分析対象区間に更に決定する、
請求項2に記載の不満会話判定装置。 - 前記変化検出部は、
前記複数の発声時間データに基づいて時系列に並べられた前記複数の特定単語データの中の所定範囲に含まれる特定単語データを処理単位とし、該所定範囲を該時系列に沿って所定幅で順次スライドさせることで特定される各処理単位について、丁寧さ又は非丁寧さを示す指標値をそれぞれ算出する指標値算出部と、
隣接する処理単位間の指標値の差異が所定閾値を超える隣接する処理単位を特定する特定部と、
を含み、
前記特定部により特定される前記隣接する処理単位に基づいて、前記変化点及び前記復帰点の少なくとも一方を検出する、
請求項2又は3に記載の不満会話判定装置。 - 前記指標値算出部は、丁寧表現又は非丁寧表現を構成し得る複数の特定単語の中で、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせを示す組み合わせ情報を取得し、該組み合わせ情報により示される複数の組み合わせの中の、丁寧表現の特定単語と非丁寧表現の特定単語との両方が前記複数の特定単語データに含まれる組み合わせを、他の特定単語データと区別して扱うことにより、前記各処理単位についての前記指標値をそれぞれ算出する、
請求項4に記載の不満会話判定装置。 - 前記指標値算出部は、前記各処理単位に含まれる前記各特定単語データに関する丁寧さ又は非丁寧さを示す単語指標値をそれぞれ取得し、前記各処理単位について該単語指標値の合計値を前記指標値としてそれぞれ算出する、
請求項4又は5に記載の不満会話判定装置。 - 前記指標値算出部は、前記各処理単位に含まれる前記特定単語データの数を丁寧表現毎及び非丁寧表現毎にカウントし、前記各処理単位における丁寧表現のカウント数及び非丁寧表現のカウント数に基づいて、前記各処理単位についての前記指標値をそれぞれ算出する、
請求項4又は5に記載の不満会話判定装置。 - 前記所定範囲及び前記所定幅は、前記特定単語データの数、時間、又は、発話区間の数で特定される請求項4から7のいずれか1項に記載の不満会話判定装置。
- 少なくとも1つのコンピュータにより実行される不満会話判定方法において、
対象会話における対象会話参加者の音声から抽出される、複数の単語データ、及び、該対象会話参加者による各単語の発声時間を示す複数の発声時間データを取得し、
前記取得された複数の単語データの中から、丁寧表現又は非丁寧表現を構成し得る複数の特定単語データを抽出し、
前記抽出された複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話における、前記対象会話参加者の丁寧表現から非丁寧表現への変化点を検出し、
前記変化点の検出結果に基づいて、前記対象会話が、前記対象会話参加者の不満会話であるか否かを判定する、
ことを含む不満会話判定方法。 - 前記検出された変化点を終端とする前記対象会話の所定幅の区間を前記対象会話参加者の不満に関する分析の対象区間に決定する、
ことを更に含む請求項9に記載の不満会話判定方法。 - 前記抽出される複数の特定単語データ及び該複数の特定単語データに関する複数の発声時間データに基づいて、前記対象会話参加者の、前記対象会話における非丁寧表現から丁寧表現への復帰点を検出し、
前記対象会話における前記変化点を始端とし前記復帰点を終端とする前記対象会話の区間を前記分析対象区間に決定する、
ことを更に含む請求項10に記載の不満会話判定方法。 - 前記複数の発声時間データに基づいて時系列に並べられた前記複数の特定単語データの中の所定範囲に含まれる特定単語データを処理単位とし、該所定範囲を該時系列に沿って所定幅で順次スライドさせることで特定される各処理単位について、丁寧さ又は非丁寧さを示す指標値をそれぞれ算出し、
隣接する処理単位間の指標値の差異が所定閾値を超える隣接する処理単位を特定する、
ことを更に含み、
前記変化点の検出又は前記復帰点の検出は、前記特定される隣接する処理単位に基づいて、前記変化点又は前記復帰点を検出する、
請求項10又は11に記載の不満会話判定方法。 - 前記指標値の算出は、丁寧表現又は非丁寧表現を構成し得る複数の特定単語の中で、同意の、丁寧表現の特定単語と非丁寧表現の特定単語との各組み合わせを示す組み合わせ情報を取得し、該組み合わせ情報により示される複数の組み合わせの中の、丁寧表現の特定単語と非丁寧表現の特定単語との両方が前記複数の特定単語データに含まれる組み合わせを、他の特定単語データと区別して扱うことにより、前記各処理単位についての前記指標値をそれぞれ算出する、
請求項12に記載の不満会話判定方法。 - 少なくとも1つのコンピュータに、請求項9から13のいずれか1項に記載の不満会話判定方法を実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012240755 | 2012-10-31 | ||
JP2012240755 | 2012-10-31 | ||
PCT/JP2013/072242 WO2014069075A1 (ja) | 2012-10-31 | 2013-08-21 | 不満会話判定装置及び不満会話判定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014069075A1 JPWO2014069075A1 (ja) | 2016-09-08 |
JP6213476B2 true JP6213476B2 (ja) | 2017-10-18 |
Family
ID=50626997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014544355A Active JP6213476B2 (ja) | 2012-10-31 | 2013-08-21 | 不満会話判定装置及び不満会話判定方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150279391A1 (ja) |
JP (1) | JP6213476B2 (ja) |
WO (1) | WO2014069075A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945790A (zh) * | 2018-01-03 | 2018-04-20 | 京东方科技集团股份有限公司 | 一种情感识别方法和情感识别系统 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6341092B2 (ja) * | 2012-10-31 | 2018-06-13 | 日本電気株式会社 | 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 |
US20150310877A1 (en) * | 2012-10-31 | 2015-10-29 | Nec Corporation | Conversation analysis device and conversation analysis method |
US9875236B2 (en) * | 2013-08-07 | 2018-01-23 | Nec Corporation | Analysis object determination device and analysis object determination method |
US10691894B2 (en) * | 2018-05-01 | 2020-06-23 | Disney Enterprises, Inc. | Natural polite language generation system |
CN110070858B (zh) * | 2019-05-05 | 2021-11-19 | 广东小天才科技有限公司 | 一种文明用语提醒方法、装置及移动设备 |
US11830496B2 (en) * | 2020-12-01 | 2023-11-28 | Microsoft Technology Licensing, Llc | Generating and providing inclusivity data insights for evaluating participants in a communication |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0682376B2 (ja) * | 1986-07-10 | 1994-10-19 | 日本電気株式会社 | 感情情報抽出装置 |
JPH1055194A (ja) * | 1996-08-08 | 1998-02-24 | Sanyo Electric Co Ltd | 音声制御装置と音声制御方法 |
US6185534B1 (en) * | 1998-03-23 | 2001-02-06 | Microsoft Corporation | Modeling emotion and personality in a computer user interface |
US7222075B2 (en) * | 1999-08-31 | 2007-05-22 | Accenture Llp | Detecting emotions using voice signal analysis |
JP2001188779A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2002041279A (ja) * | 2000-07-21 | 2002-02-08 | Megafusion Corp | エージェント伝言システム |
US7043008B1 (en) * | 2001-12-20 | 2006-05-09 | Cisco Technology, Inc. | Selective conversation recording using speech heuristics |
EP1513135A1 (en) * | 2002-06-12 | 2005-03-09 | Mitsubishi Denki Kabushiki Kaisha | Speech recognizing method and device thereof |
JP2004259238A (ja) * | 2003-02-25 | 2004-09-16 | Kazuhiko Tsuda | 自然言語解析における感情理解システム |
US9300790B2 (en) * | 2005-06-24 | 2016-03-29 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
WO2007017853A1 (en) * | 2005-08-08 | 2007-02-15 | Nice Systems Ltd. | Apparatus and methods for the detection of emotions in audio interactions |
CN101346758B (zh) * | 2006-06-23 | 2011-07-27 | 松下电器产业株式会社 | 感情识别装置 |
JP2009071403A (ja) * | 2007-09-11 | 2009-04-02 | Fujitsu Fsas Inc | オペレータ受付監視・切替システム |
WO2010041507A1 (ja) * | 2008-10-10 | 2010-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 会話における特定状況を抽出するシステムおよび方法 |
JP4972107B2 (ja) * | 2009-01-28 | 2012-07-11 | 日本電信電話株式会社 | 通話状態判定装置、通話状態判定方法、プログラム、記録媒体 |
US20100332287A1 (en) * | 2009-06-24 | 2010-12-30 | International Business Machines Corporation | System and method for real-time prediction of customer satisfaction |
US8417524B2 (en) * | 2010-02-11 | 2013-04-09 | International Business Machines Corporation | Analysis of the temporal evolution of emotions in an audio interaction in a service delivery environment |
US8412530B2 (en) * | 2010-02-21 | 2013-04-02 | Nice Systems Ltd. | Method and apparatus for detection of sentiment in automated transcriptions |
JP5066242B2 (ja) * | 2010-09-29 | 2012-11-07 | 株式会社東芝 | 音声翻訳装置、方法、及びプログラム |
JP5708155B2 (ja) * | 2011-03-31 | 2015-04-30 | 富士通株式会社 | 話者状態検出装置、話者状態検出方法及び話者状態検出用コンピュータプログラム |
US8930187B2 (en) * | 2012-01-03 | 2015-01-06 | Nokia Corporation | Methods, apparatuses and computer program products for implementing automatic speech recognition and sentiment detection on a device |
WO2014069120A1 (ja) * | 2012-10-31 | 2014-05-08 | 日本電気株式会社 | 分析対象決定装置及び分析対象決定方法 |
JP6341092B2 (ja) * | 2012-10-31 | 2018-06-13 | 日本電気株式会社 | 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 |
-
2013
- 2013-08-21 JP JP2014544355A patent/JP6213476B2/ja active Active
- 2013-08-21 US US14/438,720 patent/US20150279391A1/en not_active Abandoned
- 2013-08-21 WO PCT/JP2013/072242 patent/WO2014069075A1/ja active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945790A (zh) * | 2018-01-03 | 2018-04-20 | 京东方科技集团股份有限公司 | 一种情感识别方法和情感识别系统 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2014069075A1 (ja) | 2016-09-08 |
US20150279391A1 (en) | 2015-10-01 |
WO2014069075A1 (ja) | 2014-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6213476B2 (ja) | 不満会話判定装置及び不満会話判定方法 | |
CN108737667B (zh) | 语音质检方法、装置、计算机设备及存储介质 | |
JP6341092B2 (ja) | 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 | |
US10083686B2 (en) | Analysis object determination device, analysis object determination method and computer-readable medium | |
WO2014069076A1 (ja) | 会話分析装置及び会話分析方法 | |
US10755712B2 (en) | Automated execution of computer software based upon determined empathy of a communication participant | |
US8676586B2 (en) | Method and apparatus for interaction or discourse analytics | |
US10592611B2 (en) | System for automatic extraction of structure from spoken conversation using lexical and acoustic features | |
US9711167B2 (en) | System and method for real-time speaker segmentation of audio interactions | |
KR101795593B1 (ko) | 전화상담원 보호 장치 및 그 방법 | |
JP2007286377A (ja) | 応対評価装置、その方法、プログラムおよびその記録媒体 | |
JP2010266522A (ja) | 対話状態分割装置とその方法、そのプログラムと記録媒体 | |
JP6327252B2 (ja) | 分析対象決定装置及び分析対象決定方法 | |
JP6365304B2 (ja) | 会話分析装置及び会話分析方法 | |
JP5691174B2 (ja) | オペレータ選定装置、オペレータ選定プログラム、オペレータ評価装置、オペレータ評価プログラム及びオペレータ評価方法 | |
CN115831125A (zh) | 语音识别方法、装置、设备、存储介质及产品 | |
WO2014069443A1 (ja) | 不満通話判定装置及び不満通話判定方法 | |
JP6733901B2 (ja) | 心理分析装置、心理分析方法、およびプログラム | |
JP2011151497A (ja) | 電話応答結果予測装置、方法、およびそのプログラム | |
WO2014069444A1 (ja) | 不満会話判定装置及び不満会話判定方法 | |
JP5679005B2 (ja) | 会話異常検知装置、会話異常検知方法、及び会話異常検知プログラム | |
EP3913619A1 (en) | System and method for obtaining voiceprints for large populations | |
JP2010008764A (ja) | 音声認識方法、音声認識システム、および音声認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6213476 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |