JP6365304B2 - 会話分析装置及び会話分析方法 - Google Patents
会話分析装置及び会話分析方法 Download PDFInfo
- Publication number
- JP6365304B2 JP6365304B2 JP2014544379A JP2014544379A JP6365304B2 JP 6365304 B2 JP6365304 B2 JP 6365304B2 JP 2014544379 A JP2014544379 A JP 2014544379A JP 2014544379 A JP2014544379 A JP 2014544379A JP 6365304 B2 JP6365304 B2 JP 6365304B2
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- data
- expression data
- participant
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 125
- 230000014509 gene expression Effects 0.000 claims description 290
- 238000001514 detection method Methods 0.000 claims description 104
- 238000000034 method Methods 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 43
- 238000004090 dissolution Methods 0.000 claims description 6
- 238000012986 modification Methods 0.000 description 27
- 230000004048 modification Effects 0.000 description 27
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000008451 emotion Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 241000277269 Oncorhynchus masou Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000007794 irritation Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/20—Aspects of automatic or semi-automatic exchanges related to features of supplementary services
- H04M2203/2038—Call context notifications
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Telephonic Communication Services (AREA)
Description
オペレータ「その症状でしたら、まずそのPCを再起動して頂いて、〜」
顧客「ありがとうございます。ただ、それはもう試しました。」
前記通話データは切断時間データを含み、
前記クロージング検出部は、前記切断時間データが示す切断時間を前記クロージング区間の終端時間に設定し、前記終端時間から当該クロージング区間の始端時間を設定する。
さらに、第1の態様の別の態様は、会話分析装置に関する。第1態様の別の態様に係る会話分析装置は、第1会話参加者と第2会話参加者との間の会話のクロージング区間のみの音声に対応するデータから、第1会話参加者により発声されたお礼表現データ及び第2会話参加者により発声された謝罪表現データの少なくとも一方を特定表現データとして検出する表現検出部と、特定表現データの検出結果に応じて、当該会話における第1会話参加者の満足度又は不満度を推定する推定部と、前記会話の前記クロージング区間を検出するクロージング検出部と、を有し、前記クロージング検出部は、前記会話の参加者全員の発声の終了、前記会話の参加者の解散を示す人の動き、および、前記会話の参加者による会話終了を通知するための入力操作、の少なくともいずれか1つが検出された時点を前記クロージング区間の終端時間に設定し、前記終端時間から当該クロージング区間の始端時間を設定する。
さらに、第2の態様の別の態様は、少なくとも1つのコンピュータにより実行される会話分析方法に関する。第2態様の別の態様に係る会話分析方法は、第1会話参加者と第2会話参加者との間の会話のクロージング区間のみの音声に対応するデータから、第1会話参加者により発声されたお礼表現データ及び第2会話参加者により発声された謝罪表現データの少なくとも一方を特定表現データとして検出し、特定表現データの検出結果に応じて、当該会話における第1会話参加者の満足度又は不満度を推定し、前記会話の前記クロージング区間を検出する際、前記会話の参加者全員の発声の終了、前記会話の参加者の解散を示す人の動き、および、前記会話の参加者による会話終了を通知するための入力操作、の少なくともいずれか1つが検出された時点を前記クロージング区間の終端時間に設定し、前記終端時間から当該クロージング区間の始端時間を設定する、ことを含む。
〔システム構成〕
図1は、第1実施形態におけるコンタクトセンタシステム1の構成例を示す概念図である。第1実施形態におけるコンタクトセンタシステム1は、交換機(PBX)5、複数のオペレータ電話機6、複数のオペレータ端末7、ファイルサーバ9、通話分析サーバ10等を有する。通話分析サーバ10は、上述の実施形態における会話分析装置に相当する構成を含む。第1実施形態では、顧客が上述の第1会話参加者に相当し、オペレータが上述の第2会話参加者に相当する。
通話分析サーバ10は、図1に示されるように、ハードウェア構成として、CPU(Central Processing Unit)11、メモリ12、入出力インタフェース(I/F)13、通信装置14等を有する。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。入出力I/F13は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置、ディスプレイ装置やプリンタ等のようなユーザに情報を提供する装置などと接続される。通信装置14は、通信網8を介して、ファイルサーバ9などと通信を行う。なお、通話分析サーバ10のハードウェア構成は制限されない。
図2は、第1実施形態における通話分析サーバ10の処理構成例を概念的に示す図である。第1実施形態における通話分析サーバ10は、通話データ取得部20、音声認識部21、クロージング検出部23、特定表現テーブル25、表現検出部26、推定部27等を有する。これら各処理部は、例えば、CPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13を介してインストールされ、メモリ12に格納されてもよい。
以下、第1実施形態における通話分析方法について図3を用いて説明する。図3は、第1実施形態における通話分析サーバ10の動作例を示すフローチャートである。
通話分析サーバ10は、通話データを取得する(S30)。第1実施形態では、通話分析サーバ10は、ファイルサーバ9に格納される複数の通話データの中から、分析対象となる通話データを取得する。
この場合、(S31)では、通話分析サーバ10は、当該通話データに含まれるオペレータの音声データに対して音声認識処理を行う。これにより、通話分析サーバ10は、オペレータの音声テキストデータ及び発声時間データを取得する。
上述したように第1実施形態では、対象通話のクロージング区間の音声に対応するデータから検出される、顧客により発声されるお礼表現データの検出数及びオペレータにより発声される謝罪表現データの検出数の少なくとも一方に基づいて、対象通話の顧客の満足度及び不満度の少なくとも一方が推定される。本実施形態によれば、クロージング区間のみからお礼表現や謝罪表現を検出しているため、これら特定表現は顧客の満足感または不満感を反映している可能性が高く、かつ、クロージング区間以外で誤認識された特定表現の悪影響を受けなくなるため、顧客の満足度または不満度を高精度に推定することができる。
第2実施形態では、お礼表現及び謝罪表現を認識し易いように重み付けされた音声認識パラメータを用いて、クロージング区間の音声データに対する音声認識処理が行われる。以下、第2実施形態におけるコンタクトセンタシステム1について、第1実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。
図4は、第2実施形態における通話分析サーバ10の処理構成例を概念的に示す図である。第2実施形態における通話分析サーバ10は、第1実施形態の構成に加えて、音声認識部41を更に有する。音声認識部41は、他の処理部と同様に、例えば、CPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。
以下、第2実施形態における通話分析方法について図5を用いて説明する。図5は、第2実施形態における通話分析サーバ10の動作例を示すフローチャートである。図5では、図3と同じ工程については、図3と同じ符号が付されている。
通話分析サーバ10は、(S51)で取得された音声テキストデータの中から、特定表現データとしてのお礼表現データ及び謝罪表現データの少なくとも一方を検出する(S33)。
上述のように、第2実施形態では、お礼表現及び謝罪表現を認識し易いように重み付けされた加重音声認識パラメータを用いて、クロージング区間の音声データに対する音声認識処理が行われる。そして、この音声認識処理で取得される音声テキストデータから、お礼表現データ及び謝罪表現データの少なくとも一方が検出され、この検出結果に基づいて対象通話の顧客の満足度又は不満度が推定される。
以下、第1実施形態における通話分析サーバ10の変形例を第1変形例として説明する。図6は、第1変形例における通話分析サーバ10の処理構成例を概念的に示す図である。第1変形例では、クロージング検出部23は、通話データ取得部20により取得された通話データに含まれる音声データ及び切断時間データの少なくとも一方を用いてクロージング区間を検出する。
第1変形例における通話分析方法では、図3に示される工程(S31)が、工程(S32)の後で工程(S33)の前に実行されればよい。
以下、第2実施形態における通話分析サーバ10の変形例を第2変形例として説明する。図7は、第2変形例における通話分析サーバ10の処理構成例を概念的に示す図である。第2変形例では、通話分析サーバ10は、音声認識部21を持たなくてもよい。クロージング検出部23は、通話データ取得部20により取得された通話データに含まれる音声データ及び切断時間データの少なくとも一方を用いてクロージング区間を検出する。第2変形例におけるクロージング検出部23の処理内容は、第1変形例と同様でよいため、ここでは説明を省略する。
上述の各実施形態及び各変形例では、お礼表現データの検出数及び謝罪表現データの検出数により顧客の満足度又は不満度が推定された。しかしながら、顧客の満足度又は不満度は、検出数以外から推定されるようにしてもよい。例えば、特定表現テーブル25において、お礼表現データ毎に満足度ポイントを、謝罪表現毎に不満度ポイントをそれぞれ予め付与しておき、検出されたお礼表現データの満足度ポイントの合計値、及び、検出された謝罪表現データの不満度ポイントの合計値から、顧客の満足度レベル値及び不満度レベル値が推定されるようにしてもよい。
上述の各実施形態及び各変形例では、通話データが扱われたが、上述の会話分析装置及び会話分析方法は、通話以外の会話データを扱う装置やシステムに適用されてもよい。この場合、例えば、分析対象となる会話を録音する録音装置がその会話が行われる場所(会議室、銀行の窓口、店舗のレジなど)に設置される。また、会話データが複数の会話参加者の声が混合された状態で録音される場合には、その混合状態から所定の音声処理により会話参加者毎の音声データに分離される。
第1会話参加者と第2会話参加者との間の会話のクロージング区間のみの音声に対応するデータから、該第1会話参加者により発声されたお礼表現データ及び該第2会話参加者により発声された謝罪表現データの少なくとも一方を特定表現データとして検出する表現検出部と、
前記特定表現データの検出結果に応じて、前記会話における前記第1会話参加者の満足度又は不満度を推定する推定部と、
を備える会話分析装置。
前記表現検出部は、
前記会話を含む所定形態の会話の音声認識に適合された基準音声認識パラメータが、前記特定表現データが他の単語データよりも認識され易くなるように重み付けされた音声認識パラメータを用いて、前記会話の前記クロージング区間の音声データに対して音声認識処理を行う音声認識部、
を含み、
前記音声認識部の前記音声認識処理により得られる、前記会話の前記クロージング区間の音声テキストデータの中から、前記特定表現データを検出する
付記1に記載の会話分析装置。
前記表現検出部は、前記特定表現データを前記お礼表現データと前記謝罪表現データとに区別可能に保持する特定表現テーブルに基づいて、前記特定表現データを検出することにより、前記お礼表現データおよび前記謝罪表現データの少なくとも一方の検出数をカウントし、
前記推定部は、前記お礼表現データの検出数または前記謝罪表現データの検出数に基づいて、前記会話における前記第1会話参加者の満足度及び不満度の少なくとも一方を推定する、
付記1又は2に記載の会話分析装置。
前記表現検出部は、前記特定表現データを前記お礼表現データと前記謝罪表現データとに区別可能に保持する特定表現テーブルに基づいて、前記特定表現データを検出することにより、前記お礼表現データの検出数及び前記謝罪表現データの検出数をそれぞれカウントし、
前記推定部は、前記お礼表現データの検出数及び前記謝罪表現データの検出数に基づいて、前記会話における前記第1会話参加者の満足度及び不満度の少なくとも一方を推定する、
付記1又は2に記載の会話分析装置。
少なくとも1つのコンピュータにより実行される会話分析方法において、
第1会話参加者と第2会話参加者との間の会話のクロージング区間のみの音声に対応するデータから、該第1会話参加者により発声されたお礼表現データ及び該第2会話参加者により発声された謝罪表現データの少なくとも一方を特定表現データとして検出し、
前記特定表現データの検出結果に応じて、前記会話における前記第1会話参加者の満足度又は不満度を推定する、
ことを含む会話分析方法。
前記会話を含む所定形態の会話の音声認識に適合された基準音声認識パラメータが、前記特定表現データが他の単語データよりも認識され易くなるように重み付けされた音声認識パラメータを用いて、前記会話の前記クロージング区間の音声データに対して音声認識処理を行う、
ことを更に含み、
前記特定表現データの検出は、前記音声認識処理により得られる、前記会話の前記クロージング区間の音声テキストデータの中から、前記特定表現データを検出する、
付記5に記載の会話分析方法。
前記特定表現データを前記お礼表現データと前記謝罪表現データとに区別可能に保持する特定表現テーブルに基づいて、前記特定表現データを検出することにより、前記お礼表現データおよび前記謝罪表現データの少なくとも一方の検出数をカウントする、
ことを更に含み、
前記推定は、前記お礼表現データの検出数又は前記謝罪表現データの検出数に基づいて、前記会話における前記第1会話参加者の満足度及び不満度の少なくとも一方を推定する、
付記5又は6に記載の会話分析方法。
前記特定表現データを前記お礼表現データと前記謝罪表現データとに区別可能に保持する特定表現テーブルに基づいて、前記特定表現データを検出することにより、前記お礼表現データの検出数及び前記謝罪表現データの検出数をそれぞれカウントする、
ことを更に含み、
前記推定は、前記お礼表現データの検出数及び前記謝罪表現データの検出数に基づいて、前記会話における前記第1会話参加者の満足度及び不満度の少なくとも一方を推定する、
付記5又は6に記載の会話分析方法。
少なくとも1つのコンピュータに、付記5から8のいずれか1つに記載の会話分析方法を実行させるプログラム。
Claims (21)
- 第1会話参加者と第2会話参加者との間の会話のクロージング区間のみの音声に対応するデータから、該第1会話参加者により発声されたお礼表現データ及び該第2会話参加者により発声された謝罪表現データの少なくとも一方を特定表現データとして検出する表現検出部と、
前記特定表現データの検出結果に応じて、前記会話における前記第1会話参加者の満足度又は不満度を推定する推定部と、
前記第1会話参加者と前記第2会話参加者の間の通話の通話データを取得する通話データ取得部と、
前記通話の前記クロージング区間を前記会話の前記クロージング区間として検出するクロージング検出部と、
を備え、
前記通話データは切断時間データを含み、
前記クロージング検出部は、前記切断時間データが示す切断時間を前記クロージング区間の終端時間に設定し、前記終端時間から当該クロージング区間の始端時間を設定する会話分析装置。 - 第1会話参加者と第2会話参加者との間の会話のクロージング区間のみの音声に対応するデータから、該第1会話参加者により発声されたお礼表現データ及び該第2会話参加者により発声された謝罪表現データの少なくとも一方を特定表現データとして検出する表現検出部と、
前記特定表現データの検出結果に応じて、前記会話における前記第1会話参加者の満足度又は不満度を推定する推定部と、
前記会話の前記クロージング区間を検出するクロージング検出部と、
を備え、
前記クロージング検出部は、
前記会話の参加者全員の発声の終了、前記会話の参加者の解散を示す人の動き、および、前記会話の参加者による会話終了を通知するための入力操作、の少なくともいずれか1つが検出された時点を前記クロージング区間の終端時間に設定し、前記終端時間から当該クロージング区間の始端時間を設定する会話分析装置。 - 請求項1又は2に記載の会話分析装置において、
前記表現検出部は、
前記第1会話参加者及び前記第2会話参加者の音声データに対して音声認識処理を行い音声テキストデータ及びその発声時間データを取得する音声認識部を備え、
前記クロージング検出部は、
前記音声テキストデータ及びその発声時間データに基づいて、前記終端時間から所定数分の発話区間の始端時間を前記クロージング区間の前記始端時間に設定する、会話分析装置。 - 請求項3に記載の会話分析装置において、
前記クロージング検出部は、
前記第1会話参加者及び前記第2会話参加者のいずれか一方の前記音声テキストデータのみに基づいて、前記クロージング区間の始端時間を設定する会話分析装置。 - 請求項3又は4に記載の会話分析装置において、
前記クロージング検出部は、前記所定数を前記会話の会話種に応じて決める、会話分析装置。 - 請求項1又は2に記載の会話分析装置において、
前記クロージング検出部は、前記終端時間から所定時間遡った時点を前記クロージング区間の前記始端時間に設定する、会話分析装置。 - 請求項6に記載の会話分析装置において、
前記クロージング検出部は、前記所定時間を前記会話の会話種に応じて決める、会話分析装置。 - 請求項1から7のいずれか1項に記載の会話分析装置において、
前記表現検出部は、前記特定表現データを前記お礼表現データと前記謝罪表現データとに区別可能に保持する特定表現テーブルに基づいて、前記特定表現データを検出することにより、前記お礼表現データの検出数及び前記謝罪表現データの検出数をそれぞれカウントし、
前記推定部は、前記お礼表現データの前記検出数が前記謝罪表現データの前記検出数より大きい場合には、前記第1会話参加者の満足感有りと推定し、前記謝罪表現データの前記検出数が前記お礼表現データの前記検出数より大きい場合には、前記第1会話参加者の不満足感有りと推定する、会話分析装置。 - 請求項1から7のいずれか1項に記載の会話分析装置において、
前記表現検出部は、前記特定表現データを前記お礼表現データと前記謝罪表現データとに区別可能に保持する特定表現テーブルに基づいて、前記特定表現データを検出することにより、前記お礼表現データの検出数及び前記謝罪表現データの検出数をそれぞれカウントし、
前記推定部は、前記お礼表現データの検出数と前記謝罪表現データの検出数の差分値に基づいて、前記第1会話参加者の満足度レベル又は不満足度レベルを推定する、会話分析装置。 - 請求項1から9いずれかの1項に記載の会話分析装置において、
前記表現検出部は、
前記会話を含む所定形態の会話の音声認識に適合された基準音声認識パラメータが、前記特定表現データが他の単語データよりも認識され易くなるように重み付けされた音声認識パラメータを用いて、前記会話の前記クロージング区間の音声データに対して音声認識処理を行う音声認識部、
を含み、
前記音声認識部の前記音声認識処理により得られる、前記会話の前記クロージング区間の音声テキストデータの中から、前記特定表現データを検出する、会話分析装置。 - 少なくとも1つのコンピュータにより実行される会話分析方法において、
第1会話参加者と第2会話参加者との間の会話のクロージング区間のみの音声に対応するデータから、該第1会話参加者により発声されたお礼表現データ及び該第2会話参加者により発声された謝罪表現データの少なくとも一方を特定表現データとして検出し、
前記特定表現データの検出結果に応じて、前記会話における前記第1会話参加者の満足度又は不満度を推定し、
前記第1会話参加者と前記第2会話参加者の間の通話の通話データを取得し、
前記通話データは切断時間データを含み、
前記通話の前記クロージング区間を前記会話の前記クロージング区間として検出する際、前記切断時間データが示す切断時間を前記クロージング区間の終端時間に設定し、前記終端時間から当該クロージング区間の始端時間を設定する、
ことを含む会話分析方法。 - 少なくとも1つのコンピュータにより実行される会話分析方法において、
第1会話参加者と第2会話参加者との間の会話のクロージング区間のみの音声に対応するデータから、該第1会話参加者により発声されたお礼表現データ及び該第2会話参加者により発声された謝罪表現データの少なくとも一方を特定表現データとして検出し、
前記特定表現データの検出結果に応じて、前記会話における前記第1会話参加者の満足度又は不満度を推定し、
前記会話の前記クロージング区間を検出する際、前記会話の参加者全員の発声の終了、前記会話の参加者の解散を示す人の動き、および、前記会話の参加者による会話終了を通知するための入力操作、の少なくともいずれか1つが検出された時点を前記クロージング区間の終端時間に設定し、前記終端時間から当該クロージング区間の始端時間を設定する、
ことを含む会話分析方法。 - 請求項11又は12に記載の会話分析方法において、
前記第1会話参加者及び前記第2会話参加者の音声データに対して音声認識処理を行い音声テキストデータ及びその発声時間データを取得し、
前記音声テキストデータ及びその発声時間データに基づいて、前記終端時間から所定数分の発話区間の始端時間を前記クロージング区間の前記始端時間に設定する、会話分析方法。 - 請求項13に記載の会話分析方法において、
前記第1会話参加者及び前記第2会話参加者のいずれか一方の前記音声テキストデータのみに基づいて、前記クロージング区間の始端時間を設定する会話分析方法。 - 請求項13又は14に記載の会話分析方法において、
前記所定数を前記会話の会話種に応じて決める、会話分析方法。 - 請求項11又は12に記載の会話分析方法において、
前記終端時間から所定時間遡った時点を前記クロージング区間の前記始端時間に設定する、会話分析方法。 - 請求項16に記載の会話分析方法において、
前記所定時間を前記会話の会話種に応じて決める、会話分析方法。 - 請求項11から17のいずれか1項に記載の会話分析方法において、
前記特定表現データを前記お礼表現データと前記謝罪表現データとに区別可能に保持する特定表現テーブルに基づいて、前記特定表現データを検出することにより、前記お礼表現データの検出数及び前記謝罪表現データの検出数をそれぞれカウントする、
ことを更に含み、
前記推定は、前記お礼表現データの前記検出数が前記謝罪表現データの前記検出数より大きい場合には、前記会話における前記第1会話参加者の満足感有りと推定し、前記謝罪表現データの前記検出数が前記お礼表現データの前記検出数より大きい場合には、前記第1会話参加者の不満足感有りと推定する、会話分析方法。 - 請求項11から17のいずれか1項に記載の会話分析方法において、
前記特定表現データを前記お礼表現データと前記謝罪表現データとに区別可能に保持する特定表現テーブルに基づいて、前記特定表現データを検出することにより、前記お礼表現データの検出数及び前記謝罪表現データの検出数をそれぞれカウントする、
ことを更に含み、
前記推定は、前記お礼表現データの検出数と前記謝罪表現データの検出数の差分値に基づいて、前記会話における前記第1会話参加者の満足度レベル又は不満足度レベルを推定する、会話分析方法。 - 請求項11から19のいずれか1項に記載の会話分析方法において、
前記会話を含む所定形態の会話の音声認識に適合された基準音声認識パラメータが、前記特定表現データが他の単語データよりも認識され易くなるように重み付けされた音声認識パラメータを用いて、前記会話の前記クロージング区間の音声データに対して音声認識処理を行う、
ことを更に含み、
前記特定表現データの検出は、前記音声認識処理により得られる、前記会話の前記クロージング区間の音声テキストデータの中から、前記特定表現データを検出する、会話分析方法。 - 少なくとも1つのコンピュータに、請求項11から20のいずれか1項に記載の会話分析方法を実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012240750 | 2012-10-31 | ||
JP2012240750 | 2012-10-31 | ||
PCT/JP2013/075243 WO2014069121A1 (ja) | 2012-10-31 | 2013-09-19 | 会話分析装置及び会話分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014069121A1 JPWO2014069121A1 (ja) | 2016-09-08 |
JP6365304B2 true JP6365304B2 (ja) | 2018-08-01 |
Family
ID=50627037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014544379A Active JP6365304B2 (ja) | 2012-10-31 | 2013-09-19 | 会話分析装置及び会話分析方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6365304B2 (ja) |
WO (1) | WO2014069121A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104750674B (zh) * | 2015-02-17 | 2018-12-21 | 北京京东尚科信息技术有限公司 | 一种人机会话满意度预测方法及系统 |
JP6859283B2 (ja) * | 2017-11-30 | 2021-04-14 | 日本電信電話株式会社 | 好感度推定装置、好感度推定方法、プログラム |
JP7177348B2 (ja) * | 2019-02-06 | 2022-11-24 | 日本電信電話株式会社 | 音声認識装置、音声認識方法およびプログラム |
WO2023119992A1 (ja) * | 2021-12-24 | 2023-06-29 | ソニーグループ株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010041507A1 (ja) * | 2008-10-10 | 2010-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 会話における特定状況を抽出するシステムおよび方法 |
JP4972107B2 (ja) * | 2009-01-28 | 2012-07-11 | 日本電信電話株式会社 | 通話状態判定装置、通話状態判定方法、プログラム、記録媒体 |
US20100332287A1 (en) * | 2009-06-24 | 2010-12-30 | International Business Machines Corporation | System and method for real-time prediction of customer satisfaction |
JP5533219B2 (ja) * | 2010-05-11 | 2014-06-25 | セイコーエプソン株式会社 | 接客データ記録装置 |
JP5406806B2 (ja) * | 2010-08-25 | 2014-02-05 | 日本電信電話株式会社 | 用件区間抽出方法、装置、及びそのプログラム |
JP5810946B2 (ja) * | 2012-01-31 | 2015-11-11 | 富士通株式会社 | 特定通話検出装置、特定通話検出方法及び特定通話検出用コンピュータプログラム |
-
2013
- 2013-09-19 JP JP2014544379A patent/JP6365304B2/ja active Active
- 2013-09-19 WO PCT/JP2013/075243 patent/WO2014069121A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2014069121A1 (ja) | 2014-05-08 |
JPWO2014069121A1 (ja) | 2016-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6341092B2 (ja) | 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 | |
WO2014069076A1 (ja) | 会話分析装置及び会話分析方法 | |
US9672825B2 (en) | Speech analytics system and methodology with accurate statistics | |
US10083686B2 (en) | Analysis object determination device, analysis object determination method and computer-readable medium | |
US10592611B2 (en) | System for automatic extraction of structure from spoken conversation using lexical and acoustic features | |
EP2717258B1 (en) | Phrase spotting systems and methods | |
CN111128223B (zh) | 一种基于文本信息的辅助说话人分离方法及相关装置 | |
US9711167B2 (en) | System and method for real-time speaker segmentation of audio interactions | |
JP2017508188A (ja) | 適応型音声対話のための方法 | |
JP6213476B2 (ja) | 不満会話判定装置及び不満会話判定方法 | |
JP5385677B2 (ja) | 対話状態分割装置とその方法、そのプログラムと記録媒体 | |
CN110570853A (zh) | 基于语音数据的意图识别方法和装置 | |
JP6365304B2 (ja) | 会話分析装置及び会話分析方法 | |
CN113744742A (zh) | 对话场景下的角色识别方法、装置和系统 | |
JP6327252B2 (ja) | 分析対象決定装置及び分析対象決定方法 | |
JP7287006B2 (ja) | 話者決定装置、話者決定方法、および話者決定装置の制御プログラム | |
CN115831125A (zh) | 语音识别方法、装置、设备、存储介质及产品 | |
WO2014069443A1 (ja) | 不満通話判定装置及び不満通話判定方法 | |
WO2014069444A1 (ja) | 不満会話判定装置及び不満会話判定方法 | |
JP7370521B2 (ja) | 音声分析装置、音声分析方法、オンラインコミュニケーションシステム、およびコンピュータプログラム | |
CN112151070B (zh) | 一种语音检测的方法、装置及电子设备 | |
CN116975242A (zh) | 语音播报打断处理方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180605 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180618 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6365304 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |