JP6341092B2 - 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 - Google Patents
表現分類装置、表現分類方法、不満検出装置及び不満検出方法 Download PDFInfo
- Publication number
- JP6341092B2 JP6341092B2 JP2014544380A JP2014544380A JP6341092B2 JP 6341092 B2 JP6341092 B2 JP 6341092B2 JP 2014544380 A JP2014544380 A JP 2014544380A JP 2014544380 A JP2014544380 A JP 2014544380A JP 6341092 B2 JP6341092 B2 JP 6341092B2
- Authority
- JP
- Japan
- Prior art keywords
- expression
- apology
- specific
- classification
- specific expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000014509 gene expression Effects 0.000 title claims description 436
- 238000000034 method Methods 0.000 title claims description 51
- 238000001514 detection method Methods 0.000 title claims description 32
- 238000011156 evaluation Methods 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 8
- 238000012545 processing Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 8
- 230000002996 emotional effect Effects 0.000 description 7
- 101100478890 Caenorhabditis elegans smo-1 gene Proteins 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008451 emotion Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000007477 logistic regression Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000003045 statistical classification method Methods 0.000 description 2
- 206010041243 Social avoidant behaviour Diseases 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007794 irritation Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000013370 mutualism Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/40—Aspects of automatic or semi-automatic exchanges related to call centers
- H04M2203/401—Performance feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/55—Aspects of automatic or semi-automatic exchanges related to network data storage and management
- H04M2203/559—Sorting systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- General Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
〔システム構成〕
図1は、第1実施形態におけるコンタクトセンタシステム1の構成例を示す概念図である。第1実施形態におけるコンタクトセンタシステム1は、交換機(PBX)5、複数のオペレータ電話機6、複数のオペレータ端末7、ファイルサーバ9、通話分析サーバ10等を有する。通話分析サーバ10は、上述の実施形態における表現分類装置に相当する構成を含む。
通話分析サーバ10は、図1に示されるように、ハードウェア構成として、CPU(Central Processing Unit)11、メモリ12、入出力インタフェース(I/F)13、通信装置14等を有する。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。入出力I/F13は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置、ディスプレイ装置やプリンタ等のようなユーザに情報を提供する装置などと接続される。通信装置14は、通信網8を介して、ファイルサーバ9などと通信を行う。なお、通話分析サーバ10のハードウェア構成は制限されない。
図2は、第1実施形態における通話分析サーバ10の処理構成例を概念的に示す図である。第1実施形態における通話分析サーバ10は、通話データ取得部20、音声認識部21、区間検出部23、特定表現テーブル24、特徴抽出部26、分類部27等を有する。これら各処理部は、例えば、CPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13を介してインストールされ、メモリ12に格納されてもよい。
謝罪表現を示す特定表現セットに対応する分類器は、以降、謝罪表現の分類器と表記される。謝罪表現の分類器は、謝罪表現を、深謝か否かに分類する。ここで、深謝とは、通話相手の不満に対して謝罪の念を込めて発声される謝罪表現を意味する。謝罪表現の分類器の学習には、オペレータの謝罪表現「申し訳ございません」等を含む複数の学習用通話データが準備され、各学習用通話データから、その謝罪表現を含む特定表現区間の特徴情報がそれぞれ抽出される。更に、その謝罪表現の前に顧客の不満が存在するか否かが主観評価(官能評価)又は客観評価(周知の自動評価手法による評価)により判定され、その判定結果を示すデータが分類情報として作成される。そして、当該分類器は、その特徴情報と分類情報とを学習データとして学習する。
以下、第1実施形態における表現分類方法について図4を用いて説明する。図4は、第1実施形態における通話分析サーバ10の動作例を示すフローチャートである。
上述したように第1実施形態では、同じ概念を持つ少なくとも1つの特定表現(特定表現セット)に対して分類器が設けられ、その分類器を用いて特定表現が分類される。さらに、複数の概念を扱う場合には、同じ概念を持つ少なくとも1つの特定表現(特定表現セット)毎に分類器がそれぞれ設けられ、そのような分類器群28の中から、対象となる特定表現に対応する分類器が選択され、その特定表現が分類される。従って、第1実施形態によれば、特定表現単位で特化した分類器が用いられるため、全発話や全表現を分類対象とする形態と比べ、少ないデータ(特徴情報)で高精度な分類を実現することができる。
第2実施形態は、第1実施形態における特定表現の分類結果を用いて、対象通話が不満通話か否かを判定する。以下、第2実施形態におけるコンタクトセンタシステム1について、第1実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。
図5は、第2実施形態における通話分析サーバ10の処理構成例を概念的に示す図である。第2実施形態における通話分析サーバ10は、第1実施形態の構成に加えて、不満判定部29を更に有する。不満判定部29は、他の処理部と同様に、例えば、CPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。
以下、第2実施形態における不満検出方法について図6を用いて説明する。図6は、第2実施形態における通話分析サーバ10の動作例を示すフローチャートである。図6では、図4と同じ工程については、図4と同じ符号が付されている。
上述のように、第2実施形態では、第1実施形態における特定表現のニュアンスによる分類の結果に基づいて、対象通話が不満通話か否かが判定される。従って、第2実施形態によれば、深謝と形式的謝罪のように複数の意味合いで使われる謝罪表現が含まれている通話であっても、その通話データから表現のニュアンスを汲み取ることにより、通話者の感情状態(不満状態)を高精度に抽出することができる。更に、第2実施形態によれば、それ自体特別な意味合いを持たない相槌表現についても、不満感情が含まれるか、謝罪感情が含まれるかといったニュアンスを汲み取ることができるため、その相槌表現から不満通話か否かを的確に判定することができる。
上述の通話分析サーバ10は、複数のコンピュータとして実現されてもよい。この場合、例えば、通話分析サーバ10は、分類部27及び不満判定部29のみを有し、他のコンピュータが他の処理部を有するように構成される。また、上述の通話分析サーバ10は、分類器群28を有していたが、分類器群28は、他のコンピュータ上で実現されてもよい。この場合、分類部27は、他のコンピュータ上で実現される分類器群28に特徴情報を送り、分類器群28の分類結果を取得するようにすればよい。
上述の各実施形態及び各変形例では、通話データが扱われたが、上述の表現分類装置及び表現分類方法は、通話以外の会話データを扱う装置やシステムに適用されてもよい。この場合、例えば、分析対象となる会話を録音する録音装置がその会話が行われる場所(会議室、銀行の窓口、店舗のレジなど)に設置される。また、会話データが複数の会話参加者の声が混合された状態で録音される場合には、その混合状態から所定の音声処理により会話参加者毎の音声データに分離される。
会話の音声に対応するデータから、複数のニュアンスで使用され得る特定表現を含む特定表現区間を検出する区間検出部と、
前記区間検出部により検出される特定表現区間に関する、韻律特徴及び発話タイミング特徴の少なくとも一方を含む特徴情報を抽出する特徴抽出部と、
前記特徴抽出部により抽出される特徴情報を用いて、前記特定表現区間に含まれる特定表現を、前記会話での使用場面に対応するニュアンスで分類する分類部と、
を備える表現分類装置。
前記分類部は、同じ概念を持つ複数の特定表現を前記ニュアンスで分類する分類器に対して、前記特徴抽出部により抽出される特徴情報を与えることにより、前記特定表現区間に含まれる特定表現を分類する、
付記1に記載の表現分類装置。
前記分類器は、学習用会話音声における、該分類器に対応する前記特定表現の周辺の他の発話から得られるニュアンス、及び、該特定表現の聞こえ方の主観評価により得られるニュアンスの少なくとも一方により、該特定表現を分類する分類情報と、該学習用会話音声から該特定表現に関し抽出される前記特徴情報とを学習データとして用いて学習する、
付記2に記載の表現分類装置。
前記分類部は、同じ概念を持つ少なくとも1つの前記特定表現毎に設けられる複数の分類器の中から、前記特定表現区間に含まれる特定表現に対応する分類器を選択し、該選択された分類器に前記特徴抽出部により抽出される特徴情報を与えることにより、該特定表現を分類する、
付記1から3のいずれか1つに記載の表現分類装置。
前記特定表現は、謝罪表現であり、
前記分類部は、前記謝罪表現を、深謝か否かに分類し、
前記謝罪表現に対応する前記分類器は、学習用会話音声における前記謝罪表現が申し訳なさそうに聞こえるか否か、及び、前記謝罪表現より前に不満が表出しているか否かの少なくとも一方により、前記謝罪表現を分類する分類情報と、該学習用会話音声から前記謝罪表現に関し抽出される前記特徴情報とを学習データとして用いて学習する、
付記2から4のいずれか1つに記載の表現分類装置。
前記特定表現は、相槌表現であり、
前記分類部は、前記相槌表現を、不満感情を含むか否か、謝罪感情を含むか否か、及び、不満感情を含むか謝罪感情を含むかそれ以外か、のいずれか1つに分類し、
前記相槌表現に対応する前記分類器は、学習用会話音声における、前記相槌表現が申し訳なさそうに聞こえるか否か、前記相槌表現が不満そうに聞こえるか否か、及び、前記相槌表現周辺に不満が表出しているか否かの少なくとも1つにより、前記相槌表現を分類する分類情報と、該学習用会話音声から前記相槌表現に関し抽出される前記特徴情報とを学習データとして用いて学習する、
付記2から5のいずれか1つに記載の表現分類装置。
付記5又は6に記載の表現分類装置と、
前記表現分類装置の前記分類部により、前記謝罪表現が深謝に分類された、又は、前記相槌表現が不満感情又は謝罪感情を含むと分類された場合に、前記謝罪表現又は前記相槌表現を含む前記会話を不満会話と判定する不満判定部と、
を備える不満検出装置。
少なくとも1つのコンピュータにより実行される表現分類方法において、
会話の音声に対応するデータから、複数のニュアンスで使用され得る特定表現を含む特定表現区間を検出し、
前記検出される特定表現区間に関する、韻律特徴及び発話タイミング特徴の少なくとも一方を含む特徴情報を抽出し、
前記抽出される特徴情報を用いて、前記特定表現区間に含まれる特定表現を、前記会話での使用場面に対応するニュアンスで分類する、
ことを含む表現分類方法。
前記分類は、同じ概念を持つ複数の特定表現を前記ニュアンスで分類する分類器に対して、前記抽出される特徴情報を与えることにより、前記特定表現区間に含まれる特定表現を分類する、
付記8に記載の表現分類方法。
学習用会話音声における、該分類器に対応する前記特定表現の周辺の他の発話から得られるニュアンス、及び、該特定表現の聞こえ方の主観評価により得られるニュアンスの少なくとも一方により、該特定表現を分類する分類情報と、該学習用会話音声から該特定表現に関し抽出される前記特徴情報とを学習データとして用いて、前記分類器に学習させる、
ことを更に含む付記9に記載の表現分類方法。
同じ概念を持つ少なくとも1つの前記特定表現毎に設けられる複数の分類器の中から、前記特定表現区間に含まれる特定表現に対応する分類器を選択する、
ことを更に含み、
前記分類は、前記選択された分類器に、前記抽出された特徴情報を与えることにより、前記特定表現を分類する、
付記8から10のいずれか1つに記載の表現分類方法。
前記特定表現は、謝罪表現であり、
前記分類は、前記謝罪表現を、深謝か否かに分類し、
学習用会話音声における前記謝罪表現が申し訳なさそうに聞こえるか否か、及び、前記謝罪表現より前に不満が表出しているか否かの少なくとも一方により、前記謝罪表現を分類する分類情報と、該学習用会話音声から前記謝罪表現に関し抽出される前記特徴情報とを学習データとして用いて、前記謝罪表現に対応する前記分類器に学習させる、
ことを更に含む付記9から11のいずれか1つに記載の表現分類方法。
前記特定表現は、相槌表現であり、
前記分類は、前記相槌表現を、不満感情を含むか否か、謝罪感情を含むか否か、及び、不満感情を含むか謝罪感情を含むかそれ以外か、のいずれか1つに分類し、
学習用会話音声における、前記相槌表現が申し訳なさそうに聞こえるか否か、前記相槌表現が不満そうに聞こえるか否か、及び、前記相槌表現周辺に不満が表出しているか否かの少なくとも1つにより、前記相槌表現を分類する分類情報と、該学習用会話音声から前記相槌表現に関し抽出される前記特徴情報とを学習データとして用いて、前記相槌表現に対応する前記分類器に学習させる、
ことを更に含む付記9から12のいずれか1つに記載の表現分類方法。
付記12又は13に記載の表現分類方法を含み、かつ、前記少なくとも1つのコンピュータにより実行される、不満検出方法において、
前記謝罪表現が深謝に分類された、又は、前記相槌表現が不満感情又は謝罪感情を含むと分類された場合に、前記謝罪表現又は前記相槌表現を含む前記会話を不満会話と判定する、
ことを更に含む不満検出方法。
少なくとも1つのコンピュータに、付記8から13のいずれか1つに記載の表現分類方法、又は、付記14に記載の不満検出方法を実行させるプログラム。
付記15に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
Claims (11)
- 会話の音声に対応するデータから、複数のニュアンスで使用され得る特定表現を含む特定表現区間を検出する区間検出部と、
前記区間検出部により検出される特定表現区間に関する、韻律特徴及び発話タイミング特徴の少なくとも一方を含む特徴情報を抽出する特徴抽出部と、
前記特徴抽出部により抽出される特徴情報を用いて、前記特定表現区間に含まれる特定表現を、前記会話での使用場面に対応するニュアンスで分類する分類部と、
を備え、
前記分類部は、同じ概念を持つ少なくとも1つの特定表現を前記ニュアンスで分類する分類器に対して、前記特徴抽出部により抽出される特徴情報を与えることにより、前記特定表現区間に含まれる特定表現を分類し、
前記特定表現は、謝罪表現であり、
前記分類部は、前記謝罪表現を、深謝か否かに分類し、
前記謝罪表現に対応する前記分類器は、学習用会話音声における前記謝罪表現が申し訳なさそうに聞こえるか否か、及び、前記謝罪表現より前に不満が表出しているか否かの少なくとも一方により、前記謝罪表現を分類する分類情報と、該学習用会話音声から前記謝罪表現に関し抽出される前記特徴情報とを学習データとして用いて学習する、
表現分類装置。 - 前記分類器は、学習用会話音声における、該分類器に対応する前記特定表現の周辺の他の発話から得られるニュアンス、及び、該特定表現の聞こえ方の主観評価により得られるニュアンスの少なくとも一方により、該特定表現を分類する分類情報と、該学習用会話音声から該特定表現に関し抽出される前記特徴情報とを学習データとして用いて学習する、
請求項1に記載の表現分類装置。 - 前記分類部は、同じ概念を持つ少なくとも1つの前記特定表現毎に設けられる複数の分類器の中から、前記特定表現区間に含まれる特定表現に対応する分類器を選択し、該選択された分類器に前記特徴抽出部により抽出される特徴情報を与えることにより、該特定表現を分類する、
請求項1又は2に記載の表現分類装置。 - 前記特定表現は、さらに相槌表現を含み、
前記分類部は、前記相槌表現を、不満感情を含むか否か、謝罪感情を含むか否か、及び、不満感情を含むか謝罪感情を含むかそれ以外か、のいずれか1つに分類し、
前記相槌表現に対応する前記分類器は、学習用会話音声における、前記相槌表現が申し訳なさそうに聞こえるか否か、前記相槌表現が不満そうに聞こえるか否か、及び、前記相槌表現周辺に不満が表出しているか否かの少なくとも1つにより、前記相槌表現を分類する分類情報と、該学習用会話音声から前記相槌表現に関し抽出される前記特徴情報とを学習データとして用いて学習する、
請求項1から3のいずれか1項に記載の表現分類装置。 - 請求項4に記載の表現分類装置と、
前記表現分類装置の前記分類部により、前記謝罪表現が深謝に分類された、又は、前記相槌表現が不満感情又は謝罪感情を含むと分類された場合に、前記謝罪表現又は前記相槌表現を含む前記会話を不満会話と判定する不満判定部と、
を備える不満検出装置。 - 少なくとも1つのコンピュータにより実行される表現分類方法において、
会話の音声に対応するデータから、複数のニュアンスで使用され得る特定表現を含む特定表現区間を検出し、
前記検出される特定表現区間に関する、韻律特徴及び発話タイミング特徴の少なくとも一方を含む特徴情報を抽出し、
前記抽出される特徴情報を用いて、前記特定表現区間に含まれる特定表現を、前記会話での使用場面に対応するニュアンスで分類し、
前記分類は、同じ概念を持つ複数の特定表現を前記ニュアンスで分類する分類器に対して、前記抽出される特徴情報を与えることにより、前記特定表現区間に含まれる特定表現を分類し、
前記特定表現は、謝罪表現であり、
前記分類は、前記謝罪表現を、深謝か否かに分類し、
学習用会話音声における前記謝罪表現が申し訳なさそうに聞こえるか否か、及び、前記謝罪表現より前に不満が表出しているか否かの少なくとも一方により、前記謝罪表現を分類する分類情報と、該学習用会話音声から前記謝罪表現に関し抽出される前記特徴情報とを学習データとして用いて、前記謝罪表現に対応する前記分類器に学習させる、
ことを含む表現分類方法。 - 学習用会話音声における、前記分類器に対応する前記特定表現の周辺の他の発話から得られるニュアンス、及び、該特定表現の聞こえ方の主観評価により得られるニュアンスの少なくとも一方により、該特定表現を分類する分類情報と、該学習用会話音声から該特定表現に関し抽出される前記特徴情報とを学習データとして用いて、前記分類器に学習させる、
ことを更に含む請求項6に記載の表現分類方法。 - 同じ概念を持つ少なくとも1つの前記特定表現毎に設けられる複数の分類器の中から、前記特定表現区間に含まれる特定表現に対応する分類器を選択する、
ことを更に含み、
前記分類は、前記選択された分類器に、前記抽出された特徴情報を与えることにより、前記特定表現を分類する、
請求項6又は7に記載の表現分類方法。 - 前記特定表現は、さらに相槌表現を含み、
前記分類は、前記相槌表現を、不満感情を含むか否か、謝罪感情を含むか否か、及び、不満感情を含むか謝罪感情を含むかそれ以外か、のいずれか1つに分類し、
学習用会話音声における、前記相槌表現が申し訳なさそうに聞こえるか否か、前記相槌表現が不満そうに聞こえるか否か、及び、前記相槌表現周辺に不満が表出しているか否かの少なくとも1つにより、前記相槌表現を分類する分類情報と、該学習用会話音声から前記相槌表現に関し抽出される前記特徴情報とを学習データとして用いて、前記相槌表現に対応する前記分類器に学習させる、
ことを更に含む請求項6から8のいずれか1項に記載の表現分類方法。 - 請求項9に記載の表現分類方法を含み、かつ、前記少なくとも1つのコンピュータにより実行される、不満検出方法において、
前記謝罪表現が深謝に分類された、又は、前記相槌表現が不満感情又は謝罪感情を含むと分類された場合に、前記謝罪表現又は前記相槌表現を含む前記会話を不満会話と判定する、
ことを更に含む不満検出方法。 - 少なくとも1つのコンピュータに、請求項6から9のいずれか1項に記載の表現分類方法、又は、請求項10に記載の不満検出方法を実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012240765 | 2012-10-31 | ||
JP2012240765 | 2012-10-31 | ||
PCT/JP2013/075244 WO2014069122A1 (ja) | 2012-10-31 | 2013-09-19 | 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014069122A1 JPWO2014069122A1 (ja) | 2016-09-08 |
JP6341092B2 true JP6341092B2 (ja) | 2018-06-13 |
Family
ID=50627038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014544380A Active JP6341092B2 (ja) | 2012-10-31 | 2013-09-19 | 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150262574A1 (ja) |
JP (1) | JP6341092B2 (ja) |
WO (1) | WO2014069122A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014069076A1 (ja) * | 2012-10-31 | 2014-05-08 | 日本電気株式会社 | 会話分析装置及び会話分析方法 |
US20150279391A1 (en) * | 2012-10-31 | 2015-10-01 | Nec Corporation | Dissatisfying conversation determination device and dissatisfying conversation determination method |
JP5769904B2 (ja) * | 2013-04-25 | 2015-08-26 | 三菱電機株式会社 | 評価情報投稿装置および評価情報投稿方法 |
WO2015019662A1 (ja) * | 2013-08-07 | 2015-02-12 | 日本電気株式会社 | 分析対象決定装置及び分析対象決定方法 |
JP6394103B2 (ja) * | 2014-06-20 | 2018-09-26 | 富士通株式会社 | 音声処理装置、音声処理方法および音声処理プログラム |
JP6122816B2 (ja) * | 2014-08-07 | 2017-04-26 | シャープ株式会社 | 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム |
US9953661B2 (en) * | 2014-09-26 | 2018-04-24 | Cirrus Logic Inc. | Neural network voice activity detection employing running range normalization |
US10127919B2 (en) * | 2014-11-12 | 2018-11-13 | Cirrus Logic, Inc. | Determining noise and sound power level differences between primary and reference channels |
US9965685B2 (en) | 2015-06-12 | 2018-05-08 | Google Llc | Method and system for detecting an audio event for smart home devices |
JP6565500B2 (ja) * | 2015-08-31 | 2019-08-28 | 富士通株式会社 | 発話状態判定装置、発話状態判定方法、及び判定プログラム |
US10929611B2 (en) | 2017-12-05 | 2021-02-23 | discourse.ai, Inc. | Computer-based interlocutor understanding using classifying conversation segments |
US11107006B2 (en) | 2017-12-05 | 2021-08-31 | discourse.ai, Inc. | Visualization, exploration and shaping conversation data for artificial intelligence-based automated interlocutor training |
US10896670B2 (en) | 2017-12-05 | 2021-01-19 | discourse.ai, Inc. | System and method for a computer user interface for exploring conversational flow with selectable details |
US11004013B2 (en) | 2017-12-05 | 2021-05-11 | discourse.ai, Inc. | Training of chatbots from corpus of human-to-human chats |
US11282518B2 (en) * | 2018-03-29 | 2022-03-22 | Kyocera Document Solutions Inc. | Information processing apparatus that determines whether utterance of person is simple response or statement |
CN108922564B (zh) * | 2018-06-29 | 2021-05-07 | 北京百度网讯科技有限公司 | 情绪识别方法、装置、计算机设备及存储介质 |
CN110062117B (zh) * | 2019-04-08 | 2021-01-08 | 商客通尚景科技(上海)股份有限公司 | 一种声波检测与预警方法 |
CN110660385A (zh) * | 2019-09-30 | 2020-01-07 | 出门问问信息科技有限公司 | 一种命令词检测方法及电子设备 |
US12080272B2 (en) * | 2019-12-10 | 2024-09-03 | Google Llc | Attention-based clockwork hierarchical variational encoder |
JPWO2023100377A1 (ja) * | 2021-12-03 | 2023-06-08 | ||
JPWO2023162107A1 (ja) * | 2022-02-24 | 2023-08-31 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11119791A (ja) * | 1997-10-20 | 1999-04-30 | Hitachi Ltd | 音声感情認識システムおよび方法 |
US6185534B1 (en) * | 1998-03-23 | 2001-02-06 | Microsoft Corporation | Modeling emotion and personality in a computer user interface |
US7222075B2 (en) * | 1999-08-31 | 2007-05-22 | Accenture Llp | Detecting emotions using voice signal analysis |
US7043008B1 (en) * | 2001-12-20 | 2006-05-09 | Cisco Technology, Inc. | Selective conversation recording using speech heuristics |
US20050165604A1 (en) * | 2002-06-12 | 2005-07-28 | Toshiyuki Hanazawa | Speech recognizing method and device thereof |
US9300790B2 (en) * | 2005-06-24 | 2016-03-29 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
JP2007286097A (ja) * | 2006-04-12 | 2007-11-01 | Nippon Telegr & Teleph Corp <Ntt> | 音声受付クレーム検出方法、装置、音声受付クレーム検出プログラム、記録媒体 |
US8706487B2 (en) * | 2006-12-08 | 2014-04-22 | Nec Corporation | Audio recognition apparatus and speech recognition method using acoustic models and language models |
KR100905744B1 (ko) * | 2007-12-04 | 2009-07-01 | 엔에이치엔(주) | 사용자 제작 문답 데이터에 기반한 회화 사전 서비스 제공방법 및 시스템 |
WO2010041507A1 (ja) * | 2008-10-10 | 2010-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 会話における特定状況を抽出するシステムおよび方法 |
US20100332287A1 (en) * | 2009-06-24 | 2010-12-30 | International Business Machines Corporation | System and method for real-time prediction of customer satisfaction |
US8412530B2 (en) * | 2010-02-21 | 2013-04-02 | Nice Systems Ltd. | Method and apparatus for detection of sentiment in automated transcriptions |
JP5708155B2 (ja) * | 2011-03-31 | 2015-04-30 | 富士通株式会社 | 話者状態検出装置、話者状態検出方法及び話者状態検出用コンピュータプログラム |
US8930187B2 (en) * | 2012-01-03 | 2015-01-06 | Nokia Corporation | Methods, apparatuses and computer program products for implementing automatic speech recognition and sentiment detection on a device |
US20150279391A1 (en) * | 2012-10-31 | 2015-10-01 | Nec Corporation | Dissatisfying conversation determination device and dissatisfying conversation determination method |
WO2014069076A1 (ja) * | 2012-10-31 | 2014-05-08 | 日本電気株式会社 | 会話分析装置及び会話分析方法 |
WO2014069120A1 (ja) * | 2012-10-31 | 2014-05-08 | 日本電気株式会社 | 分析対象決定装置及び分析対象決定方法 |
-
2013
- 2013-09-19 US US14/438,661 patent/US20150262574A1/en not_active Abandoned
- 2013-09-19 WO PCT/JP2013/075244 patent/WO2014069122A1/ja active Application Filing
- 2013-09-19 JP JP2014544380A patent/JP6341092B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20150262574A1 (en) | 2015-09-17 |
WO2014069122A1 (ja) | 2014-05-08 |
JPWO2014069122A1 (ja) | 2016-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6341092B2 (ja) | 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 | |
JP6358093B2 (ja) | 分析対象決定装置及び分析対象決定方法 | |
WO2014069076A1 (ja) | 会話分析装置及び会話分析方法 | |
US10592611B2 (en) | System for automatic extraction of structure from spoken conversation using lexical and acoustic features | |
US11133025B2 (en) | Method and system for speech emotion recognition | |
CN107818798A (zh) | 客服服务质量评价方法、装置、设备及存储介质 | |
JP6213476B2 (ja) | 不満会話判定装置及び不満会話判定方法 | |
EP4006903A1 (en) | System with post-conversation representation, electronic device, and related methods | |
JP2010266522A (ja) | 対話状態分割装置とその方法、そのプログラムと記録媒体 | |
CN114138960A (zh) | 用户意图识别方法、装置、设备及介质 | |
JP6327252B2 (ja) | 分析対象決定装置及び分析対象決定方法 | |
JP6365304B2 (ja) | 会話分析装置及び会話分析方法 | |
JP7304627B2 (ja) | 留守番電話判定装置、方法及びプログラム | |
KR102193656B1 (ko) | 상담 내용 분석을 지원하는 녹취 서비스 제공 시스템 및 방법 | |
EP4093005A1 (en) | System method and apparatus for combining words and behaviors | |
CN115831125A (zh) | 语音识别方法、装置、设备、存储介质及产品 | |
WO2014069443A1 (ja) | 不満通話判定装置及び不満通話判定方法 | |
WO2014069444A1 (ja) | 不満会話判定装置及び不満会話判定方法 | |
EP4006900A1 (en) | System with speaker representation, electronic device and related methods | |
US20240312466A1 (en) | Systems and Methods for Distinguishing Between Human Speech and Machine Generated Speech |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180417 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180430 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6341092 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |