JPWO2014069120A1 - 分析対象決定装置及び分析対象決定方法 - Google Patents
分析対象決定装置及び分析対象決定方法 Download PDFInfo
- Publication number
- JPWO2014069120A1 JPWO2014069120A1 JP2014544378A JP2014544378A JPWO2014069120A1 JP WO2014069120 A1 JPWO2014069120 A1 JP WO2014069120A1 JP 2014544378 A JP2014544378 A JP 2014544378A JP 2014544378 A JP2014544378 A JP 2014544378A JP WO2014069120 A1 JPWO2014069120 A1 JP WO2014069120A1
- Authority
- JP
- Japan
- Prior art keywords
- specific
- section
- conversation
- utterance
- specific utterance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 84
- 238000001514 detection method Methods 0.000 claims abstract description 42
- 230000004044 response Effects 0.000 claims description 5
- 230000007704 transition Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 27
- 230000008451 emotion Effects 0.000 description 24
- 230000008569 process Effects 0.000 description 24
- 230000008909 emotion recognition Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 10
- 230000009471 action Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/45—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
- H04M3/4936—Speech interaction details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5166—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
- G10L15/05—Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Quality & Reliability (AREA)
- Data Mining & Analysis (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
〔システム構成〕
図1は、第1実施形態におけるコンタクトセンタシステム1の構成例を示す概念図である。第1実施形態におけるコンタクトセンタシステム1は、交換機(PBX)5、複数のオペレータ電話機6、複数のオペレータ端末7、ファイルサーバ9、通話分析サーバ10等を有する。通話分析サーバ10は、上述の実施形態における分析対象決定装置に相当する構成を含む。
図2は、第1実施形態における通話分析サーバ10の処理構成例を概念的に示す図である。第1実施形態における通話分析サーバ10は、通話データ取得部20、条件取得部21、検出部22、特定部23、対象決定部24、表示処理部25等を有する。これら各処理部は、例えば、CPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13を介してインストールされ、メモリ12に格納されてもよい。
参考例:野本済央ほか、「韻律情報と発話の時間的関係性を用いた対話音声からの怒り感情推定」、日本音響学会講演論文集、89から92頁、2010年3月
以下、第1実施形態における分析対象決定方法について図5を用いて説明する。図5は、第1実施形態における通話分析サーバ10の動作例を示すフローチャートである。ここで、通話分析サーバ10は、複数の通話データを既に取得している。例えば、通話分析サーバ10は、ファイルサーバ9に格納される複数の通話データを取得している。
上述したように第1実施形態では、取得された各区間条件について、その区間条件が示す1人の通話者の1つの特定事象を表す特定発話区間がそれぞれ検出される。このような特定発話区間は、通話者が特定事象を引き起こす通話内に、複数存在する場合が多い。従って、このように検出された全ての特定発話区間を分析対象とするのでは、効率が悪い。そこで、第1実施形態では、区間条件毎、即ち、通話者の特定事象毎に予め決められている特定手法により、当該複数の特定発話区間から少なくとも1つの基準時間が特定される。これにより、顧客の怒りのような連続的に生じる複数の特定発話区間については、それらが結合されてなる区間内の或る時間の周辺(顧客の怒りの場合には先頭周辺)が基準点(基準時間)とされ、オペレータの深謝のような頻出しないが顧客の不満の原因を示す箇所に近い可能性が高い特定発話区間については、それら個々が基準点(基準時間)とされる。そして、この基準時間を基準とする所定時間範囲が、顧客の不満の原因分析対象区間に決定される。
図6、図7及び図8は、実施例1における分析画面の一例をそれぞれ示す図である。図6から図8に示される分析画面は、上述の第1実施形態における表示処理部25により表示される分析結果画面、及び、通話条件及び区間条件の入力画面を含む。この分析画面は、通話条件の指定部G51、区間条件の指定部G52、分析実行ボタンG53、分析結果表示部G55などを含む。要素G51、G52及びG53が上記入力画面に相当し、要素G55が上記分析結果画面に相当する。
上述の第1実施形態及び実施例1では、図3及び図4に示されるように、連続的に生じている、1人の通話者の1つの特定事象を表す特定発話区間については、その一部(先頭)から原因分析対象区間が決定された。しかしながら、第1実施形態及び実施例1は、指定された区間条件、即ち、通話者の特定事象によっては、特定発話区間が連続的に生じている場合でも、それら各特定発話区間からそれぞれ原因分析対象区間が決定される形態を排除するものではない。この場合には、指定された複数の区間条件に基づいて決定される複数の原因分析対象区間で重複する範囲を、最終的に、その通話の顧客の不満の原因分析対象区間に決定することにより、全ての特定発話区間の中から原因分析対象区間を絞ることができる。
上述の第1実施形態及び実施例1では、複数の区間条件が指定されている場合、各区間条件から得られる各基準時間に基づいて決定される複数の原因分析対象区間で重複する範囲が、最終的に、その通話の顧客の不満の原因分析対象区間に決定された。しかしながら、重複する範囲に制限せず、各区間条件から決定される全ての原因分析対象区間を原因分析対象区間に決めるようにしてもよい。この場合でも、連続的に生じている特定発話区間については基準時間の特定により原因分析対象区間が絞られるため、全ての発話区間又は特定発話区間を分析するよりは、分析効率を上げることができる。
上述の実施形態及び実施例では、通話データが扱われたが、上述の分析対象決定装置及び分析対象決定方法は、通話以外の会話データを扱う装置やシステムに適用されてもよい。この場合、例えば、分析対象となる会話を録音する録音装置がその会話が行われる場所(会議室、銀行の窓口、店舗のレジなど)に設置される。また、会話データが複数の会話参加者の声が混合された状態で録音される場合には、その混合状態から所定の音声処理により会話参加者毎の音声データに分離される。
会話の音声に対応するデータから、該会話の1人の会話参加者又は複数の会話参加者における複数の特定事象、若しくは、該会話の1人の会話参加者の1つの特定事象を表す、複数の特定発話区間を検出する検出部と、
前記検出部により検出される複数の特定発話区間に基づいて、前記会話の会話参加者の特定事象に関する原因分析対象区間であって、該複数の特定発話区間の数よりも少ない数の原因分析対象区間を決定する対象決定部と、
を備える分析対象決定装置。
前記検出部により検出される複数の特定発話区間が表す少なくとも1つの特定事象に応じた少なくとも1つの手法により、該複数の特定発話区間から少なくとも1つの基準時間を特定する特定部を更に備え、
前記対象決定部は、前記特定部により特定される前記少なくとも1つの基準時間を基準とする所定時間範囲を前記原因分析対象区間に決定する、
付記1に記載の分析対象決定装置。
前記特定部は、前記検出部により検出される複数の特定発話区間に、前記会話の1人の会話参加者の1つの特定事象を表す複数の第1特定発話区間が含まれている場合、該複数の第1特定発話区間における、隣接する第1特定発話区間の間の時間幅が所定時間より短い第1特定発話区間の各ペアが結合されてなる区間内の中から、前記少なくとも1つの基準時間を特定する、
付記2に記載の分析対象決定装置。
前記特定部は、前記検出部により検出される複数の特定発話区間に、前記複数の第1特定発話区間と共に、前記複数の第1特定発話区間が表わす会話参加者の特定事象とは異なる該会話参加者の他の特定事象、又は、他の会話参加者の特定事象を表す第2特定発話区間が更に含まれる場合、該第2特定発話区間をそのまま用いて基準時間を更に特定し、
前記対象決定部は、前記第2特定発話区間から得られる基準時間を基準とする所定時間範囲を、前記原因分析対象区間に更に決定する、
付記3に記載の分析対象決定装置。
前記特定部は、前記検出部により検出される複数の特定発話区間に、前記会話の1人の会話参加者の1つの特定事象を表す第1特定発話区間と、該第1特定発話区間が表わす会話参加者の特定事象とは異なる該会話参加者の他の特定事象、又は、他の会話参加者の特定事象を表す第2特定発話区間とが含まれる場合、該第1特定発話区間及び該第2特定発話区間をそのまま用いて前記基準時間を特定し、
前記対象決定部は、前記第1特定発話区間及び前記第2特定発話区間からそれぞれ得られる各基準時間を基準とする所定時間範囲をそれぞれ、前記原因分析対象区間に決定する、
付記2に記載の分析対象決定装置。
前記対象決定部は、前記第1特定発話区間から得られる前記基準時間に基づいて決定される前記原因分析対象区間と前記第2特定発話区間から得られる前記基準時間に基づいて決定される前記原因分析対象区間とが重複する区間を、前記原因分析対象区間に決定する付記4又は5に記載の分析対象決定装置。
前記検出部は、第1会話参加者の不満を表す前記複数の第1特定発話区間と、第2会話参加者の謝罪を表す前記第2特定発話区間とを検出し、
前記対象決定部は、前記第1会話参加者の不満に関する前記原因分析対象区間を決定する、
付記4又は6に記載の分析対象決定装置。
前記検出部により検出される複数の特定発話区間を個別に表わす複数の第1描画要素、及び、前記対象決定部により決定される前記原因分析対象区間を表す第2描画要素が、前記会話内の時系列に応じて並ぶ描画データを生成する描画データ生成部、
を更に備える付記1から7のいずれか1つに記載の分析対象決定装置。
前記描画データ生成部は、前記会話の複数の発話区間に関する複数の音声テキストデータが、発話区間毎に前記会話内の時系列に沿って表示され、前記原因分析対象区間に含まれる発話区間の音声テキストデータが他と区別可能に表示され、前記原因分析対象区間の識別情報が表示される描画データを生成し、該描画データに基づく表示画面上での該識別情報に対するユーザ操作に応じて、該識別情報で特定される原因分析対象区間に含まれる発話区間の音声テキストデータが表示されるような画面遷移を可能とする、
付記8に記載の分析対象決定装置。
少なくとも1つのコンピュータにより実行される分析対象決定方法において、
会話の音声に対応するデータから、該会話の1人の会話参加者又は複数の会話参加者における複数の特定事象、若しくは、該会話の1人の会話参加者の1つの特定事象を表す、複数の特定発話区間を検出し、
前記検出される複数の特定発話区間に基づいて、前記会話の会話参加者の特定事象に関する原因分析対象区間であって、該複数の特定発話区間の数よりも少ない数の原因分析対象区間を決定する、
ことを含む分析対象決定方法。
前記検出される複数の特定発話区間が表す少なくとも1つの特定事象に応じた少なくとも1つの手法により、該複数の特定発話区間から少なくとも1つの基準時間を特定し、
前記特定される少なくとも1つの基準時間を基準とする所定時間範囲を前記原因分析対象区間に決定する、
ことを更に含む付記10に記載の分析対象決定方法。
前記基準時間の特定は、前記検出される複数の特定発話区間に、前記会話の1人の会話参加者の1つの特定事象を表す複数の第1特定発話区間が含まれている場合、該複数の第1特定発話区間における、隣接する第1特定発話区間の間の時間幅が所定時間より短い第1特定発話区間の各ペアが結合されてなる区間内の中から、前記少なくとも1つの基準時間を特定する、
付記11に記載の分析対象決定方法。
前記基準時間の特定は、前記検出される複数の特定発話区間に、前記複数の第1特定発話区間と共に、前記複数の第1特定発話区間が表わす会話参加者の特定事象とは異なる該会話参加者の他の特定事象、又は、他の会話参加者の特定事象を表す第2特定発話区間が更に含まれる場合、該第2特定発話区間をそのまま用いて基準時間を更に特定し、
前記原因分析対象区間の決定は、前記第2特定発話区間から得られる基準時間を基準とする所定時間範囲を、前記原因分析対象区間に更に決定する、
付記12に記載の分析対象決定方法。
前記基準時間の特定は、前記検出される複数の特定発話区間に、前記会話の1人の会話参加者の1つの特定事象を表す第1特定発話区間と、該第1特定発話区間が表わす会話参加者の特定事象とは異なる該会話参加者の他の特定事象、又は、他の会話参加者の特定事象を表す第2特定発話区間とが含まれる場合、該第1特定発話区間及び該第2特定発話区間をそのまま用いて前記基準時間を特定し、
前記原因分析対象区間の決定は、前記第1特定発話区間及び前記第2特定発話区間からそれぞれ得られる各基準時間を基準とする所定時間範囲をそれぞれ、前記原因分析対象区間に決定する、
付記11に記載の分析対象決定方法。
前記原因分析対象区間の決定は、前記第1特定発話区間から得られる前記基準時間に基づいて決定される前記原因分析対象区間と前記第2特定発話区間から得られる前記基準時間に基づいて決定される前記原因分析対象区間とが重複する区間を、前記原因分析対象区間に決定する付記13又は14に記載の分析対象決定方法。
前記特定発話区間の検出は、第1会話参加者の不満を表す前記複数の第1特定発話区間と、第2会話参加者の謝罪を表す前記第2特定発話区間とを検出し、
前記原因分析対象区間の決定は、前記第1会話参加者の不満に関する前記原因分析対象区間を決定する、
付記13又は15に記載の分析対象決定方法。
前記検出される複数の特定発話区間を個別に表わす複数の第1描画要素、及び、前記決定される前記原因分析対象区間を表す第2描画要素が、前記会話内の時系列に応じて並ぶ描画データを生成する、
ことを更に含む付記10から16のいずれか1つに記載の分析対象決定方法。
前記描画データの生成は、前記会話の複数の発話区間に関する複数の音声テキストデータが、発話区間毎に前記会話内の時系列に沿って表示され、前記原因分析対象区間に含まれる発話区間の音声テキストデータが他と区別可能に表示され、前記原因分析対象区間の識別情報が表示される描画データを生成し、該描画データに基づく表示画面上での該識別情報に対するユーザ操作に応じて、該識別情報で特定される原因分析対象区間に含まれる発話区間の音声テキストデータが表示されるような画面遷移を可能とする、
付記17に記載の分析対象決定方法。
少なくとも1つのコンピュータに、付記10から18のいずれか1つに記載の分析対象決定方法を実行させるプログラム。
付記19に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。
Claims (15)
- 会話の音声に対応するデータから、該会話の1人の会話参加者又は複数の会話参加者における複数の特定事象、若しくは、該会話の1人の会話参加者の1つの特定事象を表す、複数の特定発話区間を検出する検出部と、
前記検出部により検出される複数の特定発話区間に基づいて、前記会話の会話参加者の特定事象に関する原因分析対象区間であって、該複数の特定発話区間の数よりも少ない数の原因分析対象区間を決定する対象決定部と、
を備える分析対象決定装置。 - 前記検出部により検出される複数の特定発話区間が表す少なくとも1つの特定事象に応じた少なくとも1つの手法により、該複数の特定発話区間から少なくとも1つの基準時間を特定する特定部を更に備え、
前記対象決定部は、前記特定部により特定される前記少なくとも1つの基準時間を基準とする所定時間範囲を前記原因分析対象区間に決定する、
請求項1に記載の分析対象決定装置。 - 前記特定部は、前記検出部により検出される複数の特定発話区間に、前記会話の1人の会話参加者の1つの特定事象を表す複数の第1特定発話区間が含まれている場合、該複数の第1特定発話区間における、隣接する第1特定発話区間の間の時間幅が所定時間より短い第1特定発話区間の各ペアが結合されてなる区間内の中から、前記少なくとも1つの基準時間を特定する、
請求項2に記載の分析対象決定装置。 - 前記特定部は、前記検出部により検出される複数の特定発話区間に、前記複数の第1特定発話区間と共に、前記複数の第1特定発話区間が表わす会話参加者の特定事象とは異なる該会話参加者の他の特定事象、又は、他の会話参加者の特定事象を表す第2特定発話区間が更に含まれる場合、該第2特定発話区間をそのまま用いて基準時間を更に特定し、
前記対象決定部は、前記第2特定発話区間から得られる基準時間を基準とする所定時間範囲を、前記原因分析対象区間に更に決定する、
請求項3に記載の分析対象決定装置。 - 前記特定部は、前記検出部により検出される複数の特定発話区間に、前記会話の1人の会話参加者の1つの特定事象を表す第1特定発話区間と、該第1特定発話区間が表わす会話参加者の特定事象とは異なる該会話参加者の他の特定事象、又は、他の会話参加者の特定事象を表す第2特定発話区間とが含まれる場合、該第1特定発話区間及び該第2特定発話区間をそのまま用いて前記少なくとも1つの基準時間を特定し、
前記対象決定部は、前記第1特定発話区間及び前記第2特定発話区間からそれぞれ得られる各基準時間を基準とする所定時間範囲をそれぞれ、前記原因分析対象区間に決定する、
請求項2に記載の分析対象決定装置。 - 前記対象決定部は、前記第1特定発話区間から得られる前記基準時間に基づいて決定される前記原因分析対象区間と前記第2特定発話区間から得られる前記基準時間に基づいて決定される前記原因分析対象区間とが重複する区間を、前記原因分析対象区間に決定する請求項4又は5に記載の分析対象決定装置。
- 前記検出部は、第1会話参加者の不満を表す前記複数の第1特定発話区間と、第2会話参加者の謝罪を表す前記第2特定発話区間とを検出し、
前記対象決定部は、前記第1会話参加者の不満に関する前記原因分析対象区間を決定する、
請求項4又は6に記載の分析対象決定装置。 - 前記検出部により検出される複数の特定発話区間を個別に表わす複数の第1描画要素、及び、前記対象決定部により決定される前記原因分析対象区間を表す第2描画要素が、前記会話内の時系列に応じて並ぶ描画データを生成する描画データ生成部、
を更に備える請求項1から7のいずれか1項に記載の分析対象決定装置。 - 前記描画データ生成部は、前記会話の複数の発話区間に関する複数の音声テキストデータが、発話区間毎に前記会話内の時系列に沿って表示され、前記原因分析対象区間に含まれる発話区間の音声テキストデータが他と区別可能に表示され、前記原因分析対象区間の識別情報が表示される描画データを生成し、該描画データに基づく表示画面上での該識別情報に対するユーザ操作に応じて、該識別情報で特定される原因分析対象区間に含まれる発話区間の音声テキストデータが表示されるような画面遷移を可能とする、
請求項8に記載の分析対象決定装置。 - 少なくとも1つのコンピュータにより実行される分析対象決定方法において、
会話の音声に対応するデータから、該会話の1人の会話参加者又は複数の会話参加者における複数の特定事象、若しくは、該会話の1人の会話参加者の1つの特定事象を表す、複数の特定発話区間を検出し、
前記検出される複数の特定発話区間に基づいて、前記会話の会話参加者の特定事象に関する原因分析対象区間であって、該複数の特定発話区間の数よりも少ない数の原因分析対象区間を決定する、
ことを含む分析対象決定方法。 - 前記検出される複数の特定発話区間が表す少なくとも1つの特定事象に応じた少なくとも1つの手法により、該複数の特定発話区間から少なくとも1つの基準時間を特定し、
前記特定される少なくとも1つの基準時間を基準とする所定時間範囲を前記原因分析対象区間に決定する、
ことを更に含む請求項10に記載の分析対象決定方法。 - 前記基準時間の特定は、前記検出される複数の特定発話区間に、前記会話の1人の会話参加者の1つの特定事象を表す複数の第1特定発話区間が含まれている場合、該複数の第1特定発話区間における、隣接する第1特定発話区間の間の時間幅が所定時間より短い第1特定発話区間の各ペアが結合されてなる区間内の中から、前記少なくとも1つの基準時間を特定する、
請求項11に記載の分析対象決定方法。 - 前記基準時間の特定は、前記検出される複数の特定発話区間に、前記複数の第1特定発話区間と共に、前記複数の第1特定発話区間が表わす会話参加者の特定事象とは異なる該会話参加者の他の特定事象、又は、他の会話参加者の特定事象を表す第2特定発話区間が更に含まれる場合、該第2特定発話区間をそのまま用いて基準時間を更に特定し、
前記原因分析対象区間の決定は、前記第2特定発話区間から得られる基準時間を基準とする所定時間範囲を、前記原因分析対象区間に更に決定する、
請求項12に記載の分析対象決定方法。 - 前記原因分析対象区間の決定は、前記第1特定発話区間から得られる前記基準時間に基づいて決定される前記原因分析対象区間と前記第2特定発話区間から得られる前記基準時間に基づいて決定される前記原因分析対象区間とが重複する区間を、前記原因分析対象区間に決定する請求項13に記載の分析対象決定方法。
- 少なくとも1つのコンピュータに、請求項10から14のいずれか1項に記載の分析対象決定方法を実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012240742 | 2012-10-31 | ||
JP2012240742 | 2012-10-31 | ||
PCT/JP2013/075242 WO2014069120A1 (ja) | 2012-10-31 | 2013-09-19 | 分析対象決定装置及び分析対象決定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014069120A1 true JPWO2014069120A1 (ja) | 2016-09-08 |
JP6358093B2 JP6358093B2 (ja) | 2018-07-18 |
Family
ID=50627036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014544378A Active JP6358093B2 (ja) | 2012-10-31 | 2013-09-19 | 分析対象決定装置及び分析対象決定方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10083686B2 (ja) |
JP (1) | JP6358093B2 (ja) |
WO (1) | WO2014069120A1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2014069076A1 (ja) * | 2012-10-31 | 2016-09-08 | 日本電気株式会社 | 会話分析装置及び会話分析方法 |
JP6213476B2 (ja) * | 2012-10-31 | 2017-10-18 | 日本電気株式会社 | 不満会話判定装置及び不満会話判定方法 |
JP6341092B2 (ja) * | 2012-10-31 | 2018-06-13 | 日本電気株式会社 | 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 |
US9645994B2 (en) * | 2014-12-09 | 2017-05-09 | Conduent Business Services, Llc | Methods and systems for automatic analysis of conversations between customer care agents and customers |
US10367855B2 (en) * | 2015-01-27 | 2019-07-30 | Tevnos LLC | Switch controller for separating multiple portions of call |
JP2017010309A (ja) | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | 意思決定支援装置および意思決定支援方法 |
JP2017009826A (ja) * | 2015-06-23 | 2017-01-12 | トヨタ自動車株式会社 | グループ状態判定装置およびグループ状態判定方法 |
EP3185523B1 (en) * | 2015-12-21 | 2018-10-10 | Wipro Limited | System and method for providing interaction between a user and an embodied conversational agent |
US9934784B2 (en) | 2016-06-30 | 2018-04-03 | Paypal, Inc. | Voice data processor for distinguishing multiple voice inputs |
JP7080029B2 (ja) * | 2017-04-10 | 2022-06-03 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 情報提供装置、情報提供方法及びコンピュータープログラム |
JP6522695B2 (ja) * | 2017-07-13 | 2019-05-29 | 本田技研工業株式会社 | ライフログ活用システム、方法及びプログラム |
US11399096B2 (en) * | 2017-11-29 | 2022-07-26 | Afiniti, Ltd. | Techniques for data matching in a contact center system |
JP7057229B2 (ja) * | 2018-06-14 | 2022-04-19 | ヤフー株式会社 | 評価装置、評価方法および評価プログラム |
JP7144217B2 (ja) * | 2018-06-29 | 2022-09-29 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 分析装置、分析方法及びコンピュータープログラム |
US11887622B2 (en) * | 2018-09-14 | 2024-01-30 | United States Department Of Veteran Affairs | Mental health diagnostics using audio data |
CN109192207A (zh) * | 2018-09-17 | 2019-01-11 | 顺丰科技有限公司 | 语音通信装置、语音通信方法及系统、设备、存储介质 |
US11854575B1 (en) * | 2019-09-30 | 2023-12-26 | Amazon Technologies, Inc. | System for presentation of sentiment data |
US11521642B2 (en) * | 2020-09-11 | 2022-12-06 | Fidelity Information Services, Llc | Systems and methods for classification and rating of calls based on voice and text analysis |
JPWO2022249462A1 (ja) * | 2021-05-28 | 2022-12-01 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11119791A (ja) * | 1997-10-20 | 1999-04-30 | Hitachi Ltd | 音声感情認識システムおよび方法 |
JP2004037989A (ja) * | 2002-07-05 | 2004-02-05 | Nippon Telegr & Teleph Corp <Ntt> | 音声受付システム |
WO2010041507A1 (ja) * | 2008-10-10 | 2010-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 会話における特定状況を抽出するシステムおよび方法 |
JP2010134233A (ja) * | 2008-12-05 | 2010-06-17 | Fujitsu Ltd | 対話選別プログラム、対話選別装置、および対話選別方法 |
US20100332287A1 (en) * | 2009-06-24 | 2010-12-30 | International Business Machines Corporation | System and method for real-time prediction of customer satisfaction |
JP2012090337A (ja) * | 2012-01-13 | 2012-05-10 | Toshiba Corp | 電子機器および表示処理方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7222075B2 (en) * | 1999-08-31 | 2007-05-22 | Accenture Llp | Detecting emotions using voice signal analysis |
JP3728172B2 (ja) * | 2000-03-31 | 2005-12-21 | キヤノン株式会社 | 音声合成方法および装置 |
JPWO2003107326A1 (ja) * | 2002-06-12 | 2005-10-20 | 三菱電機株式会社 | 音声認識方法及びその装置 |
TWI255412B (en) * | 2004-09-29 | 2006-05-21 | Inventec Corp | System and method for displaying an image according to audio signals |
US20070067174A1 (en) * | 2005-09-22 | 2007-03-22 | International Business Machines Corporation | Visual comparison of speech utterance waveforms in which syllables are indicated |
US20070118372A1 (en) * | 2005-11-23 | 2007-05-24 | General Electric Company | System and method for generating closed captions |
KR20100028312A (ko) * | 2008-09-04 | 2010-03-12 | 삼성전자주식회사 | 휴대 단말기의 파일 편집 방법 및 장치 |
US8843368B2 (en) * | 2009-08-17 | 2014-09-23 | At&T Intellectual Property I, L.P. | Systems, computer-implemented methods, and tangible computer-readable storage media for transcription alignment |
WO2011112640A2 (en) * | 2010-03-08 | 2011-09-15 | Vumanity Media Llc | Generation of composited video programming |
JP2011210100A (ja) | 2010-03-30 | 2011-10-20 | Seiko Epson Corp | 接客データ記録装置、接客データ記録方法およびプログラム |
JP2011237957A (ja) | 2010-05-10 | 2011-11-24 | Seiko Epson Corp | 満足度算出装置、満足度算出方法およびプログラム |
US9105042B2 (en) * | 2013-02-07 | 2015-08-11 | Verizon Patent And Licensing Inc. | Customer sentiment analysis using recorded conversation |
-
2013
- 2013-09-19 JP JP2014544378A patent/JP6358093B2/ja active Active
- 2013-09-19 US US14/436,159 patent/US10083686B2/en active Active
- 2013-09-19 WO PCT/JP2013/075242 patent/WO2014069120A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11119791A (ja) * | 1997-10-20 | 1999-04-30 | Hitachi Ltd | 音声感情認識システムおよび方法 |
JP2004037989A (ja) * | 2002-07-05 | 2004-02-05 | Nippon Telegr & Teleph Corp <Ntt> | 音声受付システム |
WO2010041507A1 (ja) * | 2008-10-10 | 2010-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 会話における特定状況を抽出するシステムおよび方法 |
JP2010134233A (ja) * | 2008-12-05 | 2010-06-17 | Fujitsu Ltd | 対話選別プログラム、対話選別装置、および対話選別方法 |
US20100332287A1 (en) * | 2009-06-24 | 2010-12-30 | International Business Machines Corporation | System and method for real-time prediction of customer satisfaction |
JP2012090337A (ja) * | 2012-01-13 | 2012-05-10 | Toshiba Corp | 電子機器および表示処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20150287402A1 (en) | 2015-10-08 |
WO2014069120A1 (ja) | 2014-05-08 |
JP6358093B2 (ja) | 2018-07-18 |
US10083686B2 (en) | 2018-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6358093B2 (ja) | 分析対象決定装置及び分析対象決定方法 | |
WO2014069076A1 (ja) | 会話分析装置及び会話分析方法 | |
JP6341092B2 (ja) | 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 | |
US8494149B2 (en) | Monitoring device, evaluation data selecting device, agent evaluation device, agent evaluation system, and program | |
JP2017508188A (ja) | 適応型音声対話のための方法 | |
JP2010113167A (ja) | 有害顧客検知システム、その方法及び有害顧客検知プログラム | |
JP6213476B2 (ja) | 不満会話判定装置及び不満会話判定方法 | |
EP4086903A1 (en) | System with post-conversation evaluation, electronic device, and related methods | |
JP6327252B2 (ja) | 分析対象決定装置及び分析対象決定方法 | |
JP6365304B2 (ja) | 会話分析装置及び会話分析方法 | |
JP5691174B2 (ja) | オペレータ選定装置、オペレータ選定プログラム、オペレータ評価装置、オペレータ評価プログラム及びオペレータ評価方法 | |
US10924611B2 (en) | Voice recognition system and call evaluation setting method | |
JP2023076430A (ja) | プログラム、情報処理システム及び情報処理方法 | |
WO2014069443A1 (ja) | 不満通話判定装置及び不満通話判定方法 | |
WO2022208711A1 (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
WO2023162009A1 (ja) | 感情情報活用装置、感情情報活用方法及びプログラム | |
JP5679005B2 (ja) | 会話異常検知装置、会話異常検知方法、及び会話異常検知プログラム | |
WO2014069444A1 (ja) | 不満会話判定装置及び不満会話判定方法 | |
KR20180034927A (ko) | 통화 음성을 분석하는 통신 단말기 | |
CN110784595A (zh) | 一种来电信息的处理方法以及相关装置 | |
JP2010008765A (ja) | 音声認識方法、音声認識システム、および音声認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180604 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6358093 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |