JP5700114B2 - 通話支援装置、通話支援方法 - Google Patents
通話支援装置、通話支援方法 Download PDFInfo
- Publication number
- JP5700114B2 JP5700114B2 JP2013503287A JP2013503287A JP5700114B2 JP 5700114 B2 JP5700114 B2 JP 5700114B2 JP 2013503287 A JP2013503287 A JP 2013503287A JP 2013503287 A JP2013503287 A JP 2013503287A JP 5700114 B2 JP5700114 B2 JP 5700114B2
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- voice
- customer
- information
- hold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 78
- 230000008451 emotion Effects 0.000 claims description 50
- 238000004891 communication Methods 0.000 claims description 22
- 230000009471 action Effects 0.000 claims description 3
- 238000007562 laser obscuration time method Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims 2
- 238000004458 analytical method Methods 0.000 description 88
- 230000008569 process Effects 0.000 description 51
- 238000012545 processing Methods 0.000 description 46
- 238000010586 diagram Methods 0.000 description 20
- 238000000605 extraction Methods 0.000 description 17
- 238000001514 detection method Methods 0.000 description 12
- 230000004044 response Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000002035 prolonged effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000725 suspension Substances 0.000 description 2
- 101100401100 Caenorhabditis elegans mes-1 gene Proteins 0.000 description 1
- 101100512897 Caenorhabditis elegans mes-2 gene Proteins 0.000 description 1
- 101100512899 Caenorhabditis elegans mes-3 gene Proteins 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/16—Transforming into a non-visible representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/42221—Conversation recording systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/20—Aspects of automatic or semi-automatic exchanges related to features of supplementary services
- H04M2203/2038—Call context notifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/35—Aspects of automatic or semi-automatic exchanges related to information services provided via a voice call
- H04M2203/352—In-call/conference information service
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/40—Aspects of automatic or semi-automatic exchanges related to call centers
- H04M2203/401—Performance feedback
Description
実施形態1は、オペレータが通話中に指示した保留状態における顧客の発した音声を取得し、取得した音声の特徴を解析し、その解析結果に基づいて顧客の心理状態を測定することで、顧客の心理状態を測定する精度を向上させることができる。すなわち、保留中において顧客は、自身の会話がオペレータに伝わっていないと思っているため、顧客は不満などの本当の感情を独り言、舌打ち、ため息などなどの形で素直に表現すると想定される。そのため、従来顧客の心理状態を測定するために利用されなかった保留状態における顧客の発した音声を取得し、取得した音声の特徴を後述する解析処理をすることで、顧客の心理状態を測定する精度を向上させることができる。また、顧客の心理状態を測定する精度が向上することにより、オペレータを支援する際の顧客への指示内容を、顧客の心理状態に応じた適切なものにできる。
図2は、通話支援装置のハードウェアの一実施例を示す図である。通話支援装置1は、制御部201、記憶部202、記録媒体読取装置203、入出力インタフェース204(入出力I/F)、通信インタフェース205(通信I/F)などを備えている。また、上記各構成部はバス206によってそれぞれ接続されている。
図3は、制御部と記憶部の機能の一実施例を示す図である。図3の制御部201は、接続部301、音声記録部302、解析部303、指示部304などを有している。
図4は、オペレータ端末のハードウェアの一実施例を示す図である。オペレータ端末3は、Personal Computer(PC)などを用いることが考えられる。オペレータ端末3は、制御部401、記憶部402、記録媒体読取装置403、入出力インタフェース404(入出力I/F)、通信インタフェース405(通信I/F)などを備えている。また、上記各構成部はバス406によってそれぞれ接続されている。制御部401は、Central Processing Unit(CPU)やプログラマブルなデバイス(Field Programmable Gate Array(FPGA)、Programmable Logic Device(PLD)など)を用いることが考えられる。制御部401は、オペレータ端末3の各部を制御する。
図6は、接続部の動作の一実施例を示すフロー図である。ステップS601では、接続部301が顧客端末2から送信された呼を受信する。
図8は、音声記録部の動作の一実施例を示すフロー図である。ステップS801では、音声記録部302が接続部301から送信された記録開始通知を受信すると、顧客の音声とオペレータの音声を記録する音声ファイルを開く。音声ファイルは、例えば、ウェーブフォーマット形式やエムピースリーフォーマット形式などで記録された音声データが記録されている。
「左チャネル発話者」「右チャネル発話者」には、顧客またはオペレータが記録されているチャネルを示す情報が記録されている。本例では、左チャネルにオペレータの発話であることを示す「オペレータ」が記録され、右チャネルに顧客の発話であることを示す「顧客」が記録されている。
図9は、オペレータ発話抽出処理の動作の一実施例を示す図である。図10は、オペレータ発話抽出処理の動作の一実施例を示す図である。
ステップS906では、音声記録部302がオペレータ発話記憶領域を参照して発話中であるか否かを判定する。発話中である場合にはステップS907(Yes)に移行し、そうでない場合にはオペレータ発話抽出処理を終了して、次の顧客発話抽出処理に移行する。
図10のステップS1001では、音声記録部302が決められた周期ごとに取得した周期分の顧客の音声データを用いて、最大音量値V2を求める。例えば、20ミリ秒周期ごとに20ミリ秒分の顧客の音声データを取得し、その20ミリ秒分の音声データに含まれる音量を示すデータを解析して、最大音量値V2を求める。ただし、周期は20ミリ秒に限定されるものではない。
ステップS1007では、音声記録部302が音量合計値V2SをV2S+V2に変更する。つまり、前の状態が発話中である場合、本周期において取得した最大音量値V2を前回の音量合計値V2Sに加算して、加算した値を音量合計値V2Sとする。
解析部303の動作について説明する。
ステップS1204では、解析部303が保留中の現在日時を処理日時pt1とする。
ステップS1304では、解析部303がt1以降の顧客発話開始の日時をt2とする。図11に示す発話日時情報307の例であれば、通話開始日時をt1として「2010/1/1 10:23:43」とした場合、「2010/1/1 10:23:59」「2010/1/1 10:24:03」がt2となる。
図14は、実施形態1の顧客の音声の特徴を解析する方法の一実施例のタイムチャートを示す図である。図13に示すフロー図で求めた保留前平均発話音量値p1は、図14のA、Bに示すタイムチャートの保留前期間(t1−保留開始)の平均発話音量値p1(点線間の値)を示している。図14のAに示すタイムチャートは、図12に示すフロー図で求めた感情フラグに「1」が書き込まれた場合のタイムチャートである。保留前平均発話音量値p1より発話内平均音量値p2が大きいため、オペレータの対応自体に対して顧客がオペレータに不満があることを示している。
指示部304は対応指示通知を受信して、感情フラグの示す情報に対応するオペレータを支援するためのメッセージ情報を対応情報308から選択して、選択したメッセージ情報を、接続部301を介してオペレータ端末3に送信する。図15は、メッセージの内容と対応情報のデータ構造の一実施例を示す図である。図15の対応情報308は、「感情フラグ」「メッセージ情報」有している。「感情フラグ」には、感情フラグに記憶されている顧客の心理状態を示す識別子が記録されている。本例では、不満度を示す「1」「2」「1,2」・・・・が記録されている。「メッセージ情報」には、オペレータを支援するメッセージが感情フラグに関連付けられて記録されている。本例では、図15に示すメッセージ1501、1502、1503に対応する「mes_1」「mes_2」「mes_3」がそれぞれ記録されている。
実施形態2の記憶部202には、特定の心理状態を示す特定の語句、あるいは、特定の心理状態を示すと推定される特定の語句を記憶する。
図17は、実施形態2の解析部の動作の一実施例を示す図である。ステップS1701では、解析部303がオペレータ端末3から送信される保留開始を示す保留通知を受信して、保留状態であることを検出する。保留開始の保留通知は、オペレータが通話中に保留状態にする際に、保留入力部501から保留状態にすることをオペレータ端末3に入出力インタフェース404を介して通知する。その通知を受信すると、制御部401は保留開始を示す保留通知を生成して接続部301に送信される。接続部301は受信した保留通知を、解析部303に送信する。解析部303は受信した保留通知を受信した後、保留通知を解析して保留開始であることを検出する。
ステップS1705では、解析部303が保留中の現在日時を処理日時pt1とする。
ステップS1708では、解析部303が不満語検出情報から不満語を取得したか否かを判定し、取得した場合にはステップS1712(Yes)に移行し、取得していない場合にはステップS1712に移行する。
ステップS1714では、解析部303が感情フラグを参照して、感情フラグに顧客の心理状態に応じた値が記憶されているか否かを判定する。感情フラグに値が記憶されている場合はステップS1214(Yes)に移行し、記憶されている場合は本処理を終了して、次の保留開始を待つ。
ステップS1902では、音声認識処理部1601が不満語キーワード情報1802を読み込む。不満語キーワード情報1802は、例えば、不満語を登録したテーブルなどで、記憶部202に記録されている。不満語キーワード情報1802は、不満語として「むかつく」「早くしろよ」「イライラする」「しっかりしろよ」・・・・などを記憶している。
ステップS1906では、音声認識処理部1601が解析部303から音声認識処理を終了する指示を受信したか否かを判定し、受信したときは音声認識処理を停止し、受信していないときはステップS1903に移行する。すなわち、保留状態が解除された場合に音声認識処理を停止する。音声認識処理部1601は、不満語検出情報1801を求める。
図20は、実施形態2の顧客の音声の特徴を解析する方法の一実施例のタイムチャートを示す図である。図20のAに示すタイムチャートは、図17に示すフロー図で求めた感情フラグに「1」を書き込まれた場合のタイムチャートである。保留中の顧客の音声に不満語である「むかつく」を検出しているので、オペレータの対応自体に対して顧客が不満であることを示している。
指示部304は対応指示通知を受信して、感情フラグの示す情報に対応するオペレータを支援するためのメッセージ情報を対応情報308から選択して、選択したメッセージ情報を、接続部301を介してオペレータ端末3に送信する。通話支援装置1から送信されたメッセージ情報を受信すると、オペレータ端末3に接続されている入出力部408の出力部であるディスプレイに、図15に示すオペレータを支援するメッセージが表示される。
2 顧客端末
3 オペレータ端末
4 ネットワーク
201 制御部
202 記憶部
203 記録媒体読取装置
204 入出力インタフェース
205 通信インタフェース
206 バス
207 記録媒体
208 入出力部
301 接続部
302 音声記録部
303 解析部
304 指示部
305 オペレータ情報
306 音声情報
307 発話日時情報
308 対応情報
401 制御部
402 記憶部
403 記録媒体読取装置
404 入出力インタフェース
405 通信インタフェース
406 バス
407 記録媒体
408 入出力部
501 保留入力部
502 音声入力部
503 音声出力部
1601 音声認識処理部
Claims (12)
- 第1の発話者が用いる第1の端末と第2の発話者が用いる第2の端末間で行なわれる通信において、第2の発話者を支援する通話支援装置であって、
該通信の保留状態を検知した場合、該保留状態における前記第1の発話者の音声情報と、該保留状態以前の該第1の発話者の音声情報と、の比較結果に基づき、前記第1の発話者の感情に関する情報を出力する出力部、
を備えることを特徴とする通話支援装置。 - さらに、前記第1の端末と前記第2の端末間で行なわれる通信における前記第1の発話者の音声情報を記憶する記憶部を備え、
前記出力部は、
前記記憶部を参照し、該保留状態における前記第1の発話者の音声情報の音声レベルの第1の平均値と、該保留状態以前の該第1の発話者の音声情報の音声レベルの第2の平均値と、を比較し、
前記第1の平均値と前記第2の平均値との比較結果に基づき、前記第1の発話者の心理状態に関連する判定情報を、前記第2の端末に出力する、
ことを特徴とする請求項1に記載の通話支援装置。 - 前記出力部は、
該保留状態に移行した時点から一定期間経過後に、前記第1の平均値と前記第2の平均値とを比較する、
ことを特徴とする請求項2に記載の通話支援装置。 - さらに、特定の心理状態を示す特定の語句、あるいは、特定の心理状態を示すと推定される特定の語句を記憶した記憶部を備え、
前記出力部は、
前記記憶部を参照し、該保留状態における前記第1の発話者の音声情報に前記特定の語句が含まれるか否かを判断し、
前記特定の語句が含まれるか否かの判断結果に基づき、前記第1の発話者の心理状態に関連する判定情報を、前記第2の端末に出力する、
ことを特徴とする請求項1に記載の通話支援装置。 - 前記出力部は、
該保留状態に移行した時点から一定期間経過後に、前記特定の語句が前記第1の発話者の音声情報に含まれていると判定されたとき、前記保留状態について前記第1の発話者が不満を抱いていることを示す前記判定情報を前記第2の端末に出力する、
ことを特徴とする請求項4に記載の通話支援装置。 - 前記出力部は、
前記第1の発話者の音声情報に基づいた、前記第2の発話者が前記第1の発話者に対してとるべき行動に関する前記判定情報を、前記第2の端末に出力する、
ことを特徴とする請求項2に記載の通話支援装置。 - コンピュータが、第1の発話者が用いる第1の端末と第2の発話者が用いる第2の端末間で行なわれる通信において、第2の発話者を支援する通話支援方法であって、
前記コンピュータは、
該通信の保留状態を検知した場合、該保留状態における前記第1の発話者の音声情報と、該保留状態以前の該第1の発話者の音声情報と、の比較結果に基づき、前記第1の発話者の感情に関する情報を出力する、
ことを特徴とする通話支援方法。 - 前記コンピュータは、
記憶部に記憶された、前記第1の端末と前記第2の端末間で行なわれる通信における前記第1の発話者の音声情報を参照し、
該保留状態における前記第1の発話者の音声情報の音声レベルの第1の平均値と、該保留状態以前における該第1の発話者の音声情報の音声レベルの第2の平均値と、を比較し、
前記第1の平均値と前記第2の平均値との比較結果に基づき、前記第1の発話者の状態に関連する判定情報を、前記第2の端末に出力する、
ことを特徴とする請求項7に記載の通話支援方法。 - 前記コンピュータは、
該保留状態に移行した時点から一定期間経過後に、前記第1の平均値と前記第2の平均値とを比較する、
ことを特徴とする請求項8に記載の通話支援方法。 - 前記コンピュータは、
記憶部に記憶された特定の心理状態を示す特定の語句、あるいは、特定の心理状態を示すと推定される特定の語句を参照し、前記保留状態における前記第1の発話者の音声情報に該特定の語句が含まれているか否かを判断し、
前記特定の語句が含まれるか否かの判断結果に基づき、前記第1の発話者の心理状態に関連する判定情報を、前記第2の端末に出力する、
ことを特徴とする請求項7に記載の通話支援方法。 - 前記コンピュータは、
該保留状態に移行した時点から一定期間経過後に、前記特定の語句が前記第1の発話者の音声情報に含まれていると判定されたとき、前記保留状態について前記第1の発話者が不満を抱いていることを示す前記判定情報を出力する、
ことを特徴とする請求項10に記載の通話支援方法。 - 前記コンピュータは、
前記第1の発話者の音声情報に基づいた、前記第2の発話者が前記第1の発話者に対してとるべき行動に関する前記判定情報を、前記第2の端末に出力する、
ことを特徴とする請求項8に記載の通話支援方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2011/055422 WO2012120656A1 (ja) | 2011-03-08 | 2011-03-08 | 通話支援装置、通話支援方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012120656A1 JPWO2012120656A1 (ja) | 2014-07-07 |
JP5700114B2 true JP5700114B2 (ja) | 2015-04-15 |
Family
ID=46797659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013503287A Expired - Fee Related JP5700114B2 (ja) | 2011-03-08 | 2011-03-08 | 通話支援装置、通話支援方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9524732B2 (ja) |
JP (1) | JP5700114B2 (ja) |
CN (1) | CN103430523B (ja) |
WO (1) | WO2012120656A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014069444A1 (ja) * | 2012-10-31 | 2014-05-08 | 日本電気株式会社 | 不満会話判定装置及び不満会話判定方法 |
JP6798484B2 (ja) * | 2015-05-07 | 2020-12-09 | ソニー株式会社 | 情報処理システム、制御方法、およびプログラム |
WO2017085815A1 (ja) * | 2015-11-18 | 2017-05-26 | 富士通株式会社 | 困惑状態判定装置、困惑状態判定方法、及びプログラム |
JP7073640B2 (ja) * | 2017-06-23 | 2022-05-24 | カシオ計算機株式会社 | 電子機器、感情情報取得システム、プログラム及び感情情報取得方法 |
JP6567729B1 (ja) * | 2018-05-28 | 2019-08-28 | 株式会社リクルートマネジメントソリューションズ | コールセンタ装置、特定方法及びプログラム |
KR20200000155A (ko) * | 2018-06-22 | 2020-01-02 | 현대자동차주식회사 | 대화 시스템 및 이를 이용한 차량 |
JP2020150409A (ja) * | 2019-03-13 | 2020-09-17 | 株式会社日立情報通信エンジニアリング | コールセンタシステムおよび通話監視方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002051153A (ja) * | 2000-08-07 | 2002-02-15 | Fujitsu Ltd | Ctiサーバ及びプログラム記録媒体 |
JP2005142897A (ja) * | 2003-11-07 | 2005-06-02 | Fujitsu Support & Service Kk | 電話受付システム |
JP2008053826A (ja) * | 2006-08-22 | 2008-03-06 | Oki Electric Ind Co Ltd | 電話応答システム |
JP2008219741A (ja) * | 2007-03-07 | 2008-09-18 | Fujitsu Ltd | 交換機及び交換機の待呼制御方法 |
JP2009182433A (ja) * | 2008-01-29 | 2009-08-13 | Seiko Epson Corp | コールセンターの情報提供システム、情報提供装置、情報提供方法及び情報提供プログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05219159A (ja) | 1992-02-03 | 1993-08-27 | Nec Corp | 電話機 |
JPH0637895A (ja) | 1992-07-15 | 1994-02-10 | Nec Eng Ltd | 保留解除制御方式 |
JPH09200340A (ja) | 1996-01-16 | 1997-07-31 | Toshiba Corp | 保留機能を備えた構内交換機 |
US6144938A (en) * | 1998-05-01 | 2000-11-07 | Sun Microsystems, Inc. | Voice user interface with personality |
JP2000083098A (ja) | 1998-09-04 | 2000-03-21 | Nec Eng Ltd | 構内交換機の保留解除方式 |
JP3857922B2 (ja) | 2002-01-17 | 2006-12-13 | アルゼ株式会社 | 対話ゲームシステム、対話ゲーム方法及びプログラム |
US7023979B1 (en) * | 2002-03-07 | 2006-04-04 | Wai Wu | Telephony control system with intelligent call routing |
CN1208939C (zh) * | 2002-04-18 | 2005-06-29 | 华为技术有限公司 | 一种网络呼叫处理方法 |
JP4794846B2 (ja) * | 2004-10-27 | 2011-10-19 | キヤノン株式会社 | 推定装置、及び推定方法 |
US8139097B2 (en) * | 2005-04-20 | 2012-03-20 | Sharp Kabushiki Kaisha | Information-processing device with calling function and application execution method |
US20060265089A1 (en) * | 2005-05-18 | 2006-11-23 | Kelly Conway | Method and software for analyzing voice data of a telephonic communication and generating a retention strategy therefrom |
US9300790B2 (en) * | 2005-06-24 | 2016-03-29 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
US20080240404A1 (en) * | 2007-03-30 | 2008-10-02 | Kelly Conway | Method and system for aggregating and analyzing data relating to an interaction between a customer and a contact center agent |
US8170195B2 (en) * | 2007-09-28 | 2012-05-01 | Mattersight Corporation | Methods and systems for verifying typed objects or segments of a telephonic communication between a customer and a contact center |
US8346556B2 (en) * | 2008-08-22 | 2013-01-01 | International Business Machines Corporation | Systems and methods for automatically determining culture-based behavior in customer service interactions |
KR101425820B1 (ko) * | 2009-02-26 | 2014-08-01 | 에스케이텔레콤 주식회사 | 통화 연결 대기 중 디지털 데이터 전송 방법 및 시스템과 이를 위한 이동통신 단말기 |
US8054964B2 (en) * | 2009-04-30 | 2011-11-08 | Avaya Inc. | System and method for detecting emotions at different steps in a communication |
-
2011
- 2011-03-08 WO PCT/JP2011/055422 patent/WO2012120656A1/ja active Application Filing
- 2011-03-08 CN CN201180068820.9A patent/CN103430523B/zh not_active Expired - Fee Related
- 2011-03-08 JP JP2013503287A patent/JP5700114B2/ja not_active Expired - Fee Related
-
2013
- 2013-08-30 US US14/015,207 patent/US9524732B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002051153A (ja) * | 2000-08-07 | 2002-02-15 | Fujitsu Ltd | Ctiサーバ及びプログラム記録媒体 |
JP2005142897A (ja) * | 2003-11-07 | 2005-06-02 | Fujitsu Support & Service Kk | 電話受付システム |
JP2008053826A (ja) * | 2006-08-22 | 2008-03-06 | Oki Electric Ind Co Ltd | 電話応答システム |
JP2008219741A (ja) * | 2007-03-07 | 2008-09-18 | Fujitsu Ltd | 交換機及び交換機の待呼制御方法 |
JP2009182433A (ja) * | 2008-01-29 | 2009-08-13 | Seiko Epson Corp | コールセンターの情報提供システム、情報提供装置、情報提供方法及び情報提供プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20140081639A1 (en) | 2014-03-20 |
CN103430523A (zh) | 2013-12-04 |
US9524732B2 (en) | 2016-12-20 |
WO2012120656A1 (ja) | 2012-09-13 |
JPWO2012120656A1 (ja) | 2014-07-07 |
CN103430523B (zh) | 2016-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5700114B2 (ja) | 通話支援装置、通話支援方法 | |
US8050923B2 (en) | Automated utterance search | |
US8417524B2 (en) | Analysis of the temporal evolution of emotions in an audio interaction in a service delivery environment | |
US10592611B2 (en) | System for automatic extraction of structure from spoken conversation using lexical and acoustic features | |
WO2007091453A1 (ja) | モニタリング装置、評価データ選別装置、応対者評価装置、応対者評価システムおよびプログラム | |
US20110099011A1 (en) | Detecting And Communicating Biometrics Of Recorded Voice During Transcription Process | |
WO2014069076A1 (ja) | 会話分析装置及び会話分析方法 | |
WO2014069122A1 (ja) | 表現分類装置、表現分類方法、不満検出装置及び不満検出方法 | |
WO2020238209A1 (zh) | 音频处理的方法、系统及相关设备 | |
JP2013200423A (ja) | 音声対話支援装置、方法、およびプログラム | |
JP5731998B2 (ja) | 対話支援装置、対話支援方法および対話支援プログラム | |
JPWO2015037073A1 (ja) | 音声検索システム、音声検索方法、及びコンピュータ読み取り可能な記憶媒体 | |
US11336767B2 (en) | Methods and apparatus for bypassing holds | |
KR100930039B1 (ko) | 음성 인식기의 성능 평가 장치 및 그 방법 | |
JP2014123813A (ja) | オペレータ対顧客会話自動採点装置およびその動作方法 | |
JP6327252B2 (ja) | 分析対象決定装置及び分析対象決定方法 | |
JP5713782B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20230011894A (ko) | 오디오 특징 검출을 위한 기술 | |
JP5689774B2 (ja) | 対話型情報発信装置、対話型情報発信方法、及びプログラム | |
US11710476B2 (en) | System and method for automatic testing of conversational assistance | |
JP2012108262A (ja) | 対話内容抽出装置、対話内容抽出方法、そのプログラム及び記録媒体 | |
KR20220136846A (ko) | 고객 또는 영업 직원의 음성과 얼굴 이미지를 분석하여 피드백을 주는 방법 및 그 장치 | |
WO2018108284A1 (en) | Audio recording device for presenting audio speech missed due to user not paying attention and method thereof | |
KR20220136844A (ko) | 녹음 또는 녹화를 위한 고객의 사전 동의를 취득하는 방법 및 그 장치 | |
US20230325612A1 (en) | Multi-platform voice analysis and translation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140610 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140811 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141021 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5700114 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |