JP2022043263A - 応対履歴作成支援装置、応対履歴作成支援方法、プログラム、及び表示装置 - Google Patents

応対履歴作成支援装置、応対履歴作成支援方法、プログラム、及び表示装置 Download PDF

Info

Publication number
JP2022043263A
JP2022043263A JP2021214088A JP2021214088A JP2022043263A JP 2022043263 A JP2022043263 A JP 2022043263A JP 2021214088 A JP2021214088 A JP 2021214088A JP 2021214088 A JP2021214088 A JP 2021214088A JP 2022043263 A JP2022043263 A JP 2022043263A
Authority
JP
Japan
Prior art keywords
utterance
response
scene
point information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021214088A
Other languages
English (en)
Other versions
JP7208564B2 (ja
Inventor
喜昭 野田
Yoshiaki Noda
節夫 山田
Setsuo Yamada
隆明 長谷川
Takaaki Hasegawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JP2022043263A publication Critical patent/JP2022043263A/ja
Application granted granted Critical
Publication of JP7208564B2 publication Critical patent/JP7208564B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42221Conversation recording systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5175Call or contact centers supervision arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition

Abstract

【課題】適切な応対履歴を効率的に作成する応対履歴作成支援装置、応対履歴作成支援方法、プログラム及び表示装置を提供する。【解決手段】応対履歴作成支援装置1は、発話を示す発話データに対応して、発話の応対シーンを示す応対シーンデータ、発話の種別を示す発話種別、及び発話の発話要点情報を記憶する応対発話要点情報記憶部19と、応対発話要点情報記憶部19に記憶された応対シーンデータが示す応対シーン毎に発話データ、発話種別及び発話要点情報のいずれか1つ以上を表示装置に表示させる入出力部20と、を備える。入出力部20は、応対発話要点情報記憶部19に応対シーンデータが追加されると、表示装置に応対シーンの表示ブロックを表示させ、応対シーンに対応する発話を示す発話データを非表示で追加し、入出力部への操作に基づいて、追加された発話データを表示させる。【選択図】図1

Description

本発明は、応対履歴の作成を支援する応対履歴作成支援装置、応対履歴作成支援方法、プログラム、及び表示装置に関する。
従来、応対担当者(コールセンタのオペレータ、窓口の受付担当者等)は、応対時に顧客及び応対担当者がそれぞれ発した音声に音声認識処理を行うことによってテキスト化された発話を閲覧しながら応対後に一部の発話を転記することによって、応対履歴を作成していた。また、応対時における複数の発話から顧客の用件を示す発話(用件発話)、及び該用件を応対担当者が復唱し確認する発話(用件確認発話)を抽出し、抽出した用件発話及び用件確認発話を提示する方法が知られている。
また、非特許文献1には、コールセンタにおける顧客と応対担当者との対話における全ての発話から、応対の内容を特徴付ける単語又は発話を要点として抽出又は分類することが記載されている。
河村 誠司、外4名、「コールセンタにおけるAIの活用」、NTT技術ジャーナル、P.35-P.37、2016年2月
しかしながら、従来のように、音声に音声認識処理を行うことによってテキスト化された発話を利用して応対履歴を作成する場合、応対担当者は応対時における全ての発話に相当する大量のテキスト化された発話を参照することになる。そのため、応対担当者は、応対履歴の作成に多くの時間を要していた。
また、応対における発話のうち、用件を示す用件発話、及び用件の確認を示す用件確認発話を利用して応対履歴を作成する場合、自動生成では応対において生成された全ての発話のうち用件に関する部分しか提示できないため、十分に適切な応対履歴を作成できないことがあった。また、用件発話又は用件確認発話の抽出に誤りがあった場合に、提示された発話だけでは要約として要点を適切にカバーできないことがあった。
上記のような問題点に鑑みてなされた本発明の目的は、適切な応対履歴を効率的に作成することができる応対履歴作成支援装置、応対履歴作成支援方法、プログラム、及び表示装置を提供することにある。
上記課題を解決するため、本発明に係る応対履歴作成支援装置は、応対履歴の作成を支援する応対履歴作成支援装置であって、発話を示す発話データに対応して、前記発話の応対シーンを示す応対シーンデータ、前記発話の種別を示す発話種別、及び前記発話の発話要点情報を記憶する応対発話要点情報記憶部と、前記応対発話要点情報記憶部に記憶された前記応対シーンデータが示す前記応対シーン毎に前記発話データ、前記発話種別、及び前記発話要点情報のいずれか1つ以上を表示装置に表示させる入出力部と、を備え、前記入出力部は、前記応対発話要点情報記憶部に前記応対シーンデータが追加されると、前記表示装置に前記応対シーンの表示ブロックを追加して表示させ、前記応対シーンに対応する前記発話を示す前記発話データを非表示で追加し、前記入出力部への操作に基づいて、追加された前記発話データを表示させることを特徴とする。
また、本発明に係る応対履歴作成支援装置は、応対履歴の作成を支援する応対履歴作成支援装置であって、発話を示す発話データに対応して、前記発話の応対シーンを示す応対シーンデータ、前記発話の種別を示す発話種別、及び前記発話の発話要点情報を記憶する応対発話要点情報記憶部と、前記応対発話要点情報記憶部に記憶された前記応対シーンデータが示す前記応対シーン毎に前記発話データ、前記発話種別、及び前記発話要点情報のいずれか1つ以上を表示装置に表示させる入出力部と、前記発話の前記応対シーンを推定する応対シーン推定部と、前記応対シーンに基づいて前記発話の種別である発話種別を推定する発話種別推定部と、前記発話種別に基づいて前記発話の発話要点情報を抽出又は分類する発話内容抽出部と、を備えることを特徴とする。
また、上記課題を解決するため、本発明に係る応対履歴作成支援方法は、応対履歴の作成を支援する応対履歴作成支援装置における応対履歴作成支援方法であって、発話を示す発話データに対応して、前記発話の応対シーンを示す応対シーンデータ、前記発話の種別を示す発話種別、及び前記発話の発話要点情報を記憶するステップと、前記記憶された前記応対シーン毎に前記応対シーンデータに対応する前記発話データ、前記発話種別、及び前記発話要点情報のいずれか1つ以上を表示装置に表示させるステップと、前記応対シーンデータが追加されると、前記表示装置に前記応対シーンの表示ブロックを追加して表示させるステップと、前記応対シーンに対応する前記発話を示す前記発話データを非表示で追加し、操作に基づいて、追加された前記発話データを表示させるステップと、を含むことを特徴とする。
また、上記課題を解決するため、本発明に係る応対履歴作成支援方法は、応対履歴の作成を支援する応対履歴作成支援装置における応対履歴作成支援方法であって、発話を示す発話データに対応して、前記発話の応対シーンを示す応対シーンデータ、前記発話の種別を示す発話種別、及び前記発話の発話要点情報を記憶するステップと、前記応対シーンデータが示す前記応対シーン毎に前記発話データ、前記発話種別、及び前記発話要点情報のいずれか1つ以上を表示装置に表示させるステップと、前記発話の前記応対シーンを推定するステップと、前記応対シーンに基づいて前記発話の種別である発話種別を推定するステップと、前記発話種別に基づいて前記発話の発話要点情報を抽出又は分類するステップと、を含むことを特徴とする
また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記の応対履歴作成支援装置として機能させる。
また、上記課題を解決するため、本発明に係る表示装置は、入出力部を有し、前記入出力部は、予め定められた応対シーン毎の表示ブロックを設けて表示し、前記応対シーンの表示ブロックには、前記応対シーンと、予め前記応対シーンに対応して設定された発話データとを表示し、前記応対シーンが追加されると、当該応対シーンの表示ブロックを追加して表示し、当該応対シーンに対応する発話データを非表示で追加し、前記入出力部への操作に基づいて、追加された前記発話データを表示させることを特徴とする。
本発明に係る応対履歴作成支援装置、応対履歴作成支援方法、プログラム、及び表示装置によれば、適切な応対履歴を効率的に作成することができる。
本発明の一実施形態に係る応対履歴作成支援装置の構成例を示す機能ブロック図である。 顧客及び応対担当者による発話の例を示す図である。 音声認識単位の発話及び話し終わり単位の発話を示す図である。 音声認識単位の発話、話し終わり単位の発話、応対シーン、発話種別、及び発話要点情報の対応を示す図である。 話し終わり単位の発話に対応する発話種別及び発話要点情報の例を示す図である。 応対発話要点情報記憶部に記憶されている情報の例を示す図である。 入出力部によって応対発話ブラウザに表示される情報の第1例を示す図である。 入出力部によって応対発話ブラウザに表示される情報の第2例を示す図である。 入出力部によって応対発話ブラウザに表示される情報の第3例を示す図である。 入出力部によって応対発話ブラウザに表示される情報の第4例を示す図である。 入出力部によって応対発話ブラウザに表示される情報の第5例を示す図である。 入出力部によって応対発話ブラウザに表示される情報の第6例を示す図である。 入出力部によって応対発話ブラウザに表示される情報の第7例を示す図である。 図1に示す応対履歴作成支援装置が実行する応対履歴作成支援方法の一例を示すフローチャートである。 変形例における音声認識単位の発話、話し終わり単位の発話、応対シーン、発話種別、及び発話要点情報の対応を示す図である。 変形例において入出力部によって応対発話ブラウザに表示される情報の例を示す図である。
以下、本発明を実施するための形態について、図面を参照しながら説明する。
図1は、本発明の一実施形態に係る応対履歴作成支援装置1の構成例を示す機能ブロック図である。本実施形態に係る応対履歴作成支援装置1は、例えば、コールセンタにおける顧客と応対担当者との発話に基づいて応対履歴の作成を支援する。応対履歴作成支援装置1は、応対履歴を表示する表示装置でもある。また、応対履歴作成支援装置1は、応対履歴を編集する編集支援装置でもある。
図1に示す応対履歴作成支援装置1は、音声認識処理部10と、話し終わり判定モデル記憶部11と、話し終わり判定部12と、応対シーン推定モデル記憶部13と、応対シーン推定部14と、発話種別推定モデル記憶部15と、発話種別推定部16と、発話内容抽出モデル記憶部17と、発話内容抽出部18と、応対発話要点情報記憶部19と、入出力部20とを備える。
音声認識処理部10は、音声による発話を取得し、音声認識処理によって音声による発話をテキスト化した発話データに変換する。具体的には、音声認識処理部10は、音声による発話における所定時間以上の無音区間を検出することで、無音区間の間の有音区間の音声についての音声認識結果を音声認識単位の発話として取得する。ここで、音声認識処理部10は、音声による顧客の発話と応対担当者の発話とが異なる発話チャネル(2チャネル)で入力され、顧客の発話と応対担当者の発話とを区別して、音声認識を行う。
音声認識では、上述したように、無音区間が所定時間以上継続すると、前回の音声認識の処理単位の最後の発話後、その無音区間よりも前までの発話を1つの処理単位として音声認識が行われ、その処理単位で音声認識結果が出力される。また、音声認識では、上述した処理単位を確定するために設定される無音区間よりも短い所定時間だけ無音区間が継続すると、音声認識結果において、その無音区間に対応する位置に句読点が付与される。なお、句点が付与されるか、読点が付与されるかは、例えば、前後の文脈などから適宜、選択される。例えば、2013年に発行された文献(秋田 祐哉、河原 達也、「講演に対する読点の複数アノテーションに基づく自動挿入」、情報処理学会論文誌、1882-7765,No.54、Vol.2)には、音声認識結果への句読点の自動挿入方法が記載されている。具体的には、単語(出現形)、品詞、分節境界、直後の分節への係り受け情報、及びポーズなどの特徴に基づき、句読点を挿入する方法が記載されている。
コールセンタにおける対話の多くにおいては、顧客と応対担当者とは交互に発話を繰り返す。図2は、顧客と応対担当者との発話の例を示す図である。図2に示す例では、音声認識処理部10は発話♯11,14,17,19,21,23,25,26,29,32,33を応対担当者による発話として取得する。音声認識処理部10は、発話♯12,13,15,16,18,20,22,24,27,28,30,31を顧客による発話として取得する。
話し終わり判定モデル記憶部11は、対話における発話がテキスト化された文字列が句読点で分割された分割文字列に対応する発話、及び、連続する分割文字列を発話順に繋げた文字列に対応する発話に対して、話し終わりの発話であるか否かを示す情報(教師信号)が付与された学習データの学習により生成される話し終わり判定モデルを記憶する。
話し終わり判定部12は、顧客及び応対担当者のそれぞれの発話が話し終わりになったか、つまり話者が話したいことを言い切ったまとまりの発話が行われたかを判定する。具体的には、話し終わり判定部12は、音声認識処理部10によって変換された音声認識単位の発話データに含まれる、テキスト化された発話を示す文字列が句読点で分割された分割文字列に対応する発話、及び連続する分割文字列を発話順に繋げた文字列に対応する発話に対して、話し終わりの発話であるか否かを、話し終わり判定モデルを用いて判定する。そして、話し終わり判定部12は、話者の話し始めから話し終わりまでをひとつの単位とした話し終わり単位の発話を取得する。話し終わり判定部12は、話し終わり単位の発話を取得すると、その発話データ及びそれまでに蓄積していた発話データを発話順に応対シーン推定部14に出力する。
これにより、音声認識処理部10によって発話が細かく分断されたり、無音区間を含まずに多くの内容を含む発話が発せられたりした場合にも、話し終わり判定部12は、途切れ途切れになった音声認識結果の発話、及び複数の内容が含まれる長すぎる発話を、話者が話したいひとまとまりの単位に分割する。例えば、話し終わり判定部12は、図3に示すように、発話要点情報を抽出又は分類するのに要する長さに満たない「あのー、」、「先日、」、「息子が免許を取りまして、」、「息子が運転しても、」、及び「自動車保険の対象になるように変更をしたいのですが。」という音声認識単位の発話を「あのー、先日、息子が車の免許を取りまして、息子が運転しても、自動車保険の対象になるように変更をしたいのですが。」という話し終わり単位の発話として取得する。
また、話し終わり判定部12は、「ありがとうございます。本人確認が取れました。お調べしたところ、現在のご契約では35歳未満のご家族様では保険の対象外となっております。お子様が事故をおこされた場合は、保険料が支払われないという事になってしますが、年齢制限の変更を行いますか?」という発話要点情報を抽出又は分類するのに適切な長さを超えている音声認識単位の発話を「ありがとうございます。」、「本人確認が取れました。」、「お調べしたところ、現在のご契約では35歳未満のご家族様では保険の対象外となっております。」、及び「お子様が事故をおこされた場合は、保険料が支払われないという事になってしますが、年齢制限の変更を行いますか?」という話し終わり単位の発話を取得する。
上述したように、多くの場合において、顧客と応対担当者は互いに相手の発話に対して、自分の発話を行い、それが繰り返されるため、話し終わり判定部12は、1つの対話において複数の話し終わり単位の発話を取得する。
応対シーン推定モデル記憶部13は、発話と応対シーンとの対応を学習することによって生成された応対シーン推定モデルを記憶する。応対シーンとは、対話における場面であり、例えば、最初の挨拶などの「オープニング」、問い合わせ内容の把握である「問い合わせ把握」、顧客が契約者本人であること及び契約内容を確認する「契約確認」、把握した内容について顧客へ回答及び対応する「対応」、並びに最後の挨拶等の「クロージング」を含む。学習には、例えば、サポートベクターマシン(SVM)やディープニューラルネット(DNN)を用いることができる。
応対シーン推定部14は、話し終わり判定部12によって話し終わり単位の発話が取得されると、応対シーン推定モデルに基づいて発話の応対シーンを推定する。
図4に示す例では、応対シーン推定部14は、「お待たせいたしました。○○コールセンタ、担当の○○です。」という発話の応対シーンが「オープニング」であると推定し、「あのー、先日、息子が車の免許を取りまして」という発話の応対シーンが「問い合わせ把握」であると推定する。
発話種別推定モデル記憶部15は、発話の内容と、発話の種別である発話種別との対応を学習することによって生成された発話種別推定モデルを記憶する。発話種別推定モデルには、例えば、用件発話推定モデル、用件確認発話推定モデル、主題発話推定モデル、及び対応発話推定モデルなどが含まれる。発話種別推定モデル記憶部15は、予め定められた、発話と発話種別との対応を示すルールを記憶してもよい。
発話種別推定部16は、応対シーンの推定結果も活用して発話の発話種別を推定する。具体的には、発話種別推定部16は、話し終わり単位毎に発話種別推定モデルに含まれる各モデルに基づいて発話種別を推定する。発話種別推定部16は、発話種別推定モデル記憶部15に記憶されたルールを用いて、発話種別を推定してもよい。
図4に示したように、例えば、ある話し終わり単位の発話の応対シーンが「問い合わせ把握」である場合、発話種別推定部16は、主題発話推定モデルを用いて、その発話の発話種別が「主題発話」であるか否かを推定し、用件発話推定モデルを用いて、発話種別が「用件発話」であるか否かを推定し、用件確認発話モデルを用いて、発話種別が「用件確認発話」であるか否かを推定する。「主題発話」とは、何の話題について話をするのかの情報を含む発話である。「用件発話」とは、対話における用件を示す発話であり、顧客と応対担当者との対話においては顧客によって発せられる発話である。「用件確認発話」とは、対話における用件の確認を示す発話であり、顧客と応対担当者との対話においては応対担当者によって発せられる発話である。
例えば、応対シーンが「対応」である場合、発話種別推定部16は、対応発話推定モデルを用いて、発話種別が「対応発話」であるか否かを推定する。「対応発話」とは、用件に対する応対担当者の対応を示す発話である。発話種別推定部16は、予め定めた設定に応じて所定の応対シーンの発話の発話種別を推定しなくてもよい。例えば、応対シーンが「対応」である場合、発話種別推定部16は、発話種別を推定しなくてもよい。このため、図4においては、発話種別における「対応発話」は実線ではなく、破線のブロックで囲まれている。
例えば、応対シーンが「オープニング」、「契約確認」、又は「クロージング」である場合、発話種別推定部16は、発話種別を推定しない。
発話内容抽出モデル記憶部17は、発話と発話要点情報との対応を学習することによって生成された発話内容抽出モデルを記憶する。発話内容抽出モデルには、例えば、用件抽出・分類モデル、主題抽出・分類モデル、及び対応抽出・分類モデルなどが含まれる。発話内容抽出モデル記憶部22は、予め定められた、発話と発話要点情報との対応を示すルールを記憶してもよい。
図4に示したように、発話内容抽出部18は、発話種別推定部16によって推定された発話種別に基づいて、発話から発話要点情報を抽出又は分類する。「発話要点情報を抽出する」とは、発話から該発話の主な内容を示す発話要点情報を抽出することである。「発話要点情報を分類する」とは、発話から、該発話の主な内容を示す、予め分類されたいくつかの発話要点情報のうちのいずれかに分類することである。発話内容抽出部18は、発話内容抽出モデル記憶部22に記憶されたルールを用いて、発話要点情報を抽出又は分類してもよい。
発話内容抽出部18は、発話種別が「主題発話」である場合、主題抽出・分類モデルを用いて、発話から発話要点情報として「主題」を抽出又は分類し、発話種別が「用件発話」又は「用件確認発話」である場合、用件抽出・分類モデルを用いて、発話から発話要点情報として「用件」を抽出又は分類し、発話種別が「対応発話」である場合、対応抽出・分類モデルを用いて、発話から発話要点情報として「対応」を抽出又は分類する。
なお、上述のように、発話種別推定部16が発話種別を推定しない場合、発話内容抽出部18は、発話要点情報を抽出も分類のために発話種別推定によって発話を絞り込まない。図4に示す例では、発話種別推定部16は応対シーンが「対応」である発話の発話種別を推定しなくてもよい。この場合、発話内容抽出部18は、応対シーンが「対応」であるブロックに含まれる全ての発話から発話要点情報の抽出または分類を行う。
また、発話内容抽出部18は、所定の発話種別であると推定された発話の全てを発話要点情報として抽出又は分類してもよい。図4に示す例では、発話内容抽出部18は発話種別が「用件発話」又は「用件確認発話」であると推定された発話の全てを発話要点情報として抽出又は分類する。このため、図4においては、発話要点情報における「用件」は実線ではなく、破線のブロックで囲まれている。
図5に示す例では、「そちらの自動車保険に入ってまして、その自動車保険について聞きたいのですが。」という発話が主題発話であると推定されている。この場合、発話内容抽出部18は、主題発話内容抽出モデルを用いて、発話から「自動車保険」を発話要点情報である「主題」として抽出又は分類する。
また、「息子が運転しても、自動車保険の対象になるように変更をしたいのですが。」という発話が「用件発話」であると推定され、「新しく免許を取られた息子さんを自動車保険の対象にしたいという事で、よろしいでしょうか。」という発話が「用件確認発話」であると推定されている。この場合、発話内容抽出部18は、用件発話内容抽出モデルを用いて、これらの発話から「変更したい」を発話要点情報である「用件」として抽出又は分類する。
また、「お調べしたところ、現在のご契約では35歳未満のご家族様では保険の対象外となっております。」、「このお電話で変更が可能です。毎月の保険料が4000円ほど高くなりまして、8320円となりますが、よろしいでしょうか?」、及び「変更を承りました。」という発話が「対応発話」であると推定されている。この場合、発話内容抽出部18は、これらの発話から対応発話内容抽出モデルを用いて、「変更対応」を発話要点情報である「対応」として抽出又は分類する。
応対発話要点情報記憶部19は、応対発話データを記憶する。応対発話データのデータ構造は、話し終わり単位の発話を示す発話データ、該発話の応対シーンを示す応対シーンデータ、及び該発話の発話種別、及び該発話の発話要点情報を含む。具体的には、図6に示すように、データ構造は、音声認識単位の発話データ、発話チャネル、音声認識発話ID、話し終わり単位ID、応対シーンデータ、発話種別、及び発話要点情報を記憶する。発話チャネルは、発話の内容が複数の話者のうちいずれの話者が発した発話であるかを示す。音声認識発話IDは、音声認識処理部10によって認識された単位での発話を識別するための識別子である。話し終わり単位IDは、話し終わり判定部12によって判定された話し終わりの単位での発話を識別するための識別子である。話し終わり単位の発話が複数の音声認識単位の発話を含む場合、同一の話し終わり単位の発話に含まれる各音声認識単位の発話には同一の話し終わり単位IDが対応付けて記憶される。
また、応対発話要点情報記憶部19は、応対シーン推定部14によって発話の応対シーンが推定されると、応対シーンデータを話し終わり単位の発話データに対応付けて記憶する。また、応対発話要点情報記憶部19は、発話種別推定部16によって発話の発話種別が推定されると、発話種別を話し終わり単位の発話データに対応付けて記憶する。また、応対発話要点情報記憶部19は、発話内容抽出部18によって発話の発話要点情報が抽出又は分類されると、抽出又は分類された発話要点情報を話し終わり単位の発話データに対応付けて記憶する。例えば、応対発話要点情報記憶部19は、話し終わり単位の発話に含まれる複数の音声認識単位の発話のうち、最後に発せられた発話を示す発話データに対応付けて応対シーンデータ、発話種別、及び発話要点情報を記憶することによって、発話要点情報を話し終わり単位の発話データに対応付けて記憶してもよい。
また、応対発話要点情報記憶部19に記憶されている応対シーン、発話種別、発話要点情報は、入出力部20によって受け付けた応対担当者の操作により変更、追加、又は削除されてもよい。応対発話要点情報記憶部19は、音声認識処理部10による音声認識の対象となった音声データを発話データに対応付けて記憶してもよい。
入出力部20は、応対発話要点情報記憶部19に記憶されている応対シーンデータ、発話種別データ、発話要点情報、及び発話データを含む応対履歴を応対発話ブラウザに表示する。応対発話ブラウザは、応対履歴作成支援装置1に通信回線を介して接続されているディスプレイ等の表示装置に表示される、応対履歴等を示すためのウィンドウである。
具体的には、入出力部20は、応対シーン毎に発話、発話種別、及び発話要点情報のいずれか1つ以上を表示装置に表示させる。さらに具体的には、入出力部20は、応対シーン推定部14によって応対シーンが推定され、応対発話要点情報記憶部19に応対シーンデータが記憶されると、応対発話ブラウザに該応対シーンの表示ブロックを表示する。応対シーンの表示ブロックとは、応対シーンに関する情報を表示する応対発話ブラウザ内の領域である。
例えば、応対シーン推定部14によって推定された応対シーンが以前に推定された応対シーンとは異なる新たな応対シーンである場合、入出力部20は、新たな応対シーンの表示ブロックを応対発話ブラウザに表示し、該表示ブロック内に応対シーンに対応する発話データを非表示で追加する。応対シーン推定部14によって推定された応対シーンが以前に推定された応対シーンと同じである場合、入出力部20は、既に応対発話ブラウザに表示されている表示ブロックに応対シーンに対応する話し終わり単位の発話データを非表示で追加する。なお、応対シーン内に発話が追加される際に非表示とするか表示とするかは、設定により切り替え可能であり、入出力部20は、該設定に基づいて応対シーン毎の表示ブロック内において話し終わり単位の発話データを抽出する度に発話データを表示あるいは非表示とする。また、入出力部20は、応対シーンの表示ブロック内に該応対シーンに対応する発話種別のいずれかから抽出又は分類された発話要点情報を表示する。例えば、入出力部20は、発話種別推定部16によって発話種別が推定され、発話内容抽出部18によって発話種別に該当すると推定された発話から発話要点情報が抽出又は分類されると、応対シーンに対応する発話種別と推定された発話から抽出又は分類された発話要点情報を表示ブロック内に表示する。
例えば、応対履歴作成支援装置1である表示装置は、対話の内容を示す対話情報および対話情報から抽出された情報を表示する。入出力部20は、予め定められた応対シーン毎の表示ブロックを設けて表示し、応対シーン毎の表示ブロックには、応対シーンと予め応対シーンに対応して設定された発話種別と発話種別に対応するとされた発話要点情報を表示する。図7から図12に示す例では、発話種別は、「主題」、「用件」、「氏名」、「住所」、「連絡先」、「対応」である。また、入出力部20は、応対シーンに対応した発話を応対シーン名毎の表示ブロックにおいて、応対シーン又は発話種別と関連付けて表示する。
さらに、応対履歴作成支援装置1は、表示装置と応対発話要点情報記憶部19とを備える編集装置であってもよい。編集装置は、表示装置と、応対シーンに対応した発話について、発話の応対シーンの変更、削除、又は追加操作、発話種別の変更、削除、又は追加操作、発話種別に対応する発話要点情報の変更、削除、又は追加操作のいずれか1つ以上を可能とする応対発話要点情報記憶部と、を備える。
図7に示す例では、入出力部20は、応対シーン「問い合わせ把握」の表示ブロック内に発話種別である「主題」又は「用件」に対応して、抽出又は分類された発話要点情報を表示し、応対シーン「契約確認」の表示ブロック内に発話種別である「氏名」、「住所」、又は「連絡先」に対応して抽出又は分類された発話要点情報を表示する。応対シーン内の発話種別は、対応する発話要点情報が抽出又は分類されていない場合でも表示しておいてもよい。例えば、入出力部20は、応対発話要点情報記憶部19に応対シーンに対応する発話が記憶されていない場合、該応対シーンの表示ブロックにおいて、発話種別を表示し、該発話種別に対応する発話及び発話要点情報の表示欄を空欄として表示してよい。
また、入出力部20は、応対担当者による操作を受け付け、該操作に基づいて応対シーンデータ、発話種別、発話要点情報、及び発話データを応対発話ブラウザに表示する。また、入出力部20が応対担当者による操作を受け付けると、応対発話要点情報記憶部19は、該操作に基づいて、記憶している情報を追加、削除、又は変更してもよい。
具体的には、応対発話要点情報記憶部19は、表示されている情報の一部を、応対担当者の操作に基づいて削除してもよい。例えば、応対担当者が図7に示した「×」ボタンをクリックすると、応対発話要点情報記憶部19は、クリックされた「×」ボタンに隣接して表示されている発話、主題発話、又は要点発話情報を削除してもよい。これに伴い、入出力部20は、クリックされた「×」ボタンに隣接して表示されている発話、主題発話、又は要点発話情報を表示しなくなる。
また、入出力部20は、応対担当者の操作に基づいて応対シーンに含まれる発話要点情報を追加して表示してもよい。例えば、応対担当者が図7に示す「要点追加」ボタンをクリックすると、入出力部20は、図8に示すように「要点追加」ボタンに重畳して、追加する発話要点情報に対応する発話種別を選択するための「主題」ボタン及び「用件」ボタンを表示する。また、応対担当者が「要点追加」ボタンに重畳して表示されたボタンのいずれかを選択すると、選択されたボタンが示す発話種別に対応する発話要点情報の入力欄を表示する。図8に示した例では、応対担当者が、応対シーン「問い合わせ把握」の表示ブロック内の「要点追加」ボタンに重畳して表示された、発話種別を選択するためのボタンのうち「主題」ボタンを選択すると、入出力部20は、応対シーン「問い合わせ把握」の表示ブロックの最下段に新たに「主題」を入力する欄を表示する。また、応対担当者が「主題」の内容を入力すると、入出力部20は、入力された「主題」の内容を受け付け、応対発話要点情報記憶部19が応対シーンデータに対応付けて記憶する。このとき、応対担当者が発話をクリックすると、応対発話要点情報記憶部19は、その発話が「主題発話」である事の対応付けと、入力された「主題」の内容とクリックされた発話とを対応付けを記憶する。また、応対担当者の操作に基づいて発話要点情報が追加した場合、発話内容抽出モデル記憶部17によって記憶されている発話内容抽出モデルは、発話と、追加された発話種別や発話要点情報との対応を含む教師データに基づいて更新される。
また、入出力部20は、応対担当者の操作に基づいて応対シーン毎に発話の内容を表示してもよい。例えば、応対担当者が図7に示した応対シーンに隣接する「+」ボタンをクリックすると、入出力部28は、図9に示すようにクリックされた「+」ボタンに隣接する応対シーンに対応する発話データを表示する。このとき、入出力部20は、話し終わり単位で発話を吹き出しにより囲って表示してもよい。また、入出力部20は、発話データを表示させると、該発話データに対応する応対シーンに隣接した「+」ボタンに代えて「-」ボタンを表示させる。応対担当者が「-」ボタンをクリックすると、入出力部20は発話を非表示とする。
また、入出力部20は、応対担当者の操作に基づき、発話を示す音声を出力してもよい。例えば、応対担当者が図9に示した三角形状のボタンをクリックすると、入出力部20は、クリックされた三角形状のボタンに隣接して表示されている発話に対応して応対発話要点情報記憶部19に記憶されている音声データを音声により出力する。
また、入出力部20は、発話種別として推定された発話を、他の発話とは異なる表示態様で表示してもよい。例えば、応対担当者が図7に示した応対シーン「問い合わせ把握」の表示ブロックに表示された発話要点情報である「主題」に隣接する「+」ボタンをクリックすると、入出力部20は、図10に示すように、「主題」に対応する応対シーン「問い合わせ把握」の発話データを表示する。このとき、入出力部20は、表示された発話データのうち、発話種別として主題発話と推定された発話データに、図10では点線の斜線で示すような、該発話ではない発話とは異なる背景色(所定背景色)を付して表示する。
上述したように、主題が抽出又は分類された発話は、発話種別推定部16によって「主題発話」であると推定された発話である。例えば、発話種別推定部16による推定が誤っているために、応対担当者が、主題発話でないと認識する発話データに所定背景色が付されていることがある。この場合、応対担当者は、主題発話でないと認識する発話データに付された所定背景色を除くための操作を行うことができる。例えば、応対担当者が所定背景色の付された発話をクリック(第1クリック)すると、入出力部20は、該発話に所定背景色を付さずに表示する。第1クリックは、予め定められた様式でのクリックであり、例えば、左クリック、右クリック、ダブルクリックのいずれかである。
また、応対担当者の操作に基づいて所定背景色が付されなくなった場合、応対発話要点情報記憶部19は、応対担当者の操作によって所定背景色が付されなくなった発話データに対応して記憶されている発話種別を削除してもよい。また、応対担当者の操作に基づいて所定背景色が付されなくなった場合、発話種別推定モデル記憶部15によって記憶されている発話種別推定モデルは、発話と、該発話の発話種別が対応しないことを示す教師データに基づいて更新される。
また、発話種別推定部16による推定が誤っているために、応対担当者が、主題発話であると認識する発話データに所定背景色が付されていないことがある。この場合、応対担当者は、主題発話であると認識する発話データに所定背景色を付すための操作を行うことができる。例えば、応対担当者が所定背景色の付されていない発話をクリックすると、入出力部20は、該発話に所定背景色を付して表示する。
応対担当者の操作に基づいて所定背景色が付された場合、応対発話要点情報記憶部19は、応対担当者の操作によって所定背景色が付された発話データに対応付けて発話種別を追加してもよい。また、応対担当者の操作に基づいて所定背景色が付された場合、発話種別推定モデル記憶部15によって記憶されている発話種別推定モデルは、発話と、該発話の発話種別が対応することを示す教師データに基づいて更新される。
また、例えば、応対担当者が図7に示した応対シーン「問い合わせ把握」の表示ブロックに表示された発話要点情報である「用件」に隣接する「+」ボタンをクリックすると、入出力部20は、応対シーン「問い合わせ把握」において用件が抽出又は分類された発話を示す発話データに所定背景色を付して表示する。具体的には、応対担当者が図7に示した「用件」に隣接する「+」ボタンをクリックすると、入出力部20は、例えば図11に示すように「用件」に対応する応対シーン「問い合わせ把握」の発話データを表示する。このとき、入出力部20は、表示された発話データのうち、発話要点情報として「用件」が抽出又は分類された発話データに、図11では点線の斜線で示すような、他の発話とは異なる背景色(所定背景色)を付して表示する。
上述したように、発話要点情報として「用件」が抽出又は分類された発話は、発話種別推定部16によって発話種別が「用件発話」又は「用件確認発話」であると推定された発話である。例えば、発話種別推定部16による推定が誤っているために、応対担当者が、用件発話でも用件確認発話でもないと認識する発話に所定背景色が付されていることがある。この場合、入出力部20は、応対担当者の操作に基づいて、「用件発話」でも「用件確認発話」でもないと応対担当者に認識される発話に付された所定背景色を除くための操作を行うことができる。例えば、応対担当者が所定背景色の付された発話をクリックすると、入出力部20は、該発話に所定背景色を付さずに表示する。
また、応対担当者の操作に基づいて所定背景色が付されなくなった場合、応対発話要点情報記憶部19は、応対担当者の操作によって所定背景色が付されなくなった発話データに対応して記憶されている発話種別を削除してもよい。また、応対担当者の操作に基づいて所定背景色が付されなくなった場合、発話種別推定モデル記憶部15によって記憶されている発話種別推定モデルは、発話と、該発話の発話種別が対応しないことを示す教師データに基づいて更新される。
また、発話種別推定部16による推定が誤っているために、応対担当者が、用件発話又は用件確認発話であると認識する発話に所定背景色が付されていないことがある。この場合、入出力部20は、応対担当者の操作に基づいて、「用件発話」又は「用件確認発話」であると応対担当者に認識される発話に所定背景色を付すための操作を行うことができる。例えば、応対担当者が所定背景色の付されていない発話をクリックすると、入出力部20は、該発話に所定背景色を付して表示する。
また、応対担当者の操作に基づいて所定背景色が付された場合、応対発話要点情報記憶部19は、応対担当者の操作によって所定背景色が付された発話データに対応して記憶する発話種別を追加してもよい。また、応対担当者の操作に基づいて所定背景色が付された場合、発話種別推定モデル記憶部15によって記憶されている発話種別推定モデルは、発話と、該発話の発話種別が対応することを示す教師データに基づいて更新される。
上述したように、応対シーン推定部14によって各発話の応対シーンが推定されると、入出力部20は、応対シーン毎の表示ブロックに対応する発話データを表示する。しかし、応対シーン推定部14による応対シーンの推定が誤っていることがある。これにより、応対担当者が認識する発話の応対シーンとは異なる応対シーンの表示ブロック内に発話データが表示されることがある。この場合、入出力部20は、応対担当者の操作に基づいて、応対担当者が認識する応対シーンの表示ブロック内に発話データを表示させることができる。例えば、図12に示すように、応対担当者が発話データをクリック(第2クリック)すると、入出力部20は応対シーンの一覧を発話に重畳して表示させる。第2クリックは、予め定められた、第1クリックとは異なる様式のクリックである。そして、応対担当者がいずれかの応対シーンを選択すると、入出力部20は、選択された応対シーンの表示ブロック内に発話データを表示させる。
また、応対担当者の操作に基づいて発話の応対シーンが変更された場合、応対発話要点情報記憶部19は、発話データに対応して記憶されている応対シーンデータを応対担当者によって選択された応対シーンを示す応対シーンデータに変更して記憶する。このとき、応対発話要点情報記憶部19に発話データに対応して既に記憶されている、該発話データに対応する発話種別や要点を削除することもある。また、応対担当者の操作に基づいて発話の応対シーンが変更された場合、応対シーン推定モデル記憶部13によって記憶されている応対シーン推定モデルは、発話と、変更された応対シーンとの対応を含む教師データに基づいて更新される。また、応対シーン推定モデルが更新されると、応対シーン推定部14は、更新された応対シーン推定モデルを用いて該発話の応対シーンを再び推定し、発話種別推定部16は、推定された応対シーンを利用して該発話の発話種別を再び推定してもよい。
図12に示した例において、応対担当者は応対シーン「問い合わせ把握」の表示ブロック内に表示されている1つ目の発話データをクリックし、表示された応対シーンのうち「オープニング」を選択したとする。この場合、入出力部20は、応対担当者によってクリックされた発話データを、応対シーン「問い合わせ把握」の表示ブロックではなく、応対シーン「オープニング」の表示ブロックに表示する。
また、例えば、応対担当者は、応対シーン「問い合わせ把握」の表示ブロック内に表示されている1つ目の発話データをクリックし、表示された応対シーンのうち「契約確認」を選択したとする。この場合、入出力部20は、「問い合わせ把握」の表示ブロックの上に応対シーン「契約確認」の表示ブロックを新たに表示し、該表示ブロック内にクリックした発話データを表示する。
また、例えば、応対担当者は、応対シーン「問い合わせ把握」の表示ブロック内に表示されている上から3つ目の発話データをクリックし、表示された応対シーンのうち「対応」を選択したとする。この場合、入出力部20は、「問い合わせ把握」の表示ブロック内に表示されている上の2つの発話データの発話データを「問い合わせ把握」の表示ブロック内に引き続き表示する。また、入出力部20は、「問い合わせ把握」の表示ブロックの下に「対応」の表示ブロックを新たに表示し、該表示ブロック内にクリックされた発話データを表示する。さらに、入出力部20は、新たに表示した「対応」の表示ブロックのさらに「問い合わせ把握」の表示ブロックを表示し、該表示ブロック内にクリックされた発話データより下に表示されていた発話データを表示する。
なお、上述したように、発話種別推定部16は、「対応発話」を細かく抽出しない場合には、応対シーン推定部14によって応対シーンが「対応」であると推定された全ての発話の発話種別を「対応発話」と推定してもよい。この場合、発話内容抽出部18は、応対シーンが「対応」と推定された全ての発話から発話要点情報を抽出又は分類することとなる。例えば、発話内容抽出部18は、応対シーンが「対応」であると推定された発話から余剰語を削除するフィルターを通して、余剰語以外の全ての発話を抽出してもよい。余剰語とは、予め定められた対話の内容を把握するために必要でない言葉であり、例えば、「はい」、「えー」等が含まれる。
したがって、図13に示すように、入出力部20は、応対シーン「対応」に対応する発話を示す発話データのいずれにも、発話要点情報が抽出又は分類された発話として対応発話であることを示す所定背景色を付すこととなる。また、入出力部20は、発話種別の推定を行わない場合、応対シーンの表示ブロックに、該応対シーンの発話を示す発話データの全てを発話要点情報として表示させてもよいし、上述したように余剰語だけを削除しても良い。また、応対シーンに発話要点情報として表示された全ての発話データは、応対担当者の操作によって追加、変更、又は削除されることが可能である。応対発話要点情報記憶部19は、応対担当者の操作によって追加又は変更された発話要点情報としての発話を記憶し、削除された発話要点情報としての発話を記憶しないことができる。このように一部分の追加、変更、修正で済むことができるため、応対担当者が応対履歴を入力する作業が削減され、効率的に応対履歴が作成される。
次に、本実施形態に係る応対履歴作成支援装置1が実行する応対履歴作成支援方法について、図14に示すフローチャートを参照して説明する。図14は、応対履歴作成支援装置1が実行する応対履歴作成支援方法の一例を示すフローチャートである。
まず、音声認識処理部10により、話者の発話を音声で取得し、該音声に音声認識処理を行って文字情報で示される、音声認識単位の発話に変換する(ステップS11)。
話し終わり判定部12により、音声認識処理部10によって変換された音声認識単位の発話における話し終わりを判定する。話し終わり判定部12は、発話から話し始めから話し終わりまでをひとつの単位とした話し終わり単位の発話を取得する。(ステップS12)。
応対シーン推定部14により、話し終わり単位の発話毎に応対シーンを推定する(ステップS13)。
応対シーン推定部14により、ステップS13で推定された応対シーンが既に推定された応対シーンから変わっているか否かを判定する(ステップS14)。
ステップS14で応対シーンが変わっていると判定されると、入出力部20により、ステップS13で推定された応対シーンの表示ブロックを応対発話ブラウザに追加して表示する(ステップS15)。
ステップS14で応対シーンが変わっていないと判定されると、あるいは、ステップS15で応対シーンの表示ブロックが追加して表示されると、入出力部20により、応対シーンの表示ブロック内に該応対シーンに対応する発話を示す発話データを非表示で追加する(ステップS16)。
発話種別推定部16により、話し終わり単位毎に発話種別を推定する(ステップS17)。発話種別推定部16により、ステップS13で推定された応対シーンを活用して、発話種別を推定してもよい。
発話内容抽出部18により、発話種別推定部16によって推定された発話種別に基づいて発話から発話要点情報を抽出又は分類する(ステップS18)。
次に、発話内容抽出部18により、ステップS18で発話が抽出又は分類されたか否かを判定する(ステップS19)。
ステップS19で発話要点情報が抽出又は分類されたと判定されると、入出力部20により、応対発話ブラウザに表示されている応対シーンの表示ブロック内に発話要点情報を追加して表示する(ステップS20)。
発話内容抽出部18により、全ての発話について発話要点情報を抽出又は分類するための処理が終了したか否かを判定する(ステップS21)。
ステップS21で、全ての話し終わり単位の発話について発話要点情報を抽出又は分類するための処理が終了したと判定されると、応対履歴作成支援装置1は処理を終了する。全ての発話について発話要点情報を抽出又は分類するための処理が終了していないと判定されると、応対履歴作成支援装置1はステップS11に戻って処理を繰り返す。
以上説明したように、本実施形態において、応対履歴作成支援装置1は、発話の応対シーンを推定し、推定した応対シーンを利用して発話の発話種別を推定する。また、応対履歴作成支援装置1は、発話種別として推定された発話から発話要点情報を抽出又は分類し、該発話の応対シーンのブロック内に発話要点情報を表示する。このため、応対担当者は、顧客への応対の進行とともに応対発話ブラウザに表示された発話要点情報をリアルタイムに参照することができる。したがって、応対担当者は、自身の応対における大きな話の流れを確認しながら適切に顧客への応対を行うことができる。
また、本実施形態において、応対履歴作成支援装置1は、応対シーンが推定されると、表示装置に応対シーンの表示ブロックを表示させ、表示ブロック内に発話種別、発話要点情報を表示させる。このため、応対担当者は、顧客への応対の進行とともに応対シーンが遷移するたびに、応対シーン毎にコンパクトに表示された発話要点情報をリアルタイムに参照することができる。したがって、応対担当者は、自身の応対内容における大きな話の流れを応対シーン毎に迅速に確認できるため、適切に顧客への応対を行うことができる。
また、本実施形態において、応対履歴作成支援装置1は、発話の応対シーンが推定されると、応対シーンの表示ブロック内に発話データを非表示で追加し、応対担当者の操作に基づいて発話データを表示させる。このため、応対担当者は応対の全体における概要を応対発話ブラウザで一覧することができるとともに、所望の応対シーンに対して詳細を確認する必要がある場合に発話データを参照することができる。したがって、応対担当者は、自身にとって必要な情報を適切に把握することができる。
また、本実施形態において、応対履歴作成支援装置1は、発話データ、発話の応対シーンデータ、及び発話の発話種別、発話要点情報を対応付けて記憶する。そして、応対履歴作成支援装置1は、操作を受け付けて、該操作に基づいて応対シーンデータ、発話種別、又は発話要点情報を追加、変更、又は削除する。上述のように、応対シーンは学習によって生成された応対シーン推定モデルを用いて推定される。また、発話種別は学習によって生成された発話種別推定モデル又はルールを用いて推定される。また、発話要点情報は学習によって生成された発話内容抽出モデル又はルールを用いて抽出又は分類される。このため、推定された応対シーン及び発話種別、抽出又は分類された発話要点情報は、応対担当者が認識する応対シーン、発話種別、又は発話要点情報とは異なる場合がある。したがって、応対履歴作成支援装置1は、例えば応対担当者の操作に基づいて応対シーンデータ、発話種別、及び発話要点情報を追加、変更、又は削除することによって、各発話を示す発話データに対応して記憶される応対シーンデータ、発話種別及び発話要点情報の正確性が向上する。さらに、追加、変更、又は削除された応対シーンデータ、発話種別及び発話要点情報と発話データとの対応を示す教師データに基づいて、応対シーン推定モデル、発話種別推定モデル、及び発話内容抽出モデルが更新されるため、応対履歴作成支援装置1の利用が繰り返されるたびに、応対シーンの推定、発話種別の推定、及び発話内容抽出の抽出・分類の精度を向上させることができる。
従来、応対担当者は、応対履歴を作成するために、応対担当者の操作画面で、用件や対応についてプルダウンでメニューを選択したり、自由記入欄に要約文を記入したりしていた。しかし、プルダウンでのメニューの選択では、選択そのものの作業は少なく、応対担当者に寄らず統一的に応対を分類できるが、応対履歴としての情報は少ない。一方、自由記入欄への記入では、応対担当者が作成した要約文を記入できるだめ、必要な発話要点情報を記憶することが可能であるが、記載の粒度は応対担当者毎に異なる。本実施形態では、上記したような応対履歴の表示に、プルダウンメニューの選択及び自由記入を組み合わせてもよい。また、応対発話要点情報記憶部19に記憶された応対記録データを基にプルダウンのメニューを自動で選択したり、選択するための候補を自動的に絞り込んだりすることもできる。自由記入欄への入力に対しては、応対担当者が、入出力部20によって応対発話ブラウザに表示された内容を転記することによって、応対履歴を作成することもできる。
また、本実施形態における応対履歴作成支援装置1は、上述したように、情報量を保ちながら、応対シーン、発話種別、発話要点情報と合わせて詳細な情報を表示するため、従来のような応対における音声を録音した通録装置から発話を聞き取る方法、及び音声認識結果によってテキスト化された発話を閲覧する方法に比べて、応対対担当者は、応対の内容の全体像、及び会話の流れを簡単に把握できる。したがって、応対担当者は、短い時間で応対内容を把握することができる。
実施形態では特に触れていないが、応対履歴作成支援装置1として機能するコンピュータが行う各処理を実行するためのプログラムが提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記憶されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにインストールすることが可能である。ここで、プログラムが記憶されたコンピュータ読取り可能媒体は、非一過性の記憶媒体であってもよい。非一過性の記憶媒体は、特に限定されるものではないが、例えば、CD-ROMあるいはDVD-ROMなどの記憶媒体であってもよい。
また、本実施形態の応対履歴作成支援装置1において、別形態の応対にも対応する事ができる。例えば、顧客が自動車事故を起こした際に、自動車保険会社のコールセンタのオペレータが事故を起こした顧客に、怪我の状況や事故が起こった状況、既に自動車の修正を行っているかなどの確認を行い、過失の割合、自動車保険の適用について、顧客と電話で確認する応対がある。この場合は、前述の事例のように顧客から用件を受けて答えるという応対の形式ではないが、図15に示すように「怪我把握」、「事故状況把握」、「飲酒運転」、「修理状況確認」、「保険料アップ確認」等の応対シーンを定義することで、対応が可能である。この場合、応対シーン推定部14は、それぞれの応対シーンを推定するためのモデルを用いて、「怪我把握」、「事故状況把握」、「飲酒運転」、「修理状況確認」、「保険料アップ確認」等の応対シーンを推定してもよい。
この場合、発話種別推定部16は、応対シーンが「怪我把握」であると推定された発話の発話種別が「怪我確認発話」であるか否かを推定し、応対シーンが「飲酒確認」であると推定された発話の発話種別が「飲酒確認発話」であるか否かを推定し、応対シーンが「修理状況確認」であると推定された発話の発話種別が「修理確認発話」であるか否かを推定し、応対シーンが「保険料アップ確認」であると推定された発話の発話種別が「保険料確認発話」であるか否かを推定してもよい。
さらに、発話内容抽出部18は、発話種別が「怪我確認発話」であると推定された発話から「怪我有無」又は「怪我の部位」の発話要点情報を抽出又は分類し、発話種別が「飲酒確認発話」であると推定された発話から「飲酒有無」の発話要点情報を抽出又は分類し、発話種別が「修理確認発話」であると推定された発話から「修理有無」及び「修理工場」の発話要点情報をそれぞれ抽出又は分類してもよい。
また、本実施形態の応対履歴作成支援装置1において、応対担当者が対話の内容をさらに効率的に把握するために、入出力部20は、発話内容抽出部18によって抽出又は分類された発話要点情報を対応する応対シーンの表示ブロック内に表示してもよい。例えば、図16に示すように、入出力部20は、応対シーン「怪我把握」の表示ブロック内に、発話内容抽出部18によって抽出又は分類された発話要点情報である「怪我有無」を表示してもよい。
また、本実施形態において、応対履歴作成支援装置1は、音声認識処理部10を備えなくてもよい。この場合、話し終わり判定部12は、応対履歴作成支援装置1とは異なる不図示の音声認識処理装置から音声認識単位の発話を取得する。また、話し終わり判定部12は、チャット機能等により入力されたテキストで構成されている発話データを取得してもよい。
また、本実施形態において、応対履歴作成支援装置1は、話し終わり判定モデル記憶部11及び話し終わり判定部12を備えなくてもよい。この場合、応対シーン推定部14は、音声認識処理部10又は不図示の音声認識装置によって音声認識された音声認識単位の発話の応対シーンを推定する。
上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換が可能であることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形及び変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。
1 応対履歴作成支援装置
10 音声認識処理部
11 話し終わり判定モデル記憶部
12 話し終わり判定部
13 応対シーン推定モデル記憶部
14 応対シーン推定部
15 発話種別推定モデル記憶部
16 発話種別推定部
17 発話内容抽出モデル記憶部
18 発話内容抽出部
19 応対発話要点情報記憶部
20 入出力部

Claims (7)

  1. 応対履歴の作成を支援する応対履歴作成支援装置であって、
    発話を示す発話データに対応して、前記発話の応対シーンを示す応対シーンデータ、前記発話の種別を示す発話種別、及び前記発話の発話要点情報を記憶する応対発話要点情報記憶部と、
    前記応対発話要点情報記憶部に記憶された前記応対シーンデータが示す前記応対シーン毎に前記発話データ、前記発話種別、及び前記発話要点情報のいずれか1つ以上を表示装置に表示させる入出力部と、を備え、
    前記入出力部は、前記応対発話要点情報記憶部に前記応対シーンデータが追加されると、前記表示装置に前記応対シーンの表示ブロックを追加して表示させ、前記応対シーンに対応する前記発話を示す前記発話データを非表示で追加し、前記入出力部への操作に基づいて、追加された前記発話データを表示させることを特徴とする応対履歴作成支援装置。
  2. 前記入出力部は、前記発話話要点情報と前記発話データと対応付けて表示する場合、前記発話要点情報が抽出又は分類された前記発話を示す発話データを、他の発話データとは異なる表示態様で表示させることを特徴とする請求項1に記載の応対履歴作成支援装置。
  3. 応対履歴の作成を支援する応対履歴作成支援装置であって、
    発話を示す発話データに対応して、前記発話の応対シーンを示す応対シーンデータ、前記発話の種別を示す発話種別、及び前記発話の発話要点情報を記憶する応対発話要点情報記憶部と、
    前記応対発話要点情報記憶部に記憶された前記応対シーンデータが示す前記応対シーン毎に前記発話データ、前記発話種別、及び前記発話要点情報のいずれか1つ以上を表示装置に表示させる入出力部と、
    前記発話の前記応対シーンを推定する応対シーン推定部と、
    前記応対シーンに基づいて前記発話の種別である発話種別を推定する発話種別推定部と、
    前記発話種別に基づいて前記発話の発話要点情報を抽出又は分類する発話内容抽出部と、を備えることを特徴とする応対履歴作成支援装置。
  4. 応対履歴の作成を支援する応対履歴作成支援装置における応対履歴作成支援方法であって、
    発話を示す発話データに対応して、前記発話の応対シーンを示す応対シーンデータ、前記発話の種別を示す発話種別、及び前記発話の発話要点情報を記憶するステップと、
    前記記憶された前記応対シーンデータが示す前記応対シーン毎に前記発話データ、前記発話種別、及び前記発話要点情報のいずれか1つ以上を表示装置に表示させるステップと、
    前記応対シーンデータが追加されると、前記表示装置に前記応対シーンの表示ブロックを追加して表示させるステップと、
    前記応対シーンに対応する前記発話を示す前記発話データを非表示で追加し、操作に基づいて、追加された前記発話データを表示させるステップと、を含むことを特徴とする応対履歴作成支援方法。
  5. 応対履歴の作成を支援する応対履歴作成支援装置における応対履歴作成支援方法であって、
    発話を示す発話データに対応して、前記発話の応対シーンを示す応対シーンデータ、前記発話の種別を示す発話種別、及び前記発話の発話要点情報を記憶するステップと、
    前記応対シーンデータが示す前記応対シーン毎に前記発話データ、前記発話種別、及び前記発話要点情報のいずれか1つ以上を表示装置に表示させるステップと、
    前記発話の前記応対シーンを推定するステップと、
    前記応対シーンに基づいて前記発話の種別である発話種別を推定するステップと、
    前記発話種別に基づいて前記発話の発話要点情報を抽出又は分類するステップと、
    を含むことを特徴とする応対履歴作成支援方法。
  6. 請求項1から3のいずれか一項に記載の応対履歴作成支援装置としてコンピュータを機能させるためのプログラム。
  7. 入出力部を有し、
    前記入出力部は、予め定められた応対シーン毎の表示ブロックを設けて表示し、前記応対シーンの表示ブロックには、前記応対シーンと、予め前記応対シーンに対応して設定された発話データとを表示し、前記応対シーンが追加されると、当該応対シーンの表示ブロックを追加して表示し、当該応対シーンに対応する発話データを非表示で追加し、前記入出力部への操作に基づいて、追加された前記発話データを表示することを特徴とする表示装置。
JP2021214088A 2018-08-15 2021-12-28 応対履歴作成支援装置、応対履歴作成支援方法、プログラム、及び表示装置 Active JP7208564B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018152899 2018-08-15
JP2018152899 2018-08-15
JP2020537090A JP7096510B2 (ja) 2018-08-15 2019-08-14 応対履歴作成支援装置、応対履歴作成支援方法、プログラム、表示装置、及び編集支援装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020537090A Division JP7096510B2 (ja) 2018-08-15 2019-08-14 応対履歴作成支援装置、応対履歴作成支援方法、プログラム、表示装置、及び編集支援装置

Publications (2)

Publication Number Publication Date
JP2022043263A true JP2022043263A (ja) 2022-03-15
JP7208564B2 JP7208564B2 (ja) 2023-01-19

Family

ID=69525422

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020537090A Active JP7096510B2 (ja) 2018-08-15 2019-08-14 応対履歴作成支援装置、応対履歴作成支援方法、プログラム、表示装置、及び編集支援装置
JP2021214088A Active JP7208564B2 (ja) 2018-08-15 2021-12-28 応対履歴作成支援装置、応対履歴作成支援方法、プログラム、及び表示装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020537090A Active JP7096510B2 (ja) 2018-08-15 2019-08-14 応対履歴作成支援装置、応対履歴作成支援方法、プログラム、表示装置、及び編集支援装置

Country Status (3)

Country Link
US (2) US11482209B2 (ja)
JP (2) JP7096510B2 (ja)
WO (1) WO2020036189A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071632A (ja) * 2019-10-31 2021-05-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7376745B1 (ja) 2022-08-04 2023-11-08 ナップ賃貸保証株式会社 医療費保証契約締結支援システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111190A (ja) * 2015-12-14 2017-06-22 株式会社日立製作所 対話テキスト要約装置及び方法
JP2017125921A (ja) * 2016-01-13 2017-07-20 日本電信電話株式会社 発話選択装置、方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133033A (ja) 2005-11-08 2007-05-31 Nec Corp 音声テキスト化システム、音声テキスト化方法および音声テキスト化用プログラム
US9380011B2 (en) * 2010-05-28 2016-06-28 Google Inc. Participant-specific markup
JP2017085411A (ja) 2015-10-29 2017-05-18 オー・エイ・エス株式会社 メンタル状態管理装置及びプログラム
US11320982B2 (en) * 2016-05-18 2022-05-03 Apple Inc. Devices, methods, and graphical user interfaces for messaging
JP6747318B2 (ja) * 2017-02-01 2020-08-26 トヨタ自動車株式会社 対話装置
US10593350B2 (en) * 2018-04-21 2020-03-17 International Business Machines Corporation Quantifying customer care utilizing emotional assessments

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111190A (ja) * 2015-12-14 2017-06-22 株式会社日立製作所 対話テキスト要約装置及び方法
JP2017125921A (ja) * 2016-01-13 2017-07-20 日本電信電話株式会社 発話選択装置、方法、及びプログラム

Also Published As

Publication number Publication date
US11749258B2 (en) 2023-09-05
US20210183365A1 (en) 2021-06-17
US20230014267A1 (en) 2023-01-19
WO2020036189A1 (ja) 2020-02-20
JP7096510B2 (ja) 2022-07-06
JPWO2020036189A1 (ja) 2021-08-10
US11482209B2 (en) 2022-10-25
JP7208564B2 (ja) 2023-01-19

Similar Documents

Publication Publication Date Title
US11403598B2 (en) System and method for interview training with time-matched feedback
CN105940446B (zh) 机器与人类的对话方法、计算机存储介质和仿人机器人
US10347250B2 (en) Utterance presentation device, utterance presentation method, and computer program product
JP2022043263A (ja) 応対履歴作成支援装置、応対履歴作成支援方法、プログラム、及び表示装置
KR20160089152A (ko) 화행 분석을 통한 스티커 추천 방법 및 시스템
KR101615848B1 (ko) 유사상황 검색을 통한 대화 스티커 추천방법 및 컴퓨터 프로그램
KR101763679B1 (ko) 화행 분석을 통한 스티커 추천 방법 및 시스템
JP2015212732A (ja) 音喩認識装置、及びプログラム
JP2020160425A5 (ja)
JPWO2020036195A1 (ja) 話し終わり判定装置、話し終わり判定方法およびプログラム
JPH0749695A (ja) 時系列データ記録再生装置
WO2019003395A1 (ja) コールセンター会話内容表示システム、方法及びプログラム
JP7125630B2 (ja) 要点抽出装置、要点抽出方法、及びプログラム
CN115457951A (zh) 一种语音控制方法、装置、电子设备以及存储介质
JP2005192024A (ja) コールセンタにおける通話音声データ管理方式およびそれに用いるオペレータ端末
JP6639431B2 (ja) 用件判定装置、要約文表示装置、用件判定方法、要約文表示方法、及びプログラム
Hempel Usability of speech dialog systems: listening to the target audience
JP6838739B2 (ja) 近時記憶支援装置
JP7416053B2 (ja) 情報処理装置および情報処理方法
JP3751898B2 (ja) 対話シミュレーション装置および対話支援方法
WO2022208692A1 (ja) 表示用データ生成装置、表示用データ生成方法、及び表示用データ生成プログラム
JPH06261126A (ja) オペレータ支援型音声対話装置
Karpov et al. Speech and Computer: 23rd International Conference, SPECOM 2021, St. Petersburg, Russia, September 27–30, 2021, Proceedings
JP5187102B2 (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
CN118051582A (zh) 基于电话语音分析的潜客识别方法、装置、设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R150 Certificate of patent or registration of utility model

Ref document number: 7208564

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150