JP6743108B2 - パターン認識モデル及びパターン学習装置、その生成方法、それを用いたfaqの抽出方法及びパターン認識装置、並びにプログラム - Google Patents

パターン認識モデル及びパターン学習装置、その生成方法、それを用いたfaqの抽出方法及びパターン認識装置、並びにプログラム Download PDF

Info

Publication number
JP6743108B2
JP6743108B2 JP2018205526A JP2018205526A JP6743108B2 JP 6743108 B2 JP6743108 B2 JP 6743108B2 JP 2018205526 A JP2018205526 A JP 2018205526A JP 2018205526 A JP2018205526 A JP 2018205526A JP 6743108 B2 JP6743108 B2 JP 6743108B2
Authority
JP
Japan
Prior art keywords
utterance
log
candidate
pattern recognition
questioner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018205526A
Other languages
English (en)
Other versions
JP2020071690A (ja
Inventor
今井 徹
徹 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone West Corp
Original Assignee
Nippon Telegraph and Telephone West Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone West Corp filed Critical Nippon Telegraph and Telephone West Corp
Priority to JP2018205526A priority Critical patent/JP6743108B2/ja
Publication of JP2020071690A publication Critical patent/JP2020071690A/ja
Application granted granted Critical
Publication of JP6743108B2 publication Critical patent/JP6743108B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明は、対話ログからFAQを抽出する技術に関する。
コンタクトセンタで利用される一問一答のQA集(以下「FAQ」という)は、「よくある質問(Frequently Asked Questions)」とも呼ばれる、ユーザ側サポート側の双方にとって有益な情報群である。このFAQは現状、手作業で追加、更新して整備されており、作業者の多大なリソースとノウハウを必要としている。
一方、近年の人工知能技術の進展により、商品マニュアル等を学習することで問い合わせに対して自動応答するシステムの導入が検討されている(例えば非特許文献1)。
"IBM Watson 活用例 - 具体的活用法や日本の導入事例を紹介 - Japan"、[online]、IBM、[平成30年10月10日検索]、インターネット<URL:https://www.ibm.com/watson/jp-ja/use-cases/>
しかしながら、チャットボットのような自動応答システムはあるものの、その自動応答を支えるためのFAQの作成には、膨大な量のテキストである対話ログから人力をもって整備することが必要であり、その効率化が求められていた。
そこでこの発明は、対話ログからFAQを作成するにあたり、膨大なテキストの中からFAQに追加すべきQA候補を効率良く抽出し、FAQの作成を省力化することを目的とする。
この発明は、質問者と回答者との一連の通話をテキストとした対話ログを形態素解析したものについて、一連の通話を構成する個々の発話であるレコードごとに算出される、
当該発話あたりの形態素数である発話長と、
当該発話の前後で共通する単語の出現回数である共通キーワード出現回数と、
当該発話あたりの周辺キーワードの重要度の総和であるキーワード重要度総和と、
当該発話の後方1以上5以下の発話内に存在する間投詞の数である間投詞数と、
の素性のうち少なくとも1つを含む素性値を、レコードごとの入力とし、
かつ、前記質問者による質問に相当するQ候補、又は前記回答者による回答に相当するA候補であるか否かを示す候補ラベルを出力として、
分類器を教師あり学習によりトレーニングしたパターン認識モデルにより、上記の課題を解決したのである。
前記教師あり学習を、前記対話ログの全レコードについて行うだけでなく、話者が質問者である発話部分のみを抜き出した質問者ログのレコード、又は話者が回答者である発話部分のみを抜き出した回答者ログのレコードのいずれかのみについて行う実施形態を選択できる。
前記パターン認識モデルを用いて、認識対象とする前記対話ログについて、前記Q候補又は前記A候補となるレコードを判定するFAQの抽出方法により、前記対話ログから前記Q候補及び前記A候補を抽出できる。前記パターン認識モデルが、前記質問者ログと前記回答者ログのいずれかについて生成したものである場合、認識対象とする前記対話ログは、それぞれのレコードの前記素性値について算出した後、前記質問者ログ、又は前記回答者ログを抽出して、対応する前記パターン認識モデルによって判定させる実施形態を選択して精度を向上させることができる。
前記パターン認識モデルの生成にあたって、
質問者と回答者との一連の通話をテキストとした対話ログであって、
一連のテキスト部分は形態素解析されており、
一連の通話を構成する個々の発話であるレコードごとに、
前記質問者と前記回答者とのいずれの発話であるかを示す発話者区分と、
当該発話あたりの形態素数である発話長と、
前記質問者による質問に相当するQ候補、又は前記回答者による回答に相当するA候補であるか否かを示す候補ラベルと、
当該発話とその前後の発話との間における、共通の単語の出現回数である共通キーワード出現回数と、
前記通話中に複数回出現する名詞である中心キーワードと同じ発話内に出現する名詞である周辺キーワードに対して、下記式(1)からなるキーワード重要度の総和であるキーワード重要度総和と、
当該発話の後方1以上5以下の発話内に存在する間投詞の数である間投詞数と、
を有する、構造有対話ログを用いることができる。
・キーワード重要度=(前記中心キーワードと前記周辺キーワードとが共に出現した発話数)/(中心キーワードが出現した発話数) (1)
前記構造有対話ログを作成するには、前記対話ログに対して、テキスト部分を形態素解析するステップの後に、
前記発話長と、
前記共通キーワード出現回数と、
前記キーワード重要度総和と、
前記間投詞数と、
の少なくとも一つを計算し、一連の通話を構成する個々の発話であるレコードごとに設定するステップを実行する形態が選択できる。
この発明により、コンタクトセンタで生じる応答の録音データを音声認識したり、チャット記録を保存したりして得られる膨大な量の対話ログの中から、FAQに登録する候補となるQ候補とA候補を抽出することができる。これにより、FAQを作成する際の手間と時間を大幅に節約することができる。
この発明で解析対象とする対話ログのイメージ この発明にかかるパターン認識モデルの実施形態例の生成手順の例を示すフローチャート この発明にかかるパターン学習装置の実施形態例を示す機能ブロック図 この発明にかかるパターン認識装置の実施形態例を示す機能ブロック図 この発明にかかるパターン認識モデルの実施形態例を用いた判定手順の例を示すフローチャート (a)この発明にかかるパターン認識モデルの他の実施形態例の生成手順の例を示すフローチャート、(b)この発明にかかるパターン認識モデルの他の実施形態例を用いた判定手順の例を示すフローチャート
以下、この発明について具体的な実施形態とともに詳細に説明する。この発明は、対話ログからFAQを抽出可能とするパターン認識モデル、その生成方法、それを用いたパターン認識装置、パターン認識装置としてコンピュータを動作させるためのプログラム、それらを用いたFAQの抽出方法、及び、パターン認識モデルの生成に用いる構造を有するデータである構造有対話ログである。
この発明で用いる対話ログは、質問者と回答者との一連の通話をテキストとしたものである。チャットによる会話であればテキストデータをそのまま利用することができる。音声による通話であれば、音声認識によってテキスト化したものを利用できる。
前記対話ログは、テキストが発話の区切りごとのレコードになっているとよい。また、このレコードには、発話者が質問者と回答者のいずれかであるかを識別する項目が設けられているとよい。この発話者の識別は、チャットによる会話であればそれぞれのテキストの入力者に従って項目が登録されているとよい。音声による通話であれば、音声認識エンジンの話者分離機能を用いて識別されているとよい。
前記対話ログのイメージを図1に示す。ここで発話者は、「オペレータ」が回答者であり、「お客様」が質問者にあたる。発話者の右がそれぞれの発話のテキストである。一行のレコードを一つの発話として取り扱う。発話者が同一の発話が連続していても、まとめて取り扱うのではなく、別個のレコードとして取り扱う。
前記テキストの右に示されているのが、通話の中で質問に相当する可能性が高いQ候補と、回答に相当するA候補とにあたるか否かを示す候補ラベルである。音声認識の場合、前記発話者の項目とテキストまでは音声認識エンジンが通話の音声を認識して生成する。前記候補ラベルは、学習段階で用いるデータでは人力でラベルを登録する。利用段階ではパターン認識モデルによる判定によって前記候補ラベルが付与される。
この発明におけるパターン認識モデルの作成と、パターン認識モデルの利用とのどちらも、上記の対話ログが持つ素性を利用する。前記素性とはテキストが通話の中で発揮する特徴量である。前記素性を求めるには、テキストを形態素解析し、テキストを構成する要素を解析して求める。ここで、形態素解析とはテキストを構成する語句を分かち書きし、それぞれの語句の品詞を求めることをいう。
上記素性としては、質問者と回答者の会話において重要なテキストを抽出する際に、パターン認識モデルにとってあるレコードが有益な情報であると判定する材料となりうる特徴量を適宜選択して用いることができる。適宜選択された素性を示す値である素性値を入力、前記候補ラベルを出力とする教師あり学習によりパターン認識モデルを学習させる。トレーニングしたパターン認識モデルを利用するにあたっては、その適宜選択した素性値を入力として、前記候補ラベルを出力とする。
このような素性としては例えば、発話長、共通キーワード出現回数、キーワード重要度総和、間投詞数が挙げられる。これらのうちの少なくとも3つは利用することが好ましい。また、その中に共通キーワード出現回数と、キーワード重要度総和とが含まれていることがより好ましい。さらに、上記した以外の素性を併せて用いていてもよい。
前記発話長とは、当該レコードの一発話あたりの形態素数を示す。処理としては、一レコードあたりの形態素数をカウントすることで数値を算出できる。長い発話文であるほど多くの情報を持っており、主要な話題を含む可能性が高くなると想定されるためである。例えば、「新規申し込みの件で電話したのだけど手続きにはお金いくらかかるの」という発話の場合、「新規/申し込み/の/件/で/電話/し/た/の/だけど/手続き/には/お金/いくら/かかる/の」というように形態素を分かち書きでき、発話長は16とカウントされる。
前記共通キーワード出現回数とは、当該レコードの一つの発話の前後で共通する単語の出現回数を示す。ここで、カウントする単語としては名詞、動詞、形容詞のいずれか一つ又は複数であるとよい。これら名詞、動詞、形容詞の3つともカウントすると精度の点から望ましい。問合せと回答の間には、問合せ内容に関するキーワードが共通して含まれていると想定される。このため、該当発話とその前後の発話との間で共通して単語が出現していると、それは質問と回答に対応する可能性が高い。すなわち、この共通して出現する単語が多いほど、前記Q候補又は前記A候補として抽出すべき価値が高くなりやすい。なお、図1の例では発話の前後で共通する単語が出現したレコードはなく、いずれのレコードの発話も共通キーワード出現回数は0とカウントされる。
例えば、「はい」と回答者が頷いた発話(発話α)の後に、「家族でも申し込みとかはできるんですよね」という質問者の発話(発話β)があり、その後に「はいご家族の方でもお申し込みは承っております」という回答者の発話(発話γ)があった例について説明する。発話αと発話βとを比較すると、共通する単語がない。発話βにとって前の発話との間での共通する単語の出現回数は0となる。一方、発話βと発話γとを比較すると「家族」「申し込み」が共通する単語となり、共通する単語の出現回数は2となる。よって、発話βのレコードの共通キーワード出現回数は「0+2=2」となる。また、発話γの共通キーワード出現回数をカウントする際には、上記の通りの発話βと発話γとの間の共通する単語の出現回数2に、発話γと次の発話(発話δ)との間の共通する単語の出現回数を加算する。
前記キーワード重要度総和とは、当該レコードを構成するキーワード重要度の総和である。前記キーワード重要度は次のように定義される値である。まず、1通話全体で複数回出現する名詞を中心キーワードとして抽出する。中心キーワードは一つではなく、複数個設定されていてもよい。次に、同じ1通話全体で、前記中心キーワードと同じ発話内に出現する名詞を周辺キーワードとして抽出する。この周辺キーワードごとに、キーワード重要度=(前記中心キーワードと前記周辺キーワードとが共に出現した発話数)/(中心キーワードが出現した発話数)を求める。
例えば図1の対話ログでは、複数回出現する名詞は「電話」であり、これが中心キーワードとして抽出される。この「電話」と同じ発話内に出現する名詞は「当社」「ビジネス」「αワン」「百年」「時間外」「担当」「女性」「人」「お客様」「場合時」「部分」「感じ」「小売り」「保留」「番号」「音」であり、これらが周辺キーワードとなる。中心キーワードである「電話」が出現した発話数は4回である。それぞれの周辺キーワードはいずれも一回しか出現していないため、どの周辺キーワードも「中心キーワードと周辺キーワードとが共に出現した発話数」は1となる。このため、図1の対話ログの例ではどの周辺キーワードも、キーワード重要度は1/4となる。以上から、キーワード重要度総和は4595のレコードの発話で4/4(当社、ビジネス、αワン、百年、の合計4つ)、7743のレコードの発話で3/4(時間外、担当、女性の合計3つ)、9285のレコードの発話で4/4(お客様、場合時、部分、感じの合計4つ)、10875のレコードの発話で4/4(小売り、保留、番号、音の合計4つ)となる。それ以外のレコードの発話のキーワード重要度総和はいずれも0となる。
図1の対話ログでは「電話」の他に「設定」が複数回出現する。この設定と同じ発話内に出現する名詞は「インターネット」「システム」「一括」である。これらが周辺キーワードとなる。中心キーワードである「設定」が出現した発話数は2回である。それぞれの周辺キーワードはいずれも一回しか出現していないため、どの周辺キーワードも「中心キーワードと周辺キーワードとが共に出現した発話数」は1となる。このため、13798のレコードの発話のキーワード重要度総和は3/2となる。
さらに、「私」も複数回出現しているが、これは名詞ではなく代名詞であるため中心キーワードとしてカウントしない。場合によっては、「弊社」「貴社」「御社」などの法人を指示する名詞も代名詞として扱ってもよい。上記の例では「当社」を代名詞として周辺キーワードから除外する運用としてもよい。ただし、その運用は学習によってトレーニングするパターン認識モデルごとに固定すべきである。これはそのパターン認識モデルを利用して判定する際に入力値を算出する場合も固定するということである。
この計算は、中心キーワードが複数ある場合には、中心キーワードと周辺キーワードとはセットで考える。ある中心キーワードAに対して周辺キーワードとなった名詞が、別の中心キーワードBに対しては周辺キーワードとならない場合もある。中心キーワードの数だけ周辺キーワードも抽出し、その中心キーワードごとに、周辺キーワードの重要度を求め、全ての中心キーワードに対応する周辺キーワードの重要度の総和を求める。図1の例では中心キーワードと周辺キーワードとが重ならないため、上記の「電話」と「設定」についての周辺キーワードのキーワード重要度総和を単純に加算して求める。
前記間投詞数とは、そのレコードの発話後方1以上5以下の発話内に存在する間投詞の数である。発話の後に「はい」「うん」「ええ」「ありがとう」などの相槌がされている場合には、主要な話題を含むことが想定される。このため、直近のいくつかの発話の中に間投詞が多いものほど重要であると認識する材料に用いることができる。この設定値は学習によってトレーニングするパターン認識モデルごとに固定すべきである。これはそのパターン認識モデルを利用して判定する際に入力値を算出する場合も固定するということである。この設定値は用いる対話ログにおける発話の分割の仕方によって調整するとよい。設定値が小さすぎると、間をおいて発言された間投詞をカウントできなくなる場合がある。一方で長すぎると、次の内容のある発話に対する間投詞を拾ってしまう場合がある。このため、多くの場合は設定値が2〜4であると好ましく、3が特に好ましい。例えば10281のレコードの発話は、設定値が3であると間投詞数が3となるが、設定値が5だと11136のレコードの発話の「はい」もカウントしてしまう。この「はい」はその直前のお客様の発言に対する応答であるため、この対話ログでは設定値5だと値が大きすぎ、3が適当であると推測される。
前記パターン認識モデルの生成、すなわち学習によるトレーニングを行うパターン学習装置では、前記対話ログを構成する各レコードにおいて、上記の素性値の複数を算出する。コンピュータによって処理する際に、この算出した素性値は、独立したテーブルとしてもよいし、前記対話ログと一体化したテーブルに記録してもよい。
前記パターン認識モデルをトレーニングするにあたっては、教師あり学習を用いてモデルを生成する。学習を行うパターン学習装置が実行するプログラムの手順を図2のフローチャートを例にして示す。まず、パターン学習装置は、教師データの元となる対話ログを取得する(S101)。この対話ログは別の装置又は別のステップで予め形態素解析されたものであると望ましい。形態素解析される前の対話ログを取得した場合は、S101の後に、テキストを形態素解析する形態素解析手段を実行する(図示せず)。
また、前記対話ログ及び対話ログから形成される構造有対話ログは、レコードごとに、前記質問者と前記回答者とのいずれの発話であるかを示す発話者区分を有していると好ましい。図1の例では「オペレータ」「お客様」として記述されている項目である。前記パターン認識モデルをトレーニングするにあたって、Q候補とA候補とでは特徴に違いがあることが想定されるため、学習精度を向上させようとするのであれば、Q候補専用のパターン認識モデル(図中「Qモデル」)と、A候補専用のパターン認識モデル(図中「Aモデル」)とを別個にトレーニングすることが望ましい。前記発話者区分を有していると、それを参照するだけで前記質問者と前記回答者のいずれかのみの発話を抽出できる。なお、前記発話者区分は、チャット由来のテキストであれば送信者IDによってそのまま分類するとよく、音声通話を音声認識する場合には、音声認識エンジンが有する発話者区分機能によって音声認識と併せて前記発話者区分を付与しておくとよい。
また、前記対話ログ及び対話ログから形成される構造有対話ログは、前記質問者による質問に相当するQ候補、又は前記回答者による回答に相当するA候補であるか否かを示す候補ラベルを有する。この候補ラベルは、手作業又はその他の手段によって付与する。手作業で処理する場合、当該言語に熟達した人間の思考によって、Q候補又はA候補であろうと考えられる、重要度の高いレコードを選択して、候補ラベルを付与する。ただし、教師データとして用いる場合には人力となるため、S101で取得する前の段階で前記候補ラベルを付与しておくことが望ましい。
この対話ログから、この教師あり学習のための教師データとなる構造有対話ログを生成するにあたっては、元の通話の対話ログを構成する通話全体について、算出した前記素性をそれぞれのレコードごとに計算した素性を算出する素性値算出手段を実行する(S102)。具体的には、前記対話ログに対してテキスト部分を形態素解析するステップの後に、前記発話長、前記共通キーワード出現回数、前記キーワード重要度総和、前記間投詞数などの素性を算出し、個々の発話であるレコードごとに算出した値を設定する。
次に、通話全体について素性値を計算した後、前記発話者区分によって前記質問者と前記回答者のログを別個に抽出し、話者が質問者である発話部分のみを抜き出した質問者ログのレコード、又は話者が回答者である発話部分のみを抜き出した回答者ログのレコードを得る話者抽出手段を実行すると望ましい(S103)。これらを抜き出して別個に用いることで、質問者によるQ候補専用のパターン認識モデルと、回答者によるA候補専用のパターン認識モデルを生成することができ、後述する判定時の判定精度を向上させることができる。
また、トレーニングに用いるのは前記素性値と前記候補ラベルのみで、前記発話者区分とテキスト自体は用いない。このため、前記発話者区分を参照して話者抽出手段(S103)を実行した後、前記発話者区分とテキストとをさらに除外して、前記素性値と前記候補ラベルのみの教師データを抽出する教師データ抽出手段を実行する(S104)。
前記パターン学習装置は、パターン認識モデルを生成するにあたって、前記素性値算出手段で算出した前記素性値を入力とし、前記候補ラベルを出力とする、教師あり学習によりパターン認識モデルをトレーニングするパターン学習手段を実行する(S105)。
このトレーニングするパターン認識モデルは、様々な教師あり学習による分類器を選択して適用することができる閾値や数式、又はそれらの集合体である。ベイズ分類、ロジスティック回帰、多層パーセプトロン、ニューラルネットワーク、サポートベクターマシンなどが選択できる。中でも入力する素性値の次元数と、出力における正否との適合性が高いサポートベクターマシンが最も好適である。いずれのパターン認識モデルでも、前記素性値の入力に対して、トレーニングされた閾値の集合体によって判定が可能となる。
このようなパターン認識モデルをトレーニングするパターン学習装置は、一般的なコンピュータ、サーバ等を用いることができる。また、独立したハードウェアである必要はなく、仮想マシンとして動作するものでもよい。このパターン学習装置11として動作するサーバの実施形態例の機能ブロック図を図3に示す。
入出力部12から外部のデータである前記対話ログを取り込む。入出力部12は外部記憶媒体とのインターフェースでもよいし、有線又は無線のネットワークインターフェースでもよい。また、上記A候補又は上記Q候補の指定などを入力するマウスやタッチパネルなどのポインティングデバイスやキーボードでもよい。また、その入力結果を確認できるモニタやプリンタなどの出力装置が含まれていてもよい。
データ加工部13は、取り込んだ前記対話ログを構造有対話ログとして利用できるように加工する。前記候補ラベルの付与や、前記形態素解析手段、前記素性値算出手段の実行などを行う。なお、実際の処理はサーバにおける演算装置が行い、データ加工部13はそれを実行するソフトウェア群として作用する。加工された前記構造有対話ログは記憶部14に記録される。これらの処理は一括して行うのではなく、一旦記憶部14に記録したデータを適宜読み出して、段階的に加工を行ってもよい。
記憶部14は、ハードウェアとしては、磁気ディスクや半導体ドライブなどの不揮発性記憶装置や、揮発性メモリなどを適宜用いることができる。
データ抽出部15は、前記話者抽出手段(S103)を実行して、前記質問者ログと前記回答者ログのそれぞれを抽出する。また、抽出された前記対話ログのうち、トレーニングに用いる前記素性値及び前記候補ラベルのみを抽出し前記発話者区分及びテキストを除外する前記教師データ抽出手段を実行する(S104)。
解析部16は、パターン認識モデルに対してトレーニングを行う。具体的には、前記素性値の次元数に合わせた入力と、前記候補ラベルに合わせた一の出力を有する、サポートベクターマシンなどの分類器を用意し、入力に対する出力が適正なものとなるようにトレーニングする前記パターン学習手段を実行する(S105)プログラムである。トレーニングは前記質問者ログ由来の前記素性値及び前記候補ラベルと、前記回答者ログ由来の前記素性値及び前記候補ラベルとを別個のデータセットとして扱う。前者でトレーニングしたパターン認識モデルはQ候補を判定する性能に最適化され、後者でトレーニングしたパターン認識モデルはA候補を判定する性能に最適化される。
トレーニングされたパターン認識モデルを有し、このパターン認識モデルを用いて判定を行う装置は、認識対象とする前記対話ログについて、前記Q候補又は前記A候補となるレコードを判定するパターン認識装置として動作させることができる。このパターン認識装置は、前述のパターン学習装置11をそのまま用いてもよいし、パターン学習装置11でトレーニングされたパターン認識モデルをコピーして別途別のコンピュータに導入して実行可能としてもよい。
ここでは、パターン学習装置11をそのままパターン認識装置21として用いる場合を例にとって説明する。パターン認識装置21の機能ブロック図を図4に、パターン認識装置21を動作させてFAQを抽出するプログラムのフローチャートを図5に示す。なお、ハードウェアの必要要件は基本的に同一であるが、同種のハードウェアである必要はなく、トレーニングされたパターン認識モデルを利用できるものであれば特に制限はされない。入出力部12から、Q候補及びA候補となるテキストを抽出しようとする対話ログを導入する(S201)。具体的には、コンタクトセンタなどの会話から生成される膨大な対話ログ群であり、その膨大なテキストの中から、Q候補及びA候補としてFAQに利用できる可能性の高いテキストを抽出するため、パターン認識を行う。解析用データであるこれらの対話ログは、形態素解析と発話者区分とは既に完了しているものを導入する。特に発話者区分は予めされていないものを後から付与することは難しいため、発話者区分が付与されたものが望ましい。形態素解析についてはデータ加工部13にて導入後に実行する実施形態としてもよい。
いずれにしても、データ加工部13において、導入した前記対話ログについて通話ごとに前記素性値を算出する素性値算出手段を実行する(S202)。
データ抽出部15は、前記話者抽出手段(S203)を実行して、前記質問者ログと前記回答者ログのそれぞれを抽出する。また、抽出された前記対話ログのうち、トレーニングに用いる前記素性値のみを抽出する素性値抽出手段を実行する(S204)。この素性値抽出手段は、前記候補ラベルを含めない点でトレーニング段階における前記教師データ抽出手段(S104)とは異なる。ただし、判定後に元のテキストと対応させてQ候補又はA候補となるテキストを抽出しなければならない。このため、判定結果を元のテキストに対応できるように、レコードを識別する識別IDを前記素性値とともに残しておいてもよいし、レコードデータの行番号によって後から対応できるようにしておいてもよい。
解析部16は、抽出した前記素性値を、前記パターン認識モデルによる分類器によってQ候補又はA候補であるレコードを判定する候補認定手段を実行する(S205)。このとき用いるパターン認識モデルは、前記質問者ログの前記素性値については、前記質問者ログでトレーニングしたパターン認識モデル(図中「Qモデル」)を用いてQ候補であるか否かを判定する。前記回答者ログの前記素性値については、前記回答者ログでトレーニングしたパターン認識モデル(図中「Aモデル」)を用いてA候補であるか否かを判定する。
判定結果は、前記素性値の算出元となった前記質問者ログ又は前記回答者ログに対応させる。これにより、Q候補又はA候補となるレコードが判別可能となる。後日FAQを作成する際には、元の対話ログ全てをチェックするのではなく、Q候補又はA候補の判定がされたレコードのみをチェックすることで、FAQに登録すべき情報を効率的に選別することができる。
別の実施形態として、発話者区分による前記話者抽出手段を使用しない実施形態について説明する。この場合のフローを図6(a)(b)に示す。すなわち、パターン認識モデルの生成にあたってS103の前記話者抽出手段を実行せず、前記質問者と前記回答者のテキストを分類しないまま、まとめて前記素性値と前記候補ラベルとのセットを抽出し(S104)、一つのパターン認識モデルに導入してトレーニングを行う(S105)。生成するパターン認識モデルは、Q候補及びA候補のどちらにも閾値が対応したものとなる。生成したパターン認識モデルを利用したQ候補及びA候補の判定においても、パターン認識モデルに導入するデータは、話者でテキストを分離せず(S203なし)、まとめて前記素性値を抽出して(S204)、判定を行う(S205)。判定結果はA候補又はQ候補の区別がない候補ラベルの有無となる。このため、元の対話ログに含まれている前記発話者区分と対比して、前記質問者の発話によるレコードであればQ候補とし、前記回答者の発話によるレコードであればA候補とする、候補発話者分類手段を実行しておくとよい。ただし、判定の精度の点からは話者を分離したものに比べると低くなる傾向にある。
この発明を具体的に実施した例を示す。サポートセンターに掛かってきた電話による応答について、話者を識別しながら音声認識させてテキストとし、対話ログを作成した。このうち、3分以上5分以下でサポートが完了した通話の対話ログを20件選び出した。一通話あたりの発話数は42.15であった。それぞれの対話ログについて、A候補とQ候補と判断される発話のレコードに、候補ラベルとなるフラグを手作業で付与した。
全ての通話について、形態素解析を行った上で、発話長、共通キーワード出現回数、キーワード重要度総和、間投詞数、を全ての発話のレコードについて算出した。算出後、話者ごとにレコードを抽出し、質問者ログと回答者ログとに分離した。質問者ログと回答者ログとのそれぞれについて、4つの素性値を入力とし、候補ラベル(Q候補又はA候補)を示す1ビットを出力とする教師データ群を抽出した。すなわち、テキストと発話者は教師データ群から除外している。この教師データ群を用いて質問者ログ由来の教師データ群と回答者ログ由来の教師データ群とのそれぞれについて、サポートベクターマシンを学習させて、Q候補用のパターン認識モデルとA候補用のパターン認識モデルをそれぞれ得た。
次に、候補ラベルを付与していない対話ログの、全ての通話について、形態素解析を行った上で、発話長、共通キーワード出現回数、キーワード重要度総和、間投詞数、を全ての発話のレコードについて算出した。算出後、話者ごとにレコードを抽出し、質問者ログと回答者ログとに分離した。質問者ログと回答者ログとのそれぞれについて、4つの素性値を抽出し、質問者ログ由来の素性値をQ候補用のパターン認識モデルに、回答者ログ由来の素性値をA候補用のパターン認識モデルに導入して、全レコードの候補ラベルの判定を行った。判定後、判定結果を元の質問者ログ及び回答者ログと対応させて、Q候補又はA候補として候補ラベルが付与されたレコードのみを抽出した。
第一の実施例では、元の対話ログは170つの発話のレコードからなるものであったが、Q候補の候補ラベルがありと判定されたレコードは1つ、A候補の候補ラベルがありと判定されたレコードは16つにまで絞り込むことができた。
第二の実施例では、元の対話ログは同じく170つの発話のレコードからなるものであったが、元の対話ログはQ候補の候補ラベルがありと判定されたレコードは1つ、A候補の候補ラベルがありと判定されたレコードは7つにまで絞り込むことができた。
いずれも、全文に比べて抽出されたレコードのテキスト量は十分に絞り込みがされたものとなり、FAQの作成にあたり全文を読み込む場合に比べて大幅な省力化が可能となった。
11 パターン学習装置
12 入出力部
13 データ加工部
14 記憶部
15 データ抽出部
16 解析部
21 パターン認識装置

Claims (6)

  1. 質問者と回答者との一連の通話をテキストとした対話ログを形態素解析したものについて、一連の通話を構成する個々の発話であるレコードごとに算出される、
    当該発話あたりの形態素数である発話長と、
    当該発話の前後で共通する単語の出現回数である共通キーワード出現回数と、
    当該発話あたりの周辺キーワードの重要度の総和であるキーワード重要度総和と、
    当該発話の後方1以上5以下の発話内に存在する間投詞の数である間投詞数と、
    の4つの素性を含む素性値を、レコードごとの入力とし、
    かつ、前記質問者による質問に相当するQ候補、又は前記回答者による回答に相当するA候補であるか否かを示す候補ラベルを出力として、
    分類器を教師あり学習によりトレーニングしたパターン認識モデルであって、
    前記教師あり学習を、話者が質問者である発話部分のみを抜き出した質問者ログのレコード、又は話者が回答者である発話部分のみを抜き出した回答者ログのレコードのいずれかのみについて行った、パターン認識モデル
  2. 質問者と回答者との一連の通話をテキストとした対話ログを形態素解析したものについて、一連の通話を構成する個々の発話であるレコードごとに、
    当該発話あたりの形態素数である発話長と、
    当該発話の前後で共通する単語の出現回数である共通キーワード出現回数と、
    当該発話あたりの周辺キーワードの重要度の総和であるキーワード重要度総和と、
    当該発話の後方1以上5以下の発話内に存在する間投詞の数である間投詞数と、
    の4つの素性を含む素性値を算出するステップ、
    前記素性値を入力とし、前記質問者による質問に相当するQ候補、又は前記回答者による回答に相当するA候補であるか否かを示す候補ラベルを出力として、教師あり学習によりパターン認識モデルをトレーニングするステップ、
    を実行するパターン認識モデルの生成方法であって、
    前記教師あり学習は、話者が質問者である発話部分のみを抜き出した質問者ログ、又は話者が回答者である発話部分のみを抜き出した回答者ログのいずれかについて行う、パターン認識モデルの生成方法
  3. 請求項に記載のパターン認識モデルを用いて、
    認識対象とする前記対話ログについて、前記Q候補又は前記A候補となるレコードを判定する、
    FAQの抽出方法であって、
    前記パターン認識モデルが、前記質問者ログと前記回答者ログのいずれかについて生成したものであり、
    認識対象とする前記対話ログは、それぞれのレコードの前記素性値について算出した後、前記質問者ログ、又は前記回答者ログを抽出して、対応する前記パターン認識モデルによって判定させる、FAQの抽出方法。
  4. 質問者と回答者との一連の通話をテキストとした対話ログを形態素解析し、一連の通話を構成する個々の発話であるレコードごとに、
    当該発話あたりの形態素数である発話長と、
    当該発話の前後で共通する単語の出現回数である共通キーワード出現回数と、
    当該発話あたりの周辺キーワードの重要度の総和であるキーワード重要度総和と、
    当該発話の後方1以上5以下の発話内に存在する間投詞の数である間投詞数と、
    の4つの素性を含む素性値を算出する素性値算出手段と、
    前記素性値を入力とし、前記質問者による質問に相当するQ候補、又は前記回答者による回答に相当するA候補であるか否かを示す候補ラベルを出力として、教師あり学習によりパターン認識モデルをトレーニングするパターン学習手段と、
    を有するパターン学習装置であって、
    前記パターン学習手段は、話者が質問者である発話部分のみを抜き出した質問者ログ、又は話者が回答者である発話部分のみを抜き出した回答者ログのいずれかについて行う、パターン学習装置
  5. 請求項に記載のパターン認識モデルを用いて、認識対象とする前記対話ログについて、前記Q候補又は前記A候補となるレコードを判定する、パターン認識装置。
  6. 請求項に記載のパターン学習装置又は請求項に記載のパターン認識装置としてコンピュータを機能させるためのプログラム。
JP2018205526A 2018-10-31 2018-10-31 パターン認識モデル及びパターン学習装置、その生成方法、それを用いたfaqの抽出方法及びパターン認識装置、並びにプログラム Active JP6743108B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018205526A JP6743108B2 (ja) 2018-10-31 2018-10-31 パターン認識モデル及びパターン学習装置、その生成方法、それを用いたfaqの抽出方法及びパターン認識装置、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018205526A JP6743108B2 (ja) 2018-10-31 2018-10-31 パターン認識モデル及びパターン学習装置、その生成方法、それを用いたfaqの抽出方法及びパターン認識装置、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2020071690A JP2020071690A (ja) 2020-05-07
JP6743108B2 true JP6743108B2 (ja) 2020-08-19

Family

ID=70549548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018205526A Active JP6743108B2 (ja) 2018-10-31 2018-10-31 パターン認識モデル及びパターン学習装置、その生成方法、それを用いたfaqの抽出方法及びパターン認識装置、並びにプログラム

Country Status (1)

Country Link
JP (1) JP6743108B2 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134575A (ja) * 1999-10-29 2001-05-18 Internatl Business Mach Corp <Ibm> 頻出パターン検出方法およびシステム
JP2008250409A (ja) * 2007-03-29 2008-10-16 Nec Corp 典型文分析装置、その方法及びそのプログラム
JP5867410B2 (ja) * 2010-11-22 2016-02-24 日本電気株式会社 対話テキスト解析装置、方法およびプログラム
JP5485236B2 (ja) * 2011-08-31 2014-05-07 株式会社東芝 Faq作成支援システム及びプログラム
JP2013109635A (ja) * 2011-11-22 2013-06-06 Nippon Telegr & Teleph Corp <Ntt> 単語重要度算出装置とその方法とプログラム
JP5674689B2 (ja) * 2012-02-15 2015-02-25 日本電信電話株式会社 知識量推定情報生成装置、知識量推定装置、方法、及びプログラム
WO2016199464A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6823809B2 (ja) * 2016-08-09 2021-02-03 パナソニックIpマネジメント株式会社 対話行為推定方法、対話行為推定装置およびプログラム

Also Published As

Publication number Publication date
JP2020071690A (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
US11663411B2 (en) Ontology expansion using entity-association rules and abstract relations
CN110765244B (zh) 获取应答话术的方法、装置、计算机设备及存储介质
US10679134B2 (en) Automated ontology development
Wu et al. Emotion recognition from text using semantic labels and separable mixture models
US9477752B1 (en) Ontology administration and application to enhance communication data analytics
Flemotomos et al. Automated evaluation of psychotherapy skills using speech and language technologies
US20200183983A1 (en) Dialogue System and Computer Program Therefor
US20140046876A1 (en) System and method of providing a computer-generated response
KR102041621B1 (ko) 인공지능 음성인식 기반 기계학습의 대규모 말뭉치 구축을 위한 대화형 말뭉치 분석 서비스 제공 시스템 및 구축 방법
Kaushik et al. Automatic sentiment detection in naturalistic audio
CN111177350A (zh) 智能语音机器人的话术形成方法、装置和系统
CN111538828A (zh) 文本情感分析方法、装置、计算机装置及可读存储介质
US20150220618A1 (en) Tagging relations with n-best
US20240020458A1 (en) Text formatter
Dey et al. Emotion extraction from real time chat messenger
Imamguluyev The rise of gpt-3: Implications for natural language processing and beyond
US20230350929A1 (en) Method and system for generating intent responses through virtual agents
Jia et al. A deep learning system for sentiment analysis of service calls
JP6743108B2 (ja) パターン認識モデル及びパターン学習装置、その生成方法、それを用いたfaqの抽出方法及びパターン認識装置、並びにプログラム
JP6775465B2 (ja) 対話ルール照合装置、対話装置、対話ルール照合方法、対話方法、対話ルール照合プログラム、及び対話プログラム
Trivedi Fundamentals of Natural Language Processing
Zajíc et al. First insight into the processing of the language consulting center data
Cui et al. Mining user intents in online interactions: applying to discussions about medical event on SinaWeibo platform
JP2015210342A (ja) 発話生成手法学習装置、発話生成手法選択装置、発話生成手法学習方法、発話生成手法選択方法、プログラム
JP2013109738A (ja) 意味ラベル付与モデル学習装置、意味ラベル付与装置、意味ラベル付与モデル学習方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200729

R150 Certificate of patent or registration of utility model

Ref document number: 6743108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250