JP5025353B2 - 対話処理装置、対話処理方法及びコンピュータ・プログラム - Google Patents

対話処理装置、対話処理方法及びコンピュータ・プログラム Download PDF

Info

Publication number
JP5025353B2
JP5025353B2 JP2007174862A JP2007174862A JP5025353B2 JP 5025353 B2 JP5025353 B2 JP 5025353B2 JP 2007174862 A JP2007174862 A JP 2007174862A JP 2007174862 A JP2007174862 A JP 2007174862A JP 5025353 B2 JP5025353 B2 JP 5025353B2
Authority
JP
Japan
Prior art keywords
pattern
data
essential
speech
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007174862A
Other languages
English (en)
Other versions
JP2009014888A (ja
Inventor
広宜 竹内
紫穂 根岸
伸泰 伊東
Original Assignee
ニュアンス コミュニケーションズ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ニュアンス コミュニケーションズ,インコーポレイテッド filed Critical ニュアンス コミュニケーションズ,インコーポレイテッド
Priority to JP2007174862A priority Critical patent/JP5025353B2/ja
Priority to US12/167,879 priority patent/US8060365B2/en
Publication of JP2009014888A publication Critical patent/JP2009014888A/ja
Application granted granted Critical
Publication of JP5025353B2 publication Critical patent/JP5025353B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Description

本発明は、ビジネス会話データの中から特定の分野において必須な発言、特に、セールス取引等におけるコンプライアンス上必須な発言を抽出する対話処理装置、対話処理方法及びコンピュータ・プログラムに関する。
昨今、コールセンターにおける電話によるセールス(telesales)の需要は非常に拡大している。例えば、株の取引、銀行口座の管理、保険契約、通信販売等が挙げられる。一方で、電話による取引は容易である反面、書面という確実な情報が記載された媒体が介在しないことにより、生じる問題も多い。例えば、保険契約等では必須の質問事項を確認しないと、保険金支払い時に問題が発生することがある。他にも、株の取引では会話で聞いた注文内容とエージェント(コールセンター側で顧客と電話応対をする人間)が注文システムに入力している内容が異なると、誤発注となってしまう。そのような問題を回避するため、電話を用いた取引等ではコンプライアンス・チェックの必要性が増している。つまり、特定の分野において必須な発言、特に、セールス取引等における会話の中でコンプライアンス上必須となる発言(注文内容の再確認、契約事項の確認、商品のリスク説明等)をエージェントが行っているかどうかをチェックする業務が必要になっている。
チェック業務は、録音された会話から必須な発言をしているかどうかをチェックするが、全ての会話をモニタリングするのは非常に難しい。チェックする管理者は、例えば、100名規模のエージェントのうち数名に留まるからである。そこで、録音された会話からサンプリングしたデータやブラックリストに載っているエージェントの会話を中心に、管理者により人手で少数のデータを監視しているのが現状である。
そこで、音声認識技術を用いて、必須発言をしているかどうかをチェックする試みがはじめられている。その際、会話中の必須事項の発言箇所を事前に人手でラベルを付して音声認識システムを学習させる必要がある。また認識率向上のため人手によるきちんとした書き起こしデータを準備する必要がある。業種、企業ごとに必須事項についての発言内容は異なるため、対象データが変わるごとに前述の人手作業が必要となる。また人手による該当箇所のラベル付けでは、人手による作業ゆえ範囲にばらつきが出る可能性がある。
人手によるラベル付けを自動化するために、例えば、コールセンターの話者の結果を音声認識する音声データへの注釈付与方法が開示されている。この方法によれば、不特定話者の会話に対して特定話者が復唱することにより音声認識をし、音声ファイルの検索やデータマイニングに活用するものである(例えば、特許文献1)。
特許文献1は、会話中の特定の発言へのラベル付けに相当する。同様の問題の1つはDialog Act Classification(発話行為の分類)と呼ばれ、会話の各発言にラベル(質問、提案、要求)をつけることが従来行われている(例えば、非特許文献1)。従来行われているDialog Act Classificationはチケット予約等の音声自動応対システムといったアプリケーションを想定したものである。
また、会話の個々の発言に対するラベリングではなく、会話内の特定の発言を注釈(アノテーション)する技術としては会議における議論をモニタリングしてaction item(会議中の決定事項)についての発言を抽出することが行われている(例えば、非特許文献2)。
特開2003−316372号公報 Stolcke et.al(1998) Dialog Act Modeling for Conversational Speech (AAAI Symposium p98−105,1998) Morgan et.al(2006) Automatically Detecting Action Items in Audio Meeting Recordings (SIGdial Workshop p.96−103,2006)
しかし、特許文献1によっても、特定話者が不特定話者の会話の中から選択して復唱するので、復唱する会話は特定話者の選択に依存する。よって、注釈付与結果にばらつきが出る可能性が否めない。また、非特許文献1は、特定場面において利用者の発言を分類し的確な応答を行うための技術であり、特定の利用場面に沿ったデータと応答シナリオとからラベルの設定や分類のための学習データを作成する必要がある。さらに、非特許文献2のaction itemの抽出でも、予め与えられた正解データの中の特徴量を用いて抽出モジュールを構築している。これは、正解データを与えることにより、そこから得られた特徴を用いており、データや適用分野が変わるたびに正解データを人手で用意して学習を行う必要がある。
本発明は、会話のデータの中から特定の分野において必須な発言の箇所を、データや適用分野に関する事前知識を必要とせずに抽出する対話処理装置、対話処理方法及びコンピュータ・プログラムを提供することを目的とする。
本発明の1つの態様では、以下のような解決手段を提供する。
本発明の第1の形態によると、分野に依存しない一般的な会話の内容から導き出された発言構造である発言パターンと、一の分野に関する複数の会話の内容をテキスト化した複数の発言データと、から特定の分野において必須な発言(必須発言と定義する)のデータを出力する対話処理装置を提供する。当該対話処理装置は、発言データ入力部と、発言パターン入力部とを備えている。ここでは、2つの入力部を備えた構成としているが、1つの入力部とし、その入力部が発言データと発言パターンとの入力を受け付けるものとしてもよい。また、対話処理装置が備える処理対象データ抽出部は、発言データ入力部により入力された複数の発言データのうち、発言パターン入力部により入力された発言パターンに適合するパターン適合部を含む複数の処理対象データを抽出する。発言パターンは、例えば、会話の中の確認発言のパターンである。次に、特徴量抽出部は、処理対象データ抽出部により抽出された複数の処理対象データから、パターン適合部を各々取り出し、取り出した複数のパターン適合部に共通の特徴量を抽出する。特徴量は、例えば、ある一定数以上出現した単語や、発話開始後からある一定時間までに出現した単語等である。次に、必須データ抽出部は、特徴量抽出部により抽出された特徴量を用いて発言データ入力部により入力された複数の発言データに含まれる一の分野において必須なデータを抽出する。一の分野において必須なデータとは、特に、セールス取引等におけるコンプライアンス上必須なデータであり、企業における法令遵守のために必須な発言をしている箇所を含むデータをいう。
本発明の第2の形態によると、会話は音声によるものであり、対話処理装置が備える発言データ入力部は、会話から音声認識を用いてテキスト化した複数の発言データを入力する。また、緩和パターン作成部は、特徴量抽出部により抽出された特徴量に基づき、緩和パターンを作成する。緩和パターンとは、発言パターンをより緩和したものであり、例えば、特徴量と、発言パターンの一部を組み合わせて作成する。また、発言データ評価部は、緩和パターン作成部により作成された緩和パターンに基づき、複数の発言データを評価する。発言データ評価部は、算出部と必須パターン作成部とを備える。算出部は、複数のパターン適合部、複数のパターン適合部を除く複数の処理対象データ、及び複数の処理対象データを除く複数の発言データに緩和パターンを適用し、緩和パターンの出現数を各々算出する。また、必須パターン作成部は、算出部により算出された各々の出現数を用いて算出した間違え数の期待値に基づき、緩和パターンから必須パターンを作成する。必須パターンとは、一の分野において必須なデータを抽出するためのパターンをいう。さらに、必須データ抽出部は、発言データ評価部による評価結果、つまり、必須パターン作成部により作成された必須パターンに基づき、複数の発言データから一の分野において必須なデータを抽出する。
本発明の第3の形態によると、対話処理装置が備える特徴量抽出部は、複数のパターン適合部に含まれ一定数以上出現する単語及び単語を含む表現のうち少なくとも1つに基づき、特徴量を抽出する。または、複数のパターン適合部が作成された会話時間の分布に基づき、特徴量を抽出してもよい。また、対話処理装置が備える緩和パターン作成部は、発言パターンを構成する構成語を用いて、特徴量に基づき緩和パターンを作成する。構成語とは、発言パターンを構成しているパターンの特徴的な語であり、例えば、確認発言の場合には、「では」等の話題転換の表現や、「いたします」等の意志の表現をいう。
本発明の第4の形態によると、対話処理装置が備える特徴量抽出部は、必須データ抽出部により抽出された一の分野において必須なデータを複数のパターン適合部として必須なデータに共通の特徴量を抽出する。すなわち、一の分野において必須なデータを処理対象データとして、繰り返し処理を行うことができる。
本発明の第5の形態によると、必須データ抽出部により抽出された一の分野において必須なデータは、一の分野において必須なデータの適合率(P)、及び一の分野において必須なデータの再現率(R)を用いて算出されるF値により検証可能なデータである。
また、本発明は、別の態様として、方法、あるいはコンピュータにおいて実行されるコンピュータ・プログラムとしても提供できる。
本発明の利点は以下の通りである。
第1に、分野に依存しない一般的な会話の内容から導き出された発言構造である発言パターンと、一の分野に関する複数の会話の内容をテキスト化した複数の発言データとを入力することにより、一の分野において必須な発言、特に、セールス取引等におけるコンプライアンス上必須な発言のデータを抽出する。よって、発言パターンと発言データとの2つの入力データを用意するだけで、必須発言データを抽出するので、発言データの中の必須発言の箇所を、数多く、かつデータや適用分野に関する事前知識がなくても、自動的に抽出することができる。これは、パターンで定義するものではない自由な会話において、例えば、特定の分野において必須な発言を精度よく抽出できる確認発言のパターンを見出したことにより実現できる。
第2に、特定の分野において必須なデータを出力するに際して、発言パターンにより抽出された処理対象データの該当箇所(パターン適合部)を用いて、緩和パターンを作成する。その緩和パターンのうち、例えば、一定値を超えたもの(閾値以上のもの)を必須パターンとして使用する。よって、発言パターンと処理対象データとを用いて、より発言表現の多様性に対応した必須パターンを精度よく作成することができる。そのため、必須パターンを用いて、より精度のよい必須データを抽出することができる。
第3に、特定の分野において必須なデータは、適合率及び再現率を用いて算出するF値により、評価することができる。よって、特定の分野において必須なデータの正確さの指標であるF値を用いて、ユーザが、必須なデータの正確さを検証することができる。また、本手法により得られた特定の分野において必須なデータをもとに、人手を介すことにより、より短時間にばらつきの少ない特定の分野において必須な発言を得ることができる。
本発明によれば、会話のデータの中から特定の分野において必須な発言の箇所を、データや適用分野に関する事前知識を必要とせずに抽出する対話処理装置、対話処理方法及びコンピュータ・プログラムを提供することができる。
以下、本発明の実施形態について、図面に基づいて以下に説明する。図1は、本発明の実施形態に係る対話処理システム100の構成の一例を示す図である。対話処理システム100は、対話処理装置1と、音声認識装置90とから構成される。音声認識装置90は、エージェントと顧客との1回の通話を、1つの会話のまとまりとしてテキスト化し、発言データを作成する。
対話処理装置1は、主に対話処理装置1全体の制御を行う制御部10、対話処理装置1で使用するデータやテーブルを記憶する記憶部20、データ入力を行う入力部30、及びデータ出力を行う出力部40からなる。入力部30に入力するものとしては、例えば、音声認識装置90により作成されたデータ(発言データ)である。また、出力部40に出力するものとしては、例えば、エージェントを管理する管理者が参照するコンプライアンス上必須なデータ(一の分野において必須なデータ)である。音声認識装置90は、対話処理装置1と通信ネットワーク95を用いて接続されていてもよいし、対話処理装置1と媒体等を介してデータの授受を行ってもよい。
制御部10は、主として処理対象データ抽出部11、特徴量抽出部12、緩和パターン作成部13、発言データ評価部14、及び必須データ抽出部15を有する。また、発言データ評価部14は、算出部14a及び必須パターン作成部14bを有する。記憶部20は、データ記憶部21及びパターン記憶部22を有する。入力部30は、発言データ入力部31及び発言パターン入力部32を有する。出力部40は、必須データ出力部41を有する。
入力部30の発言データ入力部31は、テキスト化された会話のデータである発言データを入力する。また、発言パターン入力部32は、エージェントの会話を分析して導き出された発言構造に基づき、作成したパターンである発言パターンを入力する。発言パターンは、分野に依存しない会話から発言構造をもとにしたパターンであり、予め見つけ出された法則である。なお、ここでは、入力部30の中に発言データ入力部31及び発言パターン入力部32を備えた構成としているが、入力部30が発言データと発言パターンとの両方の入力を受け付けるものとしてもよい。
制御部10の処理対象データ抽出部11は、発言データの中から処理対象とする処理対象データを抽出する。処理対象とするのは、発言パターンに合致した発言データである。特徴量抽出部12は、処理対象データから処理対象データに共通の特徴量を抽出する。緩和パターン作成部13は、特徴量に基づき、発言パターンをより緩和させたパターンである緩和パターンを作成する。緩和パターンは、例えば、特徴量と、発言パターンの一部とを組み合わせて作成されたものをいう。この作成された緩和パターンにより、発言データから、処理対象データより広く処理対象としてデータを抽出することができる。つまり、発言パターンでは漏れてしまい抽出されなかった必要なデータを、発言データから抽出することができる。
発言データ評価部14は、緩和パターンの適正を評価する。より具体的には、発言データ評価部14に含まれる算出部14aは、緩和パターンをもとに、発言データに出現する緩和パターンの数である出現数を算出する。また、発言データ評価部14に含まれる必須パターン作成部14bは、算出結果を用いて緩和パターンから必須パターンを作成する。必須パターンとは、特定の分野において必須な表現のデータ、特に、セールス取引等におけるコンプライアンス上必須なデータを抽出するためのパターンをいう。必須データ抽出部15は、必須パターンに基づき発言データからコンプライアンス上必須なデータを抽出する。
記憶部20のデータ記憶部21は、発言データ入力部31から入力された発言データや、上述の処理により作成された処理対象データ、コンプライアンス上必須なデータ等のデータを記憶する。また、パターン記憶部22は、発言パターン入力部32から入力された発言パターンや、上述の処理により作成された緩和パターン、必須パターン等のパターンデータを記憶する。
出力部40の必須データ出力部41は、上述の必須データ抽出部15により抽出されたコンプライアンス上必須なデータを出力する。
図2は、会話の全発言とコンプライアンス上必要となる必須発言との例を示す図である。図2(a)には、会話の全発言50と、会話の必須発言51と、発言パターンである必須発言抽出ロジック52とが示されている。会話の全発言50は、例えば、保険契約に関する会話や、通信販売に関する会話を各々1つの分野として、ある分野の会話をテキスト化した発言データである。会話の必須発言51は、会話の全発言50のうち、確認に関する発言である。この会話の必須発言51をなるべく多く抽出し、会話の必須発言51以外の発言をなるべく抽出しないようにして、会話の必須発言51により近いデータを自動的に得るのが、本発明の目的である。
他方、必須発言抽出ロジック52は、分野やデータに依存しない発言構造を用いたロジックであり、会話の全発言50を含む、あらゆる分野の会話発言を分析した結果得られた会話の必須発言51を抽出するためのパターンである。より具体的には、例えば、後述の図3で説明するものである。
図2(b)は、会話の全発言50に必須発言抽出ロジック52を適用した結果を示している。適用した結果抽出された処理対象データである確実必須発言53を、会話の必須発言51と対比して示されている。この確実必須発言53は、必須発言抽出ロジック52を用いることにより、高い適合率(高Precision)を示すものとなる。この図2(b)の時点では、抽出された確実必須発言53は、会話の必須発言51にほとんど含まれ、適合率(Precision)は高いが、残りの会話の必須発言51が多く存在しているため、再現率(Recall)は低い。
図2(c)は、必須パターンである必須発言特徴量抽出ロジック54を示す。必須発言特徴量抽出ロジック54は、確実必須発言53と会話の全発言50との表現の分布に基づき導き出される抽出ロジックであり、必須発言抽出ロジック52よりも会話の全発言50の特徴を加えたものとなる。図2(d)は、会話の全発言50と、会話の必須発言51と、必須発言特徴量抽出ロジック54とを示す。
図2(e)は、会話の全発言50に必須発言特徴量抽出ロジック54を適用した結果を示している。適用した結果抽出されたコンプライアンス上必須なデータである必須発言55を、会話の必須発言51と対比して示されている。必須発言特徴量抽出ロジック54は、必須発言抽出ロジック52よりも会話の全発言50の特徴を加えたため、高い適合率を保ちつつ再現率をあげることができる。その後、図2(c)に戻り、図2(c)から(e)の処理を繰り返し行うことにより、さらに高い適合率を保ちつつ再現率をあげる抽出ロジックを作成することができる。また、その抽出ロジックを使用することにより、多くのコンプライアンス上必須なデータを、不適合なデータをより少なくしながら抽出することができる。
図3は、確認発言に関する発言パターンの一例を示す図である。図3(a)は、エージェントの発言において、任意の数の文の後に、「話題転換」の表現で始まって「意志」または「依頼」の表現で終わる文があり、その後2文以上あった後に、「確認」の表現で終わる文があり、その後任意の文(なくてもよい)があって会話が終わる確認発言の発言パターンを示している。ここで、「話題転換」の表現とは、「それでは〜」、「では〜」、「まず〜」、「ここで〜」というフレーズであり、「話題転換」の表現と文頭とがマッチするかどうか(start=“話題転換”)で判断する。同様に、「意志」の表現は、「〜致します」等のフレーズであり、「意志」の表現と文末とがマッチするかどうか(end=“意志”)で判断する。「依頼」の表現は、「〜お願い致します」等のフレーズであり、「確認」の表現は、「〜よろしいでしょうか」等のフレーズである。
また図3(b)は、図3(a)とは異なる会話の確認発言のパターンを示す。これは、任意の数の文の後に、「話題転換」の表現で始まって「意志」または「依頼」の表現で終わる文があり、その後2文以上あった後に、「確認」の表現なく終わるエージェントの発言パターンを示している。
上述のように作成した確認発言に関する発言パターンは、株の取引、銀行口座の管理、保険契約、通信販売等といったどのような分野(業界)でも共通のパターンであり、分野に依存しないものである。また、図3で説明したように、発言パターンは1通りではなく複数通り存在する。エージェントが確認のために顧客と会話する場合に、顧客の理解度や顧客の対応等に応じて話す内容が異なるからである。
図4は、上述の図3の発言パターンに基づき発言データから抽出された処理対象データの一部として発言パターンに適合するエージェントの発言の例を示す図である。以下、図4から図8を用いて、株の電話取引データに用いた例で説明する。図4は、株取引における注文確認のデータを必須発言として株の電話取引データから抽出した例を示す。図4(a)には、「それでは」という「話題転換」の表現から始まり、「いたします」という「意志」の表現で終わる文がある。また、その後に文が続き、「よろしいでしょうか」との「確認」の表現で終わる文がある。これは、図3の発言パターンをそっくりそのまま発言しているデータであり、お手本的な確実必須発言である。
図4では、当該発言の前後にエージェントにより発せられた発言は除かれ、発言の中の当該部分のみを抽出している。なお、図4では除かれた発言を含む、発言パターンにより抽出された発言データを、処理対象データといい、図4に示すような発言パターンに適合する部分を、パターン適合部という。図4(b)から(e)についても、同様に、図3の発言パターンをそっくりそのまま発言しているデータである。
図5は、上述の図4の確実必須発言(パターン適合部)から抽出した特徴量を示す図である。この例では、特徴量として単語の出現数が一定数以上のものを抽出している。まず図5(a)は、単語の単位で一定数以上発言されていたものを抽出したものである。例えば、「復唱」という単語は、上述の図4のうち(a)及び(b)で使用している。また、「確認」という単語は、上述の図4のうち(c)及び(d)で使用している。同様に、図5(b)は、図5(a)の単語を含む複合語表現を抽出したものである。例えば、「注文内容」という複合語は、図4のうち(a)及び(e)に有している複合語である。このように、一定数以上発言され、一定数以上の文書で共通して出てくる単語及び複合語を抽出する。
図6は、上述の図5の特徴量から生成される緩和パターンを示す図である。この図6の例では、上述の図5において抽出した特徴量と、上述の図3に示す発言パターンの部分とを組み合わせることにより、上述の図3に示す発言パターンを緩和した緩和パターンを作成している。上述の図3において、会話の確認発言は、「話題転換」の表現で始まって、「意志」または「依頼」の表現で終わる文であるため、この「話題転換」、「意志」、「依頼」を各々分けて、分けた表現と特徴量として抽出した単語とを組み合わせている。このように、発言パターンを緩和させた上で、特徴量を組み合わせることで、多くのパターンが作成できる。例えば、図6の最上段は、「確認」を含むパターンであり、2番目は、「確認」を含みかつ「依頼」の表現の文で終わるパターンを示す。
なお、図6において、特徴量と発言パターンの部分との組み合わせによるもの、及び特徴量のみのものにより緩和パターンを作成しているが、発言パターンの一部分のみのものにより緩和パターンを用意してもよい。発言パターンは、しっかりとした文書でないと合致しないように作成されている。しかし、実際の会話では、顧客の対応により、エージェントが砕けた会話をすることも多い。そのため、発言パターンの一部分のみであっても処理の対象とすべく、発言パターンを緩和するものとして作成される。
図7は、上述の図6で作成した組み合わせの出現数を示す緩和パターン評価テーブル23を示す図である。緩和パターン評価テーブル23は、記憶部20に有する。そして、上述の図6で作成した緩和パターンごとに、確実必須発言を含む文書である処理対象データのうち、発言パターン中(パターン適合部)に含まれる出現数(A)、確実必須発言を含む文書である処理対象データのうち、発言パターン中(パターン適合部)には含まれず、発言パターン以外に含まれる出現数(B)、確実必須発言以外の文書に含まれる出現数(C)の数値と、当該パターンの採用可否とが一覧でまとめられている。採用可否については、この図7の例の場合、
Figure 0005025353
により得られる期待間違え数が、総対象文書数の1割以下、つまり、142の1割である14.2以下であれば、緩和パターンとして採用し、1割超の場合は採用しないものとして、○か×かにより記載している。
図7(a)は、「確認」の出現数についてであり、上述の数式(1)に当てはめると期待間違え数が136.3となる。これは総対象文書数の1割である14.2を超えるため、採用しない。同様に、図7(b)の「ご注文」の期待間違え数は、76.7であるため採用しない。一方、図7(c)の「ご注文」を含み、「依頼」の表現の文で終了するものの期待間違え数は、9.0であり、14.2よりも小であるため、緩和パターンとして採用となる。同様に計算し、図7(d)の「ご注文」を含み、「意志」の表現の文で終了するものは、採用となり、図7(e)の「ご注文」を含み、「話題転換」の表現で始まる文は、不採用となる。なお、図7(f)は、出現数がいずれも0であるが、この場合は、緩和パターンとして存在しても支障がないものとして採用となる。このように、ある基準を満たすものを採用することで、元となった発言パターンよりも緩和された条件である緩和パターンを作成することができる。
図8は、発言パターンによる抽出と、必須パターンによる抽出とを対比して表示した図である。図8(a)は、発言パターン62により抽出された結果を概念的に示している。データの確認発言が108箇所ある中で、全体として21箇所の処理対象データ63が抽出されている。処理対象データ63のうち、20箇所が正しい抽出であり、1箇所が誤った抽出であることを示している。この場合、適合率(Precision)Pは、20/21で計算される。また再現率(Recall)Rは、20/108により計算される。この適合率P及び再現率Rを用いて、
Figure 0005025353
により算出されるF値(F measure)は、0.310である。このF値は、一般に、適合率Pをあげると再現率Rが下がる関係にあることから、適合率Pと再現率Rとの両方を考慮して行うことができる正しさの評価の指標である。F値の最大値1であり、1に近づくほど正しい抽出がされたことを示す。
図8(b)は、同様に、必須パターン64により抽出された結果を概念的に示している。データの確認発言が108箇所ある中で、発言パターン62を緩和し、さらに精査した必須パターン64が使用されたため、全体として80箇所のコンプライアンス上必須なデータ65が抽出されている。コンプライアンス上必須なデータ65のうち、62箇所が正しい抽出であり、18箇所が誤った抽出であることを示している。この場合のF値は、上述の数式(2)に当てはめると、0.660となる。図8(a)と(b)とを比較すると、F値が改善されており、さらに適合率Pを大きく下げることなく再現率Rを大幅に改善できているといえる。
また、得られた結果であるコンプライアンス上必須なデータ65から、さらにルールを拡張することで、再現率Rを上げることが可能である。ルールを拡張するには、人手による方法や、再度コンプライアンス上必須なデータ65を用いて必須パターン64を作成することで行うことができる。
図9及び図10は、金融商品の電話取引データに使用した例を示す。図9Aは、上述の図3の発言パターンに基づき発言データから抽出された処理対象データのうち、発言パターンに適合するエージェントの発言を例示している。図9A(a)には、「それでは」という「話題転換」の表現から始まり、「致します」という「意志」の表現で終わる文がある。また、その後に文が続き、「よろしいでしょうか」との「確認」の表現で終わる文がある。このように図9Aに示されたデータは、図3の発言パターンをそっくりそのまま発言している。
図9Bは、図9Aから抽出した特徴量を示す。この例では、特徴量として単語の出現数が一定数以上のものとして、「商品」「詳細」「説明」「重要事項」「注意事項」「購入予定」の各単語または複合語を抽出している。
図9Cは、図9Bの特徴量から緩和パターンを作成し、評価する。具体例は、図10に示す緩和パターン評価テーブルを作成し、採用可否を評価することにより行われる。緩和パターン評価テーブルは、記憶部20に有する。この緩和パターン評価テーブル内の緩和パターンは、上述の図9Bにおいて抽出した特徴量と、上述の図3に示す発言パターンの部分とを組み合わせることにより作成される。そして、緩和パターンごとに図10に示す対象ごとに各出現数を求め、採用可否を判断する。この図10の例では、算出した期待間違え数が、総対象文書数の15%以下であれば、緩和パターンとして採用し、以外は採用しないものとして採用可否を判断している。
戻って、図9Dは、緩和パターンを評価した結果のパターンを使用して、発言データから抽出した金融商品の電話取引データを示す。図9D(a)や(b)に示されるように、発言パターンに合致しないが「重要事項」の複合語を含む電話取引データが抽出される。
以上、図4から図8までは株取引に関する電話取引データを、図9及び図10では金融商品の電話取引データを入力データとして例を示した。このように、本発明では、分野やデータが異なる場合であっても、必須発言として「注文再確認」「契約内容の確認」「商品リスクの説明」といった特定の分野において必須なケース、特に、セールス取引等におけるコンプライアンス上想定される主なケースに適用することができる。
図11は、本発明のフローチャートを示す。まず、ステップS101では、発言データ入力部31が発言データの入力を受け付け、発言パターン入力部32が発言パターンの入力を受け付ける。制御部10は、受け付けた発言データをデータ記憶部21に、発言パターンをパターン記憶部22に、それぞれ記憶する。
次に、ステップS102では、処理対象データ抽出部11は、発言パターンに適合するパターン適合部を含む発言データを抽出し、処理対象データとする。制御部10は、処理対象データを、データ記憶部21に記憶する。
その後、ステップS103では、特徴量抽出部12は、処理対象データからパターン適合部を抜き出し、パターン適合部に共通する特徴量を抽出する。制御部10は、パターン適合部及び特徴量を、記憶部20に記憶する。
その後、ステップS104では、緩和パターン作成部13は、特徴量に基づき、発言パターンを緩和する緩和パターンを作成する。制御部10は、記憶部20に緩和パターンを含む緩和パターン評価テーブル23を作成する。
その後、ステップS105では、発言データ評価部14は、緩和パターンの出現箇所を求め、緩和パターンの採否を決定し、緩和パターンから必須パターンを作成する。具体的には、ステップS103で抜き出した処理対象データから発言パターンに適合するパターン適合部と、パターン適合部を除く処理対象データと、処理対象データを除く発言データと、について、算出部14aが各々緩和パターンの出現数を求め、緩和パターン評価テーブル23に格納する。そして、必須パターン作成部14bが、所定の基準を満たすものを必須として必須パターンを作成する。制御部10は、作成した必須パターンを、パターン記憶部22に記憶する。なお、所定の基準として、上述の図7及び図10では、間違え数の期待値が閾値として、対象文書数に対する所定の割合(1割、15%)を超えたか否かにより判断したが、間違え数の期待値が小さいものから順に所定数を採用し、間違え数の累積が閾値を超えた場合に採用を止めることとしてもよい。
ステップS106では、必須データ抽出部15は、必須パターンに適合する部分を含む発言データを抽出し、コンプライアンス上必須なデータとする。制御部10は、コンプライアンス上必須なデータをデータ記憶部21に記憶すると共に、必須データ出力部41を介してコンプライアンス上必須なデータを出力する。なお、コンプライアンス上必須なデータの他に、パターン記憶部22に記憶された必須パターンを出力してもよい。その後、制御部10は、本処理を終了する。
本発明により、発言データから業界や企業特有の事前知識を用いずに自動的に特定の分野において必須な発言である必須発言の箇所を数多く抽出することができる。また、他の用途で正しいデータを必要とする場合でも、本手法によって得られた結果をもとにさらに正確なデータを人手で作成すれば、より短期間にばらつきが少ない正解なデータを作成することができる。
本発明では、発言パターンと発言データとを入力した後は、出力までの間に人手が介在しない。そのため、抽出される結果は、統一された基準に基づいている。この結果を、人手によるラベル付けのガイドにすることもでき、人手によりさらなるラベル付けを行う場合に、ぶれが起きることを軽減できる。
図12は、本発明の実施形態に係る対話処理装置1のハードウェア構成を示す図である。以下は、コンピュータを典型とする情報処理装置として全般的な構成を説明するが、専用機や組み込み型装置の場合、その環境に応じて必要最小限な構成を選択できることはいうまでもない。
対話処理装置1は、CPU(Central Processing Unit)1010、バスライン1005、通信I/F1040、メインメモリ1050、BIOS(Basic Input Output System)1060、パラレルポート1080、USBポート1090、グラフィック・コントローラ1020、VRAM1024、音声プロセッサ1030、I/Oコントローラ1070、ならびにキーボード及びマウス・アダプタ等1100の入力手段を備える。I/Oコントローラ1070には、フレキシブル・ディスク(FD)ドライブ1072、ハード・ディスク1074、光ディスク・ドライブ1076、半導体メモリ1078、等の記憶手段を接続することができる。グラフィック・コントローラ1020には、表示装置1022が接続されている。また、オプションとして、音声プロセッサ1030には、増幅回路1032及びスピーカ1034が接続される。
BIOS1060は、対話処理装置1の起動時にCPU1010が実行するブートプログラムや、対話処理装置1のハードウェアに依存するプログラム等を格納する。FD(フレキシブル・ディスク)ドライブ1072は、フレキシブル・ディスク1071からプログラムまたはデータを読み取り、I/Oコントローラ1070を介してメインメモリ1050またはハード・ディスク1074に提供する。
光ディスク・ドライブ1076としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、DVD−RAMドライブ、CD−RAMドライブを使用することができる。この際は各ドライブに対応した光ディスク1077を使用する必要がある。光ディスク・ドライブ1076は光ディスク1077からプログラムまたはデータを読み取り、I/Oコントローラ1070を介してメインメモリ1050またはハード・ディスク1074に提供することもできる。
対話処理装置1に提供されるコンピュータ・プログラムは、フレキシブル・ディスク1071、光ディスク1077、またはメモリカード等の記録媒体に格納されて利用者によって提供される。このコンピュータ・プログラムは、I/Oコントローラ1070を介して、記録媒体から読み出され、または通信I/F1040を介してダウンロードされることによって、対話処理装置1にインストールされ実行される。コンピュータ・プログラムが情報処理装置に働きかけて行わせる動作は、既に説明した装置における動作と同一であるので省略する。
上述のコンピュータ・プログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としてはフレキシブル・ディスク1071、光ディスク1077、またはメモリカードの他に、MD等の光磁気記録媒体、テープ媒体を用いることができる。また、専用通信回線やインターネットに接続されたサーバシステムに設けたハード・ディスクまたは光ディスク・ライブラリ等の記憶装置を記録媒体として使用し、通信回線を介してコンピュータ・プログラムを対話処理装置1に提供してもよい。
以上の例は、対話処理装置1について主に説明したが、コンピュータに、情報処理装置で説明した機能を有するプログラムをインストールして、そのコンピュータを情報処理装置として動作させることにより上記で説明した情報処理装置と同様な機能を実現することができる。したがって、本発明において1つの実施形態として説明した情報処理装置は、方法及びそのコンピュータ・プログラムによっても実現可能である。
本発明の対話処理装置1は、ハードウェア、ソフトウェア、またはハードウェア及びソフトウェアの組み合わせとして実現可能である。ハードウェアとソフトウェアの組み合わせによる実施では、所定のプログラムを有するコンピュータ・システムでの実施が典型的な例として挙げられる。かかる場合、該所定のプログラムが該コンピュータ・システムにロードされ実行されることにより、該プログラムは、コンピュータ・システムに本発明に係る処理を実行させる。このプログラムは、任意の言語、コード、または表記によって表現可能な命令群から構成される。そのような命令群は、システムが特定の機能を直接実行すること、または(1)他の言語、コード、もしくは表記への変換、(2)他の媒体への複製、のいずれか一方もしくは双方が行われた後に、実行することを可能にするものである。もちろん、本発明は、そのようなプログラム自体のみならず、プログラムを記録した媒体を含むプログラム製品もその範囲に含むものである。本発明の機能を実行するためのプログラムは、フレキシブル・ディスク、MO、CD−ROM、DVD、ハード・ディスク装置、ROM、MRAM、RAM等の任意のコンピュータ可読媒体に格納することができる。かかるプログラムは、コンピュータ可読媒体への格納のために、通信回線で接続する他のコンピュータ・システムからダウンロードしたり、他の媒体から複製したりすることができる。また、かかるプログラムは、圧縮し、または複数に分割して、単一または複数の記録媒体に格納することもできる。
以上、本発明を実施形態に則して説明したが、本発明は上述した実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態または実施例に記載されたものに限定されるものではない。
(変形形態)
以上説明した実施形態に限定されることなく、種々の変形や変更が可能であって、それらも本発明の範囲内である。
(1)上述の実施形態では、音声認識装置を用いて音声データをテキスト化した発言データを用いて、コンプライアンス上必須なデータを抽出する処理について記載したが、音声データからテキスト化する作業に応用することができる。その結果として、必要な部分のみを効率よく書き起こすことが可能となり、会話全体の書き起こしの労力が低減される。具体的には、発言パターンに該当する部分を認識し、発話時間の分布を用いて、本発明により該当箇所と推定された発言部分の音声を聞く。そして、該当する発言である場合は、音声データから発言データを書き起こして記憶部に記憶する。この処理を繰り返して、書き起こした発言データが記憶部に蓄積されたことに応じて、それらの中の共通表現をもとに、本発明を適用して該当する部分の認識を行う。
(2)上述の実施形態では、エージェントと顧客との電話による会話に基づき、音声認識装置を用いて発言データを作成するものとしているが、例えば、耳が不自由な顧客とテレビ電話等、カメラにより撮影した画像を使いながら手話で会話を行った場合等に用いることができる。その場合には、撮影した画像をもとに、手入力等により手話から作成した発言データを用いることで実現できる。
本発明の実施形態に係る対話処理システムの構成の一例を示す図である。 会話の全発言とコンプライアンス上必要となる必須発言との例を示す図である。 確認発言に関する発言パターンの一例を示す図である。 図3の発言パターンに基づき発言データから抽出された処理対象データの一部として発言パターンに適合するエージェントの発言の例を示す図である。 図4の確実必須発言(パターン適合部)から抽出した特徴量を示す図である。 図5の特徴量から生成される緩和パターンを示す図である。 図6で作成した組み合わせの出現数を示す緩和パターン評価テーブル23を示す図である。 発言パターンによる抽出と、必須パターンによる抽出とを対比して表示した図である。 金融商品の電話取引データに使用した場合の例を示す図である。 図9から作成される緩和パターン評価テーブルを示す図である。 本発明のフローチャートを示す。 本発明の実施形態に係る対話処理装置のハードウェア構成を示す図である。
符号の説明
1 対話処理装置
10 制御部
11 処理対象データ抽出部
12 特徴量抽出部
13 緩和パターン作成部
14 発言データ評価部
14a 算出部
14b 必須パターン作成部
15 必須データ抽出部
20 記憶部
21 データ記憶部
22 パターン記憶部
23 緩和パターン評価テーブル
30 入力部
31 発言データ入力部
32 発言パターン入力部
40 出力部
41 必須データ出力部
90 音声認識装置
95 通信ネットワーク
100 対話処理システム

Claims (9)

  1. 分野に依存しない一般的な会話の内容から導き出された発言構造である発言パターンを入力する発言パターン入力部と、
    一の分野に関する複数の会話の内容をテキスト化した複数の発言データを入力する発言データ入力部と、
    前記発言データ入力部により入力された前記複数の発言データのうち、前記発言パターン入力部により入力された前記発言パターンに適合するパターン適合部を含む複数の処理対象データを抽出する処理対象データ抽出部と、
    前記処理対象データ抽出部により抽出された前記複数の処理対象データから、前記パターン適合部を各々取り出して、複数の前記パターン適合部に共通の特徴量を抽出する特徴量抽出部と、
    前記特徴量抽出部により抽出された前記特徴量に基づき、前記発言パターンをより緩和させたパターンである緩和パターンを作成する緩和パターン作成部と、
    前記緩和パターン作成部により作成された前記緩和パターンに基づき、前記複数の発言データを評価する発言データ評価部であって
    前記緩和パターンを前記複数のパターン適合部、前記複数のパターン適合部を除く前記複数の処理対象データ、及び前記複数の処理対象データを除く前記複数の発言データに適用し前記緩和パターンの出現数を各々算出する算出部と、
    前記算出部により算出された各々の前記出現数に基づき、前記緩和パターンの中から採用される必須パターンを作成する必須パターン作成部と、を備える、発言データ評価部と、
    前記必須パターン作成部により作成された前記必須パターンに基づき、前記複数の発言データから前記一の分野において必須なデータを抽出する必須データ抽出部と、を備えた対話処理装置。
  2. 前記会話は音声によるものであり、
    前記発言データ入力部は、前記会話から音声認識を用いてテキスト化した前記複数の発言データを入力する
    請求項1に記載の対話処理装置。
  3. 前記必須パターン作成部は、
    A:前記複数のパターン適合部の前記出現数、
    B:前記複数のパターン適合部を除く前記複数の処理対象データの前記出現数、
    C:前記複数の処理対象データを除く前記複数の発言データの前記出現数として、
    Figure 0005025353
    により算出した間違え数の期待値に基づき、前記緩和パターンから前記必須パターンを作成する請求項に記載の対話処理装置。
  4. 前記特徴量抽出部は、前記複数のパターン適合部に含まれ一定数以上出現する単語及び前記単語を含む表現のうち少なくとも1つに基づき、前記特徴量を抽出する請求項1に記載の対話処理装置。
  5. 前記緩和パターン作成部は、前記発言パターンを構成する構成語を用いて、前記特徴量に基づき前記緩和パターンを作成する請求項に記載の対話処理装置。
  6. 前記特徴量抽出部は、前記必須データ抽出部により抽出された前記一の分野において必須なデータを前記複数のパターン適合部として前記一の分野において必須なデータに共通の特徴量を抽出する請求項1に記載の対話処理装置。
  7. 前記必須データ抽出部により抽出された前記一の分野において必須なデータは、
    P:前記一の分野において必須なデータの適合率
    R:前記一の分野において必須なデータの再現率として、
    Figure 0005025353
    により算出されるF値により検証可能なデータである、請求項1に記載の対話処理装置。
  8. コンピュータに、
    分野に依存しない一般的な会話の内容から導き出された発言構造である発言パターンを入力するステップと、
    一の分野に関する複数の会話の内容をテキスト化した複数の発言データを入力するステップと、
    入力された前記複数の発言データのうち、入力された前記発言パターンに適合するパターン適合部を含む複数の処理対象データを抽出するステップと、
    抽出された前記複数の処理対象データから、前記パターン適合部を各々取り出して、複数の前記パターン適合部に共通の特徴量を抽出するステップと、
    抽出された前記特徴量に基づき、前記発言パターンをより緩和させたパターンである緩和パターンを作成するステップと、
    作成された前記緩和パターンに基づき、前記複数の発言データを評価するステップであって、
    前記緩和パターンを前記複数のパターン適合部、前記複数のパターン適合部を除く前記複数の処理対象データ、及び前記複数の処理対象データを除く前記複数の発言データに適用し前記緩和パターンの出現数を各々算出するステップと、
    算出された各々の前記出現数に基づき、前記緩和パターンの中から採用される必須パターンを作成するステップと
    を含む、ステップと、
    作成された前記必須パターンに基づき、前記複数の発言データから前記一の分野において必須なデータを抽出するステップと、
    を実行させるためのコンピュータ・プログラム。
  9. 分野に依存しない一般的な会話の内容から導き出された発言構造である発言パターンを入力するステップと、
    一の分野に関する複数の会話の内容をテキスト化した複数の発言データを入力するステップと、
    入力された前記複数の発言データのうち、入力された前記発言パターンに適合するパターン適合部を含む複数の処理対象データを抽出するステップと、
    抽出された前記複数の処理対象データから、前記パターン適合部を各々取り出して、複数の前記パターン適合部に共通の特徴量を抽出するステップと、
    抽出された前記特徴量に基づき、前記発言パターンをより緩和させたパターンである緩和パターンを作成するステップと、
    作成された前記緩和パターンに基づき、前記複数の発言データを評価するステップであって、
    前記緩和パターンを前記複数のパターン適合部、前記複数のパターン適合部を除く前記複数の処理対象データ、及び前記複数の処理対象データを除く前記複数の発言データに適用し前記緩和パターンの出現数を各々算出するステップと、
    算出された各々の前記出現数に基づき、前記緩和パターンの中から採用される必須パターンを作成するステップと
    を含む、ステップと、
    作成された前記必須パターンに基づき、前記複数の発言データから前記一の分野において必須なデータを抽出するステップと、
    を含む対話処理方法。
JP2007174862A 2007-07-03 2007-07-03 対話処理装置、対話処理方法及びコンピュータ・プログラム Expired - Fee Related JP5025353B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007174862A JP5025353B2 (ja) 2007-07-03 2007-07-03 対話処理装置、対話処理方法及びコンピュータ・プログラム
US12/167,879 US8060365B2 (en) 2007-07-03 2008-07-03 Dialog processing system, dialog processing method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007174862A JP5025353B2 (ja) 2007-07-03 2007-07-03 対話処理装置、対話処理方法及びコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2009014888A JP2009014888A (ja) 2009-01-22
JP5025353B2 true JP5025353B2 (ja) 2012-09-12

Family

ID=40222145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007174862A Expired - Fee Related JP5025353B2 (ja) 2007-07-03 2007-07-03 対話処理装置、対話処理方法及びコンピュータ・プログラム

Country Status (2)

Country Link
US (1) US8060365B2 (ja)
JP (1) JP5025353B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2947923B1 (fr) * 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
RU2530267C2 (ru) * 2012-11-28 2014-10-10 Общество с ограниченной ответственностью "Спиктуит" Способ коммуникации пользователя с информационной диалоговой системой
US10181322B2 (en) * 2013-12-20 2019-01-15 Microsoft Technology Licensing, Llc Multi-user, multi-domain dialog system
JP6645063B2 (ja) * 2014-07-29 2020-02-12 ヤマハ株式会社 ターゲット文字列の推定
US9953646B2 (en) 2014-09-02 2018-04-24 Belleau Technologies Method and system for dynamic speech recognition and tracking of prewritten script
US10565981B2 (en) * 2017-09-26 2020-02-18 Microsoft Technology Licensing, Llc Computer-assisted conversation using addressible conversation segments
KR102679849B1 (ko) * 2018-06-19 2024-06-28 프라이온 인코포레이티드 인간-기계 인터랙션들에서의 커뮤니케이션의 증거 기록
CN109389971B (zh) * 2018-08-17 2022-06-17 深圳壹账通智能科技有限公司 基于语音识别的保险录音质检方法、装置、设备和介质
CN110689261A (zh) * 2019-09-25 2020-01-14 苏州思必驰信息科技有限公司 服务质量评测产品定制平台及方法
CN112988984B (zh) * 2021-05-24 2021-08-06 腾讯科技(深圳)有限公司 特征获取方法、装置、计算机设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3350293B2 (ja) * 1994-08-09 2002-11-25 株式会社東芝 対話処理装置及び対話処理方法
US5835667A (en) * 1994-10-14 1998-11-10 Carnegie Mellon University Method and apparatus for creating a searchable digital video library and a system and method of using such a library
US5784568A (en) * 1995-08-31 1998-07-21 Intel Corporation Multi-party audio chat system which allows individual user utterances to be staged separately to render received utterances in order
US6249765B1 (en) 1998-12-22 2001-06-19 Xerox Corporation System and method for extracting data from audio messages
US6629087B1 (en) * 1999-03-18 2003-09-30 Nativeminds, Inc. Methods for creating and editing topics for virtual robots conversing in natural language
WO2002037471A2 (en) * 2000-11-03 2002-05-10 Zoesis, Inc. Interactive character system
US7668718B2 (en) * 2001-07-17 2010-02-23 Custom Speech Usa, Inc. Synchronized pattern recognition source data processed by manual or automatic means for creation of shared speaker-dependent speech user profile
US7054811B2 (en) * 2002-11-06 2006-05-30 Cellmax Systems Ltd. Method and system for verifying and enabling user access based on voice parameters
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7133828B2 (en) * 2002-10-18 2006-11-07 Ser Solutions, Inc. Methods and apparatus for audio data analysis and data mining using speech recognition
JP3878147B2 (ja) 2003-05-01 2007-02-07 日本電信電話株式会社 端末装置
JP3991914B2 (ja) 2003-05-08 2007-10-17 日産自動車株式会社 移動体用音声認識装置
US20060282317A1 (en) * 2005-06-10 2006-12-14 Outland Research Methods and apparatus for conversational advertising
US7640160B2 (en) * 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7949529B2 (en) * 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
JP2007114621A (ja) * 2005-10-21 2007-05-10 Aruze Corp 会話制御装置
EP2178287B1 (en) * 2007-08-09 2015-05-20 Kabushiki Kaisha Audio-Technica Audio conference system

Also Published As

Publication number Publication date
US20090012787A1 (en) 2009-01-08
JP2009014888A (ja) 2009-01-22
US8060365B2 (en) 2011-11-15

Similar Documents

Publication Publication Date Title
JP5025353B2 (ja) 対話処理装置、対話処理方法及びコンピュータ・プログラム
US20210224483A1 (en) Ontology expansion using entity-association rules and abstract relations
US10616414B2 (en) Classification of transcripts by sentiment
US9014363B2 (en) System and method for automatically generating adaptive interaction logs from customer interaction text
US9218810B2 (en) System and method for using semantic and syntactic graphs for utterance classification
US8321220B1 (en) System and method of semi-supervised learning for spoken language understanding using semantic role labeling
US10592611B2 (en) System for automatic extraction of structure from spoken conversation using lexical and acoustic features
US11545139B2 (en) System and method for determining the compliance of agent scripts
JP4827721B2 (ja) 発話分割方法、装置およびプログラム
US20120096029A1 (en) Information analysis apparatus, information analysis method, and computer readable storage medium
WO2011093025A1 (ja) 入力支援システム、方法、およびプログラム
US9904927B2 (en) Funnel analysis
CN111159364B (zh) 对话系统、对话装置、对话方法以及存储介质
CN111666746A (zh) 会议纪要的生成方法及装置、电子设备及存储介质
CN111177350A (zh) 智能语音机器人的话术形成方法、装置和系统
JP2012003702A (ja) トークスクリプト利用状況算出システムおよびトークスクリプト利用状況算出プログラム
US20150220618A1 (en) Tagging relations with n-best
US11706337B1 (en) Artificial intelligence assistant for customer service representatives
JP6380393B2 (ja) 文章分類装置、文章分類方法、及び文章分類プログラム
KR101705228B1 (ko) 전자문서생성장치 및 그 동작 방법
JP5457284B2 (ja) 談話内訳算出システムおよび談話内訳算出プログラム
JP6743108B2 (ja) パターン認識モデル及びパターン学習装置、その生成方法、それを用いたfaqの抽出方法及びパターン認識装置、並びにプログラム
CN114896383A (zh) 智能语音标注系统的字准检测方法、装置、设备及介质
JP2019029024A (ja) 入力テキスト処理装置、機械学習システム、判定装置及び判定システム並びに入力テキスト処理用プログラム、機械学習システム用プログラム及び判定システム用プログラム
JP2010008764A (ja) 音声認識方法、音声認識システム、および音声認識装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090930

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120417

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120619

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees