JP2016012197A - 対話装置、方法およびプログラム - Google Patents

対話装置、方法およびプログラム Download PDF

Info

Publication number
JP2016012197A
JP2016012197A JP2014132781A JP2014132781A JP2016012197A JP 2016012197 A JP2016012197 A JP 2016012197A JP 2014132781 A JP2014132781 A JP 2014132781A JP 2014132781 A JP2014132781 A JP 2014132781A JP 2016012197 A JP2016012197 A JP 2016012197A
Authority
JP
Japan
Prior art keywords
utterance
solution
target
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014132781A
Other languages
English (en)
Other versions
JP6275569B2 (ja
Inventor
市村 由美
Yumi Ichimura
由美 市村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014132781A priority Critical patent/JP6275569B2/ja
Priority to PCT/JP2015/059821 priority patent/WO2015198673A1/en
Publication of JP2016012197A publication Critical patent/JP2016012197A/ja
Priority to US15/257,203 priority patent/US10319378B2/en
Application granted granted Critical
Publication of JP6275569B2 publication Critical patent/JP6275569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】コストを低減しつつ課題および解決策の対応を学習できる。【解決手段】本実施形態に係る対話装置は、格納部、第1抽出部、検索部、生成部、第2抽出部および登録部を含む。格納部は、課題と該課題を解決するための1以上の解決策とを対応付けて格納する。第1抽出部は、利用者の第1発話から、課題と捉えうる表現を対象課題として抽出する。検索部は、前記対象課題に対応する解決策である対象解決策を前記格納部から検索する。生成部は、前記格納部に前記対象解決策が存在しない場合または該対象解決策が前記利用者により拒否される場合、前記利用者から前記対象解決策を含む発話を促すための第1発話促進文を生成する。第2抽出部は、前記第1発話促進文に対する前記利用者の応答である第2発話から前記対象解決策を抽出する。登録部は、前記対象課題と前記対象解決策とを対応付けて前記格納部に登録する。【選択図】図1

Description

本発明の実施形態は、対話装置、方法およびプログラムに関する。
予め決められたコマンドしか受け付けられないコマンド型対話システムと比較して、スマートフォンなどで利用されるパーソナルアシスタントと呼ばれる音声対話アプリケーションでは、ある程度自由な言葉を受け付けることができる。例えば、利用者がしてほしいこととして「天気を教えて」という内容を明示的に伝えると、アプリケーションが起動して天気予報を表示することができ、利用者の要望に応えることができる。
しかし、例えば、「明日はゴルフなんだ」のような不明確な指示に対して「天気を教えて欲しい」という非明示的な要求を汲み取り、アプリケーションを起動して天気予報を表示するといった課題解決型の対話を行うには、予め課題と課題を解決するための解決策とを対応付けた課題解決知識を用意しておく必要がある。予め課題解決知識を用意するには、コーパスや発話履歴を利用するなどして収集した課題の表現に対して解決策を作成する、またはシステムが用意できる解決策に対して利用者にアンケートを実施するなどして課題の表現を収集する、といった手法が考えられる。
また別の手法として、利用者の音声指示とリモコン操作とを対応づけて記憶する手法もある。
特許第4181590号明細書
しかし、予め課題解決知識を用意する手法は、課題解決知識を作成および更新するために多くのコストおよび時間がかかる。さらに、利用者の音声指示とリモコン操作とを対応づけて記憶する手法は、利用者が機器操作を行った後に操作理由を問う手法であるため、解決策が実行される前に、発話の中から操作理由(すなわち課題)と操作内容(すなわち解決策)との対応を得ることができない。
本開示は、上述の課題を解決するためになされたものであり、コストを低減しつつ課題と解決策との対応を学習することができる対話装置、方法およびプログラムを提供することを目的とする。
本実施形態に係る対話装置は、格納部、第1抽出部、検索部、生成部、第2抽出部および登録部を含む。格納部は、課題と該課題を解決するための1以上の解決策とを対応付けて格納する。第1抽出部は、利用者の第1発話から、課題と捉えうる表現を対象課題として抽出する。検索部は、前記対象課題に対応する解決策である対象解決策を前記格納部から検索する。生成部は、前記格納部に前記対象解決策が存在しない場合または該対象解決策が前記利用者により拒否される場合、前記利用者から前記対象解決策を含む発話を促すための第1発話促進文を生成する。第2抽出部は、前記第1発話促進文に対する前記利用者の応答である第2発話から前記対象解決策を抽出する。登録部は、前記対象課題と前記対象解決策とを対応付けて前記格納部に登録する。
対話装置を含む対話システムを示すブロック図。 対話装置の動作を示すフローチャート。 課題表現テーブルの一例を示す図。 課題抽出部の課題抽出処理を示すフローチャート。 知識格納部の一例を示す図。 解決策検索部の検索処理を示すフローチャート。 発話促進文テーブルの一例を示す図。 発話促進文生成部の生成処理を示すフローチャート。 解決策抽出部の解決策抽出処理を示すフローチャート。 解決策抽出処理の別例を示すフローチャート。 キーワードリストの一例を示す図。 知識登録部の登録処理を示すフローチャート。 発話バッファの一例を示す図。 課題バッファの一例を示す図。 解決策バッファの一例を示す図。 発話促進文バッファの一例を示す図。
以下、図面を参照しながら本実施形態に係る対話装置、方法およびプログラムについて詳細に説明する。なお、以下の実施形態では、同一の参照符号を付した部分は同様の動作を行うものとして、重複する説明を適宜省略する。
本実施形態に係る対話システムは、明確な指示に対して解決策を提示することに加え、不明確な指示に対して解決策を提示することを想定する。例えば、「大変だ、急病人がいます」と発話された場合、「急病人のために何をすればいいか知りたい」という課題と認識し、この課題に対して緊急連絡先の提示およびAED(自動体外式除細動器)の設置場所の回答などを解決策として提示するようなシステムを想定する。
本実施形態に係る対話装置を含む対話システムについて、図1のブロック図を参照して説明する。
本実施形態に係る対話システム100は、対話装置110、端末装置130、音声認識サーバ140、音声合成サーバ150を含む。
端末装置130は、例えばパーソナルコンピュータ131、スマートフォン132であり、インターネットおよび携帯電話網などのネットワーク160を経由して、音声認識サーバ140に利用者から受け取った発話を音声データとして送る。
音声認識サーバ140は、ネットワーク160を経由して端末装置130から音声データを受け取り、音声データを音声認識処理し、音声データをテキストに変換した発話テキストを生成する。
対話装置110は、ネットワーク160を経由して音声認識サーバ140から発話テキストを受け取り、発話テキストに基づいて発話の意図および課題を理解する処理を行い、発話に対する応答を示すテキストである応答テキストを生成する。
音声合成サーバ150は、ネットワーク160を経由して対話装置110から応答テキストを受け取り、応答テキストを音声合成して音声データを生成し、ネットワーク160を経由して端末装置130に送る。利用者は、端末装置130を介して自分の発話に対する対話装置からの応答を音声として聞くことができる。
次に、対話装置110の詳細について説明する。
本実施形態に係る対話装置110は、取得部111、課題抽出部112、知識格納部113、解決策検索部114、発話促進文生成部115、解決策抽出部116、知識登録部117、応答生成部118、処理結果バッファ119および出力部120を含む。
処理結果バッファ119は、発話バッファ119−1、課題バッファ119−2、解決策バッファ119−3および発話促進文バッファ119−4を含む。
取得部111は、音声認識サーバ140から利用者の発話に関する発話テキストを受け取り、発話テキストに対して形態素解析を行う。取得部111は、発話テキストと形態素解析結果とを発話バッファ119−1に書き込む。なお、以下では説明の便宜上、発話テキストに対して処理を行うことを、単に発話に対して処理を行うという。
課題抽出部112は、発話バッファ119−1から発話と形態素解析結果とを受け取り、発話から課題として捉えうる表現を対象課題として抽出する。課題抽出部112は、対象課題を課題バッファ119−2に書き込む。課題抽出部112の処理については、図3および図4を参照して後述する。なお、取得部111から直接発話と形態素解析結果とを受け取ってもよい。
知識格納部113は、課題と課題を解決するための1つ以上の解決策とを対応付けて格納する。なお、課題と対応する解決策との組を課題解決知識とも呼ぶ。知識格納部113については、図5を参照して後述する。
解決策検索部114は、課題バッファ119−2から対象課題を受け取り、対象課題に対応する解決策である対象解決策を知識格納部113から検索する。なお、課題抽出部112から直接対象課題を受け取ってもよい。解決策検索部114の処理については、図6を参照して後述する。対象解決策が存在した場合は、対象解決策を取得して解決策バッファ119−3に対象解決策を書き込む。対象解決策が存在しない場合は、対象解決策が存在しないことを示す未検出情報を生成する。
発話促進文生成部115は、知識格納部113に対象解決策が存在しない場合、または提示した対象解決策が利用者により拒否された場合、発話バッファ119−1から発話を受け取り、利用者の発話に基づいて発話促進文を生成する。発話促進文は、利用者から対象解決策を含む発話を促すための文である。発話促進文生成部115は、発話促進文を発話促進文バッファ119−4に書き込む。なお、発話促進文生成部115は、取得部111から直接発話を受け取ってもよい。知識格納部113に対象解決策が存在しないと判定するには、解決策検索部114から未検出情報を受け取ること、または、解決策バッファ119−3が空の場合に対象解決策が存在しないことを検出することより判定すればよい。「利用者により拒否された場合」とは、利用者が提示された解決策の修正を指示したり、解決策に不満の意思を表したりするなど、利用者が解決策に同意しない場合を示す。発話促進文生成部115の処理については、図7および図8を参照して後述する。
解決策抽出部116は、発話バッファ119−1から発話促進文に対する利用者の応答である発話を受け取り、発話に含まれる対象解決策を抽出する。解決策抽出部116は、対象解決策を解決策バッファ119−3に書き込む。なお、解決策抽出部116は、取得部111から直接発話を受け取ってもよい。解決策抽出部116の処理については、図9および図10を参照して後述する。
知識登録部117は、課題バッファ119−2から対象課題を、解決策バッファ119−3から対象解決策をそれぞれ受け取り、対象課題と対象解決策とを対応付けて、新たな課題解決知識として知識格納部113に格納する。なお、課題抽出部112から対象課題を、解決策抽出部116から対象解決策をそれぞれ直接受け取ってもよい。知識登録部117の処理については、図12を参照して後述する。
応答生成部118は、解決策バッファ119−3から解決策または対象解決策を、発話促進文バッファ119−4から発話促進文をそれぞれ受け取り、言い回しを調整した応答テキストを生成する。なお、応答生成部118は、解決策検索部114から解決策を、解決策抽出部116から対象解決策を、発話促進文生成部115から発話促進文をそれぞれ直接受け取ってもよい。
処理結果バッファ119は、処理結果を一時的に格納する。具体的には、発話バッファ119−1は、取得部111から発話を受け取って格納する。課題バッファ119−2は、課題抽出部112から課題を受け取って格納する。解決策バッファ119−3は、解決策検索部114または解決策抽出部116から解決策を受け取って格納する。発話促進文バッファは、発話促進文生成部115から発話促進文を受け取って格納する。
出力部120は、応答生成部118から応答テキストを受け取り、応答テキストを音声合成サーバ150に出力する。
次に、本実施形態に係る対話装置110の動作について、図2のフローチャートを参照して説明する。
ステップS201では、処理結果バッファ119の各バッファ内の情報をクリアする。
ステップS202では、時系列における発話の順序を示す発話フラグを1に設定する。
ステップS203では、取得部111が、発話を形態素解析して、発話と形態素解析結果と発話フラグとを対応付けて発話バッファ119−1に書き込む。
ステップS204では、課題抽出部112が、発話に課題が含まれるかどうか、すなわち対象課題を抽出したかどうかを判定する。対象課題を抽出した場合はステップS205に進み、対象課題が抽出されない場合はステップS201に戻り、同様の処理を繰り返す。
ステップS205では、解決策検索部114が、対象課題に対応する対象解決策を知識格納部113から検索し、対象解決策が存在するかどうかを判定する。対象解決策が存在する場合はステップS206に進み、対象解決策が存在しない場合はステップS208に進む。
ステップS206では、応答生成部118が、対象解決策に関する内容の言い回しを調整して応答を生成し、利用者に出力する。
ステップS207では、解決策が拒否されたかどうかを判定する。解決策が拒否されたかどうかの判定は、例えば、取得部111が、利用者から「いいえ」または「違う」といった解決策を拒否することを示す内容の発話を受け取る場合に、解決策が拒否されたと判定すればよい。解決策が拒否された場合は、ステップS208に進み、解決策が拒否されない場合はここでの処理を終了する。
ステップS208では、発話促進文生成部115が、発話促進文を生成し、応答生成部118が言い回しを調整して応答テキストを生成し、出力部120が応答テキストを出力することで、利用者が応答テキストの内容を示す音声を取得する。
ステップS209では、発話フラグに1を加算する。
ステップS210では、取得部111が、発話促進文に対する利用者の応答である、新たに受け取った発話を形態素解析して、発話と形態素解析結果と発話フラグとを対応付けて発話バッファ119−1に書き込む。
ステップ211では、解決策抽出部116が、解決策を抽出できたかどうかを判定する。解決策を抽出できた場合はステップS212に進み、解決策を抽出できない場合はステップS208に戻り同様の処理を行う。
ステップS212では、知識登録部117が、対象課題と対象解決策とを対応付けて新たな課題解決知識を知識格納部113に登録する。その後ステップS206に進み同様の処理を行う。以上で対話装置110の動作を終了する。
次に、課題抽出部112で参照される課題表現テーブルについて、図3を参照して説明する。
課題表現テーブル300は、ID301および品詞パターン302を対応付けて格納する。品詞パターン302は、文を構成する品詞の組み合わせを示す。図3では、例えば、ID301が「P001」である品詞パターン302は、「名詞句+格助詞+動詞+希望助動詞」である。この品詞パターン302に対応する文例としては、「イルカが見たい」、「さっぱりしたものが食べたい」などといった発話が挙げられる。
次に、課題抽出部112の課題抽出処理について、図4のフローチャートを参照して説明する。
ステップS401では、発話バッファ119−1に保持される発話を受け取る。
ステップS402では、最新の発話に付される発話フラグが、「1」であるかどうかを判定する。発話フラグが「1」である場合はステップS403に進み、発話フラグが「1」でない場合はここでの処理を終了する。
ステップS403では、発話フラグが「1」である発話と課題表現テーブルとを照合して、発話のなかに、課題表現テーブルに存在する品詞パターンと一致するフレーズ(表現)があるかどうかを判定する。品詞パターンと一致するフレーズがある場合はステップS404に進み、品詞パターンと一致するフレーズがなければここでの処理を終了する。
ステップS404では、品詞パターンと一致するフレーズのうちの1つのフレーズを、対象課題として、課題バッファ119−2に書き込む。品詞パターンと一致するフレーズを1つ選択する方法としては、例えば、課題表現テーブルを有用性の高い品詞パターン順にソートしておき、有用性の高い品詞パターンから順に照合して一致するものがあれば、処理を終了するようにすればよい。以上で課題抽出部112の課題抽出処理を終了する。
次に、知識格納部113の一例について、図5を参照して説明する。
知識格納部113に格納されるテーブル500は、ID501、課題502、解決策503および確信度504を対応付けて格納する。課題502は、課題となる表現である。解決策503は、課題502に対する解決策を示す表現である。確信度504は、課題502に対する解決策503の有用性および課題との関連性を示す指標であり、有用性および関連性が高いほど大きい値とする。例えば、ID501が「K00001」である課題解決知識は、課題502「ラーメンが食べたい」、解決策503「中華料理屋を探す」および確信度「1.0」がそれぞれ対応付けられる。
なお、ここでは、同じ課題502に対する確信度504の和が「1.0」となるように設定する。図5の例では、課題502「時間が余った」に対して、2つの解決策503「カフェを探す」と「書店を探す」とが存在し、確信度504の和が1となるように、それぞれの確信度504は「0.7」と「0.3」とに設定される。
次に、解決策検索部114の検索処理について、図6のフローチャートを参照して説明する。
ステップS601では、課題バッファ119−2から対象課題を受け取る。
ステップS602では、対象課題と知識格納部113に格納される課題とを照合して、対象課題と一致する課題が存在するかどうかを判定する。対象課題と一致する課題が存在する場合はステップS603に進み、対象課題と一致する課題が存在しない場合はステップS605に進む。
ステップS603では、一致フラグを「1」に設定する。一致フラグは、照合の一致度を示す情報であり、応答生成部118が一致フラグを参照することで、解決策バッファ119−3に保持される情報を出力部120へ送る際の言い回しを変化させる。
ステップS604では、ステップS603で一致した課題に対応する全ての解決策を対象解決策として、対象解決策と一致フラグとを解決策バッファ119−3に書き込む。
ステップS605では、対象課題と知識格納部113に格納される課題とを照合して、対象課題と関連する課題である関連課題が存在するかどうかを判定する。関連課題が存在するかどうかの判定は、例えば、対象課題と課題との文字列の一致度が閾値以上であるか、対象課題のカテゴリと課題のカテゴリとの類似度が閾値以上である課題を関連課題であると判定すればよい。関連課題が存在する場合はステップS606に進み、関連課題が存在しない場合はステップS607に進む。
ステップS606では、一致フラグを「0(ゼロ)」に設定する。
ステップS607では、ステップS605で関連課題に対応する全ての解決策を対象解決策として、対象解決策と一致フラグとを解決策バッファ119−3に書き込む。
ステップS608では、解決策バッファ119−3に書き込まれた解決策を確信度の降順にソートする。以上で検索処理を終了する。
次に、発話促進文生成部115で参照される発話促進文テーブルの一例について、図7を参照して説明する。
図7に示す発話促進文テーブル700は、ID701、単語パターン702および発話促進文703をそれぞれ対応付けて格納する。単語パターン702は、対象課題の表現として用いられる単語である。例えば、ID701が「H001」である発話促進文パターンは、単語パターン702が「忘れた」、発話促進文703が「何かお手伝いできることはありますか」である。ID701「H001」に一致する発話の例としては、「コピーを忘れた」という発話が挙げられる。このように、単語パターン702に応じて発話促進文703を用意して、発話の表現に応じて発話促進文の内容を変更することで、利用者により解決策を含む発話を促しやすくなる。
次に、発話促進文生成部115の生成処理について、図8のフローチャートを参照して説明する。
ステップS801では、発話バッファ119−1から発話を受け取る。
ステップS802では、最新の発話の発話フラグが「1」であるかどうかを判定する。発話フラグが「1」である場合はステップS803に進み、発話フラグが「1」でない場合はステップS806に進む。
ステップS803では、発話フラグが「1」である発話(第1発話)と発話促進文テーブルとを照合し、発話の中に単語パターンと一致するフレーズがあるかどうかを判定する。単語パターンと一致するフレーズがある場合はステップS804に進み、単語パターンと一致するフレーズがない場合はステップS805に進む。
ステップS804では、発話促進文テーブルを参照し、発話の中のフレーズに一致した単語パターンに対応する発話促進文を発話促進文バッファ119−4に書き込み、ここでの処理を終了する。
ステップS805では、デフォルトの発話促進文を発話促進文バッファ119−4に書き込み、ここでの処理を終了する。デフォルトの発話促進文は、例えば「どうしましょうか」のように汎用的に使える文であればよい。
ステップS806では、最新の発話の発話フラグが「2」であるかどうかを判定する。発話フラグが「2」である場合はステップS807に進み、発話フラグが「2」でない場合はここでの処理を終了する。
ステップS807では、発話フラグが「2」である発話から、動詞の目的語となっている名詞句を抽出する。
ステップS808では、抽出した名詞句に文字列「とは」を付与した表現を、発話促進文バッファ119−4に書き込み、ここでの処理を終了する。なお、抽出した名詞句に疑問符「?」を付与する表現としてもよく、利用者から名詞句の具体的内容を回答として得られるような表現であればよい。ステップS807およびステップS808の処理は、発話フラグが「2」である発話(第2発話)から解決策を抽出できていない場合であるので、第2発話とは異なる表現を用いた解決策を含む発話を促すための発話促進文(第2発話促進文)を生成する処理である。以上で発話促進文生成部115の生成処理を終了する。
次に、解決策抽出部116の解決策抽出処理について、図9のフローチャートを参照して説明する。
ステップS901では、発話バッファ119−1から発話を受け取る。
ステップS902では、課題バッファ119−2から対象課題を受け取る。
ステップS903では、発話フラグが「2」である発話から、主語または目的語となる名詞句と、述語となる動詞とを抽出する。ここでは、「名詞句+動詞」の品詞パターンに一致する表現を抽出し、抽出した名詞句および動詞について、変数N2に名詞句、変数V2に動詞を設定する。
ステップS904では、最新の発話の発話フラグが「2」であるかどうかを判定する。最新の発話の発話フラグが「2」である場合はステップS905に進み、最新の発話の発話フラグが「2」でない場合はステップS908に進む。
ステップS905では、対象課題から名詞句を抽出して、変数N1に抽出した名詞句を設定する。
ステップS906では、N2がN1に含まれる名詞と異なる名詞を含むかどうかを判定する。ステップS906の処理における名詞には、「こと」、「とき」、「ところ」および「場合」のように、それ自身では実質的な意味を表さず、連体修飾語を受けて使用される形式名詞を含まないものとする。例えば、「コピーができるところ」というフレーズに含まれる名詞は「コピー」であるとする。N2がN1に含まれる名詞と異なる名詞を含む場合はステップS907に進み、異なる名詞を含まない場合はここでの処理を終了する。
ステップS907では、「N2+格助詞+V2」となる表現を対象解決策とし、確信度を「1.0」に設定して、解決策バッファ119−3に書き込み、処理を終了する。
ステップS908では、最新の発話の発話フラグが「3」であるかどうかを判定する。発話フラグが「3」である場合はステップS909に進み、発話フラグが「3」でない場合はここでの処理を終了する。
ステップS909では、発話フラグが「3」の発話から、N2に含まれる名詞句とは異なる名詞句を抽出し、変数N3に抽出した名詞句を設定する。
ステップS910では、「N3+格助詞+V2」となる表現を対象解決策とし、確信度を「1.0」に設定して、解決策バッファ119−3に書き込み、処理を終了する。以上で解決策抽出処理を終了する。なお、発話する利用者は、1人でもよいし、複数でもよい。すなわち、発話フラグが「1」である発話(第1発話)をした利用者と、発話フラグが「2」である発話(第2発話)と、発話フラグが「3」である発話(第3発話)をした利用者が異なってもよい。
次に、解決策抽出部116の解決策抽出処理の別例について、図10のフローチャートを参照して説明する。ここでは、解決策となる名詞句を抽出する場合にキーワードリストを参照する点が図9と異なる。
ステップS1001およびステップS1002以外は、図9に示すフローチャートと同様の処理を行うので、ここでの説明を省略する。
ステップS1001では、N2に設定された名詞句が、キーワードリストに登録されているかどうかを判定する。名詞句がキーワードリストに登録されている場合はステップS907に進み、登録されていない場合はここでの処理を終了する。
ステップS1002では、N3に設定された名詞句が、キーワードリストに登録されているかどうかを判定する。名詞句がキーワードリストに登録されている場合はステップS910に進み、登録されていない場合はここでの処理を終了する。
次に、キーワードリストの一例について、図11を参照して説明する。
キーワードリスト1100は、ID1101およびキーワード1102を対応付けて格納する。例えば、ID1101が「L0001」であるキーワード1102は、「コンビニ」である。キーワードリスト1100には、よく検索される場所やよく利用されるアプリケーションの一覧を登録しておくことが望ましい。
次に、知識登録部117の登録処理について、図12のフローチャートを参照して説明する。
ステップS1201では、課題バッファ119−2から課題を受け取る。
ステップS1202では、解決策バッファ119−3から解決策を受け取る。
ステップS1203では、課題、解決策および確信度を対応付けて知識格納部113に格納する。以上で登録処理を終了する。
以下、対話装置110の具体的な動作例について説明する。
(第1の動作例)
利用者が「コピーを忘れた」と発話する場合を想定する。この場合、取得部111が発話を形態素解析して、発話と形態素解析結果とがリスト番号「1」として、発話バッファ119−1に格納される。
発話バッファ119−1の一例を図13に示す。図13に示すテーブル1300は、リスト番号1301、発話1302、形態素解析結果1303および発話フラグ1304がそれぞれ対応付けられて格納される。
発話1302「コピーを忘れた」の形態素解析結果1303は、図4に示すID301「P003」の品詞パターン302と一致するため、「コピーを忘れた」という発話が対象課題として抽出され、図14に示す課題バッファ119−2に格納される。
続いて、解決策抽出処理が行われるが、図5に示す知識格納部113のテーブル500には、対象課題「コピーを忘れた」に一致する課題もしくは関連課題が存在しない。よって、利用者に解決策を含む発話を促すため、発話促進文生成処理が行われる。対象課題「コピーを忘れた」は、図7に示す発話促進文テーブル700のID701「H001」に対応する単語パターン702「忘れた」に一致するので、発話促進文生成部115が、発話促進文703「何かお手伝いできることはありますか」を生成する。発話促進文は、後段の処理により音声として利用者に出力される。
利用者は、「何かお手伝いできることはありますか」という対話装置110からの問いかけに対し、「コンビニを探して」と発話したと想定する。取得部111は、発話「コンビニを探して」を形態素解析し、図13に示すように、リスト番号1301「2」として、発話と形態素解析結果とを発話バッファ119−1に書き込む。
解決策抽出部116は、発話「コンビニを探して」に対して、解決策抽出処理を行う。図9のフローチャートに従って、N2には「コンビニ」が設定され、V2には「探す」が設定され、N1には「コピー」が設定される。よって、ステップS906により、N2(コンビニ)はN1(コピー)に含まれない名詞と異なる。よって、解決策抽出部116は、ステップS907の処理により、「N2+格助詞+V2」、すなわち「コンビニを探す」というフレーズを対象解決策として抽出する。解決策抽出部116は、対象解決策を解決策バッファ119−3に書き込む。
解決策バッファ119−3の一例を図15に示す。図15に示すように、解決策バッファ119−3のテーブル1500は、リスト番号1501、解決策1502、確信度1503および一致フラグ1504がそれぞれ対応付けられる。
応答生成部118は、解決策バッファ119−3から対象解決策を受け取り、言い回しを調整し、応答テキスト「コンビニを探しましょうか」を生成する。応答テキストは、後段の処理により音声として利用者に出力される。
一方、知識登録部117では、「コピーを忘れた」という対象課題と、「コンビニを探す」という対象解決策と、確信度「1.0」とを対応付けて、新たな課題解決知識として知識格納部113に登録する。
以降、利用者が再度「コピーを忘れた」と発話すると、解決策検索部114は、新たに追加された課題解決知識により、課題「コピーを忘れた」に対する解決策「コンビニを探す」が検索される。よって、応答生成部118により、「コンビニを探しましょうか」という応答テキストを生成することができ、利用者の発話に対し解決策を提示することができる。
(第2の動作例)
ここでは、利用者が「コピーを忘れた」と発話し、対話装置110が「何かお手伝いできることはありますか」と応答するまでは第1の動作例と同様であるが、次の発話として、利用者が「コピーができるところを探して」と発話した場合を想定する。
解決策抽出部116は、発話「コピーができるところを探して」に対して、解決策抽出処理を行う。図9のフローチャートに従って、N2には「コピー」が設定され、V2には「探す」が設定され、N1には「コピー」が設定される。よって、ステップS906により、N2(コピー)とN1(コピー)とが同じであるので解決策を抽出できない。そのため、発話促進文生成部115は、新たな対象解決策を含む発話を促すため、図7のフローチャートのステップS709により、抽出した名詞句「コピーができるところ」に「とは」を末尾に付与し、発話促進文「コピーができるところとは」を生成し、発話促進文バッファ119−4に書き込む。
発話促進文バッファ119−4の一例を図16に示す。発話促進文バッファ119−4のテーブル1600は、リスト番号1601と発話促進文1602とを対応付けて格納する。発話促進文「コピーができるところとは」は、音声として利用者に出力される。
利用者が「コピーができるところとは」に対して「コンビニかな」と発話する場合を想定すると、解決策抽出部116が発話「コンビニかな」に対して、解決策抽出処理を行う。発話「コンビニかな」は、フラグが「3」の発話となるので、図9のフローチャートのステップS909により、発話「コンビニかな」からN2(コピー)と異なる名詞句を抽出し、N3に「コンビニ」を設定する。解決策抽出部116は、ステップS910により、「N3+格助詞+V2」、すなわち「コンビニを探す」というフレーズを対象解決策として、確信度「1.0」とともに解決策バッファ119−3に書き込む。
応答生成部118は、第1の動作例と同様に、解決策バッファ119−3から対象解決策を受け取り、言い回しを調整して、応答テキスト「コンビニを探しましょうか」を生成する。応答テキストは音声として利用者に出力される。
一方、知識登録部117では、第1の動作例と同様に、「コピーを忘れた」という対象課題と、「コンビニを探す」という対象解決策と、確信度「1.0」とを対応付けて、新たな課題解決知識として知識格納部113に登録する。
このように、利用者の応答から対象解決策が得られない場合でも、再度、利用者に対象解決策を含む発話を促し、対象課題に対する対象解決策を得ることで、課題解決知識として学習できる。
(第3の動作例)
第2の動作例と同様の発話および応答を行う場合を想定する。第3の動作例は、解決策抽出部116において、N2にN1と異なる名詞を含むかどうかを判定せず、N2として抽出された名詞句が、キーワードリストに登録されているかどうかにより判定する。
すなわち、解決策抽出部116は、発話「コピーができるところを探して」に対して、図10のフローチャートのステップS1001により、N2として抽出される名詞句「コピーができるところ」が図11に示すキーワードリスト1100に存在しない。よって、発話促進文生成部115が、発話促進文「コピーができるところとは」を生成し、発話促進文バッファ119−4に書き込む。
解決策抽出部116は、次の発話「コンビニかな」に対して、解決策抽出処理を行い、ステップS1001により、N3として抽出される「コンビニ」が図11のID1101「L0001」のキーワード1102「コンビニ」と一致するので、「コンビニを探す」というフレーズを対象解決策として得ることができる。
(第4の動作例)
第4の動作例では、課題「コピーを忘れた」と解決策「コンビニを探す」とが課題解決知識として知識格納部113に予め格納されており、利用者が「傘を忘れた」と発話した場合を想定する。発話「傘を忘れた」は、図4に示すID301「P003」の品詞パターン302と一致するため、「傘を忘れた」という発話が対象課題として抽出され、図14に示す課題バッファ119−2に格納される。
解決策検索部114は、対象課題「傘を忘れた」と一致する課題を知識格納部113から検索するが、一致する課題は存在しない。しかし、対象課題「傘を忘れた」の動詞部分(忘れた)が、課題「コピーを忘れた」の動詞部分(忘れた)と一致する。よって、ここでは課題「コピーを忘れた」は一致度が閾値以上であるとして、課題「コピーを忘れた」は、対象課題「傘を忘れた」と関連する関連課題であると判定し、関連課題「コピーを忘れた」に対応する解決策「コンビニを探す」を抽出する。
応答生成部118は、第1の動作例と同様に、解決策バッファ119−3から対象解決策を受け取り、一致フラグに応じて言い回しを調整する。ここでは、関連課題であるので一致フラグが「0」である。よって、応答生成部118は、より丁寧な言い回しとなるよう対象解決策の文体を調整し、応答テキスト「よろしければ、コンビニを探しましょうか」を生成する。応答テキストは後段の処理により音声として利用者に出力される。もし、利用者が応答テキスト「よろしければ、コンビニを探しましょうか」に同意すれば、知識登録部117では、「傘を忘れた」という対象課題と、「コンビニを探す」という対象解決策と、確信度「1.0」とを対応付けて、新たな課題解決知識として知識格納部113に登録する。
このように、対象課題と一致する課題が知識格納部113に存在しない場合でも、関連課題に対応する解決策を提示することで対象課題の解決を図ることができる。
上述の実施形態では、ネットワーク160を介して、対話装置110、端末装置130、音声認識サーバ140および音声合成サーバ150を利用する形態を説明したが、音声認識サーバ140および音声合成サーバ150を利用せずに、テキストによる入力および出力を行う対話システムとして実現してもよい。また、音声認識サーバ140および音声合成サーバ150の代わりに、対話装置110が音声認識部および音声合成部を含むことで同様の処理を行うようにしてもよい。
以上に示した実施形態によれば、利用者の発話に対して、解決策を提示できない場合に、適切な解決策の発話を促す発話促進文を利用者に提示することで、利用者の発話から解決策を抽出することができ、適切な解決策を提示することができる。さらに、利用者の発話の中から課題と解決策の対応を得ることで、課題と解決策との対応である課題解決知識を学習することができ、課題解決知識の作成および更新のコストを軽減することができる。
上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した対話装置による効果と同様な効果を得ることも可能である。上述の実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、CD−R、CD−RW、DVD−ROM、DVD±R、DVD±RW、Blu−ray(登録商標)Discなど)、半導体メモリ、またはこれに類する記録媒体に記録される。コンピュータまたは組み込みシステムが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の対話装置と同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合または読み込む場合はネットワークを通じて取得または読み込んでもよい。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
なお、本実施形態におけるコンピュータまたは組み込みシステムは、記録媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100・・・対話システム、110・・・対話装置、111・・・取得部、112・・・課題抽出部、113・・・知識格納部、114・・・解決策検索部、115・・・発話促進文生成部、116・・・解決策抽出部、117・・・知識登録部、118・・・応答生成部、119・・・処理結果バッファ、119−1・・・発話バッファ、119−2・・・課題バッファ、119−3・・・解決策バッファ、119−4・・・発話促進文バッファ、120・・・出力部、130・・・端末装置、131・・・パーソナルコンピュータ、132・・・スマートフォン、140・・・音声認識サーバ、150・・・音声合成サーバ、160・・・ネットワーク、300・・・課題表現テーブル、302・・・品詞パターン、500,1300,1500,1600・・・テーブル、502・・・課題、503,1502・・・解決策、504・・・確信度、700・・・発話促進文テーブル、702・・・単語パターン、703,1602・・・発話促進文、1100・・・キーワードリスト、1102・・・キーワード、1301,1601・・・リスト番号、1302・・・発話、1303・・・形態素解析結果、1304・・・発話フラグ、1501・・・リスト番号、1503・・・確信度、1504・・・一致フラグ。

Claims (9)

  1. 課題と該課題を解決するための1以上の解決策とを対応付けて格納する格納部と、
    利用者の第1発話から、課題と捉えうる表現を対象課題として抽出する第1抽出部と、
    前記対象課題に対応する解決策である対象解決策を前記格納部から検索する検索部と、
    前記格納部に前記対象解決策が存在しない場合または該対象解決策が前記利用者により拒否される場合、前記利用者から前記対象解決策を含む発話を促すための第1発話促進文を生成する生成部と、
    前記第1発話促進文に対する前記利用者の応答である第2発話から前記対象解決策を抽出する第2抽出部と、
    前記対象課題と前記対象解決策とを対応付けて前記格納部に登録する登録部と、を具備することを特徴とする対話装置。
  2. 前記第1生成部は、前記第1発話の表現に応じて前記第1発話促進文の内容を変更することを特徴とする請求項1に記載の対話装置。
  3. 前記検索部は、前記対象課題と関連する関連課題が前記格納部に存在する場合、該関連課題に対応する解決策を前記対象解決策として得ることを特徴とする請求項1または請求項2に記載の対話装置。
  4. 前記第2抽出部は、前記第2発話から主語または目的語となる名詞句と述語となる動詞とを抽出し、該名詞句と該動詞とを組み合わせた表現を前記対象解決策として得ることを特徴とする請求項1から請求項3のいずれか1項に記載の対話装置。
  5. 前記第1生成部は、前記第2発話に、前記第1発話に含まれる名詞とは異なりかつ形式名詞ではない名詞が含まれない場合、該第2発話とは異なる表現を用いた解決策を含む発話を促すための第2発話促進文を生成し、
    前記第2抽出部は、前記第2発話促進文に対する前記利用者の応答である第3発話から前記対象解決策を抽出することを特徴とする請求項1から請求項4のいずれか1項に記載の対話装置。
  6. 前記第1生成部は、前記第2発話の主語または目的語となる名詞句がキーワードのリストに含まれない場合、該第2発話とは異なる表現を用いた解決策を含む発話を促すための第2発話促進文を生成し、
    前記第2抽出部は、前記第2発話促進文に対する前記利用者の応答である第3発話から前記対象解決策を抽出することを特徴とすることを特徴とする請求項1から請求項4のいずれか1項に記載の対話装置。
  7. 前記第2抽出部は、前記第2発話から主語または目的語となる第1名詞句と述語となる動詞とを抽出し、前記第3発話から前記第1名詞句とは異なる第2名詞句を抽出し、該第2名詞句と該動詞とを組み合わせた表現を前記対象解決策として得ることを特徴とする請求項5または請求項6に記載の対話装置。
  8. 課題と該課題を解決するための1以上の解決策とを対応付けて格納部に格納し、
    利用者の第1発話から、課題として捉えうる表現を対象課題として抽出し、
    前記対象課題に対応する解決策である対象解決策を前記格納部から検索し、
    前記格納部に前記対象解決策が存在しない場合または該対象解決策が前記利用者により拒否される場合、前記利用者から前記対象解決策を含む発話を促すための第1発話促進文を生成し、
    前記第1発話促進文に対する前記利用者の応答である第2発話から前記対象解決策を抽出し、
    前記対象課題と前記対象解決策とを対応付けて前記格納部に登録することを特徴とする対話方法。
  9. コンピュータを、
    課題と該課題を解決するための1以上の解決策とを対応付けて格納する格納手段と、
    利用者の第1発話から、課題と捉えうる表現を対象課題として抽出する第1抽出手段と、
    前記対象課題に対応する解決策である対象解決策を前記格納部から検索する検索手段と、
    前記格納部に前記対象解決策が存在しない場合または該対象解決策が前記利用者により拒否される場合、前記利用者から前記対象解決策を含む発話を促すための第1発話促進文を生成する生成手段と、
    前記第1発話促進文に対する前記利用者の応答である第2発話から前記対象解決策を抽出する第2抽出手段と、
    前記対象課題と前記対象解決策とを対応付けて前記格納部に登録する登録手段として機能させるための対話プログラム。
JP2014132781A 2014-06-27 2014-06-27 対話装置、方法およびプログラム Active JP6275569B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014132781A JP6275569B2 (ja) 2014-06-27 2014-06-27 対話装置、方法およびプログラム
PCT/JP2015/059821 WO2015198673A1 (en) 2014-06-27 2015-03-23 Interaction apparatus and method
US15/257,203 US10319378B2 (en) 2014-06-27 2016-09-06 Interaction apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014132781A JP6275569B2 (ja) 2014-06-27 2014-06-27 対話装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2016012197A true JP2016012197A (ja) 2016-01-21
JP6275569B2 JP6275569B2 (ja) 2018-02-07

Family

ID=54937774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014132781A Active JP6275569B2 (ja) 2014-06-27 2014-06-27 対話装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US10319378B2 (ja)
JP (1) JP6275569B2 (ja)
WO (1) WO2015198673A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060534A (ja) * 2016-10-03 2018-04-12 ジャパンモード株式会社 問題解決支援システム、問題解決支援方法、及び問題解決支援プログラム
JP2021512393A (ja) * 2018-02-01 2021-05-13 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 会話エージェント学習モデルを動的に構築して構成する方法、コンピュータ・プログラム、およびシステム
JP2021168125A (ja) * 2020-05-15 2021-10-21 北京百度网▲訊▼科技有限公司Beijing Baidu Netcom Science And Technology Co., Ltd. スマート応答方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11062142B2 (en) * 2017-06-29 2021-07-13 Accenture Gobal Solutions Limited Natural language unification based robotic agent control

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170633A (ja) * 2010-02-18 2011-09-01 Nikon Corp 携帯型装置及び情報処理システム
WO2012135229A2 (en) * 2011-03-31 2012-10-04 Microsoft Corporation Conversational dialog learning and correction

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2600081B2 (ja) 1988-11-25 1997-04-16 工業技術院長 自然言語対話装置
US7392185B2 (en) * 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
US7725307B2 (en) * 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
US7987151B2 (en) * 2001-08-10 2011-07-26 General Dynamics Advanced Info Systems, Inc. Apparatus and method for problem solving using intelligent agents
JP2004219714A (ja) 2003-01-15 2004-08-05 Will Being:Kk 人間からの指示に基づいてそれぞれ予め定めた特定のシーンに属する対話のシーンを識別し、シーンに即した自然対話を構成する応答文を作成して、それを音声合成することにより、音声対話を行うコンピュータによる音声対話方法及び音声対話システム
JP2005267092A (ja) 2004-03-17 2005-09-29 Mitsubishi Electric Corp 照応解析装置及びナビゲーション装置
US7720674B2 (en) 2004-06-29 2010-05-18 Sap Ag Systems and methods for processing natural language queries
KR100691400B1 (ko) * 2006-03-31 2007-03-12 엔에이치엔(주) 부가 정보를 이용하여 형태소를 분석하는 방법 및 상기방법을 수행하는 형태소 분석기
JP4181590B2 (ja) 2006-08-30 2008-11-19 株式会社東芝 インタフェース装置及びインタフェース処理方法
US20090076887A1 (en) * 2007-09-16 2009-03-19 Nova Spivack System And Method Of Collecting Market-Related Data Via A Web-Based Networking Environment
US20090210411A1 (en) * 2008-02-15 2009-08-20 Oki Electric Industry Co., Ltd. Information Retrieving System
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
JP5951300B2 (ja) 2012-03-19 2016-07-13 株式会社東芝 サービス制御装置、サービス制御方法およびサービス制御プログラム
US9576574B2 (en) * 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9460075B2 (en) * 2014-06-17 2016-10-04 International Business Machines Corporation Solving and answering arithmetic and algebraic problems using natural language processing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170633A (ja) * 2010-02-18 2011-09-01 Nikon Corp 携帯型装置及び情報処理システム
WO2012135229A2 (en) * 2011-03-31 2012-10-04 Microsoft Corporation Conversational dialog learning and correction

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
永江尚義 他2名: "曖昧な質問でも解決策を提案できる音声対話技術", 東芝レビュー, vol. 68巻9号, JPN6017036392, 1 September 2013 (2013-09-01), JP, pages 14−17頁 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018060534A (ja) * 2016-10-03 2018-04-12 ジャパンモード株式会社 問題解決支援システム、問題解決支援方法、及び問題解決支援プログラム
JP2019125389A (ja) * 2016-10-03 2019-07-25 ジャパンモード株式会社 問題解決支援システム
JP2021512393A (ja) * 2018-02-01 2021-05-13 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 会話エージェント学習モデルを動的に構築して構成する方法、コンピュータ・プログラム、およびシステム
JP7263370B2 (ja) 2018-02-01 2023-04-24 インターナショナル・ビジネス・マシーンズ・コーポレーション 会話エージェント学習モデルを動的に構築して構成する方法、コンピュータ・プログラム、およびシステム
US11886823B2 (en) 2018-02-01 2024-01-30 International Business Machines Corporation Dynamically constructing and configuring a conversational agent learning model
JP2021168125A (ja) * 2020-05-15 2021-10-21 北京百度网▲訊▼科技有限公司Beijing Baidu Netcom Science And Technology Co., Ltd. スマート応答方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
JP7241122B2 (ja) 2020-05-15 2023-03-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド スマート応答方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム

Also Published As

Publication number Publication date
US10319378B2 (en) 2019-06-11
WO2015198673A1 (en) 2015-12-30
US20170040019A1 (en) 2017-02-09
JP6275569B2 (ja) 2018-02-07

Similar Documents

Publication Publication Date Title
US10719507B2 (en) System and method for natural language processing
EP3032532B1 (en) Disambiguating heteronyms in speech synthesis
US10957312B2 (en) Scalable dynamic class language modeling
US9449599B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
CN107430859B (zh) 将输入映射到表单域
US9818401B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
US20190370398A1 (en) Method and apparatus for searching historical data
KR102390940B1 (ko) 음성 인식을 위한 컨텍스트 바이어싱
JP6143883B2 (ja) 対話支援システム、方法、及びプログラム
US9594744B2 (en) Speech transcription including written text
US11074909B2 (en) Device for recognizing speech input from user and operating method thereof
US11790891B2 (en) Wake word selection assistance architectures and methods
WO2017166631A1 (zh) 语音信号处理方法、装置和电子设备
US11741950B2 (en) Method and apparatus with speech processing
US20050256717A1 (en) Dialog system, dialog system execution method, and computer memory product
JP6275569B2 (ja) 対話装置、方法およびプログラム
CA3036998A1 (en) Systems and methods for adaptive proper name entity recognition and understanding
JP2018147238A (ja) 発想支援装置及び発想支援方法
EP3005152B1 (en) Systems and methods for adaptive proper name entity recognition and understanding
US10102845B1 (en) Interpreting nonstandard terms in language processing using text-based communications
Yang et al. Vocabulary expansion through automatic abbreviation generation for Chinese voice search
Wahyutama et al. Performance comparison of open speech-to-text engines using sentence transformer similarity check with the Korean language by foreigners

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180110

R151 Written notification of patent or utility model registration

Ref document number: 6275569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350