JP6275569B2 - 対話装置、方法およびプログラム - Google Patents
対話装置、方法およびプログラム Download PDFInfo
- Publication number
- JP6275569B2 JP6275569B2 JP2014132781A JP2014132781A JP6275569B2 JP 6275569 B2 JP6275569 B2 JP 6275569B2 JP 2014132781 A JP2014132781 A JP 2014132781A JP 2014132781 A JP2014132781 A JP 2014132781A JP 6275569 B2 JP6275569 B2 JP 6275569B2
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- solution
- target
- user
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 67
- 238000000605 extraction Methods 0.000 claims description 61
- 230000008569 process Effects 0.000 claims description 56
- 230000004044 response Effects 0.000 claims description 47
- 230000014509 gene expression Effects 0.000 claims description 27
- 230000002452 interceptive effect Effects 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 13
- 230000003993 interaction Effects 0.000 claims 4
- 230000001737 promoting effect Effects 0.000 claims 1
- 230000000877 morphologic effect Effects 0.000 description 15
- 230000015572 biosynthetic process Effects 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 9
- 239000002245 particle Substances 0.000 description 5
- 235000016496 Panda oleosa Nutrition 0.000 description 4
- 240000000220 Panda oleosa Species 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 241001125840 Coryphaenidae Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001122315 Polites Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
また別の手法として、利用者の音声指示とリモコン操作とを対応づけて記憶する手法もある。
本実施形態に係る対話システムは、明確な指示に対して解決策を提示することに加え、不明確な指示に対して解決策を提示することを想定する。例えば、「大変だ、急病人がいます」と発話された場合、「急病人のために何をすればいいか知りたい」という課題と認識し、この課題に対して緊急連絡先の提示およびAED(自動体外式除細動器)の設置場所の回答などを解決策として提示するようなシステムを想定する。
本実施形態に係る対話システム100は、対話装置110、端末装置130、音声認識サーバ140、音声合成サーバ150を含む。
音声認識サーバ140は、ネットワーク160を経由して端末装置130から音声データを受け取り、音声データを音声認識処理し、音声データをテキストに変換した発話テキストを生成する。
対話装置110は、ネットワーク160を経由して音声認識サーバ140から発話テキストを受け取り、発話テキストに基づいて発話の意図および課題を理解する処理を行い、発話に対する応答を示すテキストである応答テキストを生成する。
音声合成サーバ150は、ネットワーク160を経由して対話装置110から応答テキストを受け取り、応答テキストを音声合成して音声データを生成し、ネットワーク160を経由して端末装置130に送る。利用者は、端末装置130を介して自分の発話に対する対話装置からの応答を音声として聞くことができる。
本実施形態に係る対話装置110は、取得部111、課題抽出部112、知識格納部113、解決策検索部114、発話促進文生成部115、解決策抽出部116、知識登録部117、応答生成部118、処理結果バッファ119および出力部120を含む。
処理結果バッファ119は、発話バッファ119−1、課題バッファ119−2、解決策バッファ119−3および発話促進文バッファ119−4を含む。
課題抽出部112は、発話バッファ119−1から発話と形態素解析結果とを受け取り、発話から課題として捉えうる表現を対象課題として抽出する。課題抽出部112は、対象課題を課題バッファ119−2に書き込む。課題抽出部112の処理については、図3および図4を参照して後述する。なお、取得部111から直接発話と形態素解析結果とを受け取ってもよい。
解決策検索部114は、課題バッファ119−2から対象課題を受け取り、対象課題に対応する解決策である対象解決策を知識格納部113から検索する。なお、課題抽出部112から直接対象課題を受け取ってもよい。解決策検索部114の処理については、図6を参照して後述する。対象解決策が存在した場合は、対象解決策を取得して解決策バッファ119−3に対象解決策を書き込む。対象解決策が存在しない場合は、対象解決策が存在しないことを示す未検出情報を生成する。
知識登録部117は、課題バッファ119−2から対象課題を、解決策バッファ119−3から対象解決策をそれぞれ受け取り、対象課題と対象解決策とを対応付けて、新たな課題解決知識として知識格納部113に格納する。なお、課題抽出部112から対象課題を、解決策抽出部116から対象解決策をそれぞれ直接受け取ってもよい。知識登録部117の処理については、図12を参照して後述する。
処理結果バッファ119は、処理結果を一時的に格納する。具体的には、発話バッファ119−1は、取得部111から発話を受け取って格納する。課題バッファ119−2は、課題抽出部112から課題を受け取って格納する。解決策バッファ119−3は、解決策検索部114または解決策抽出部116から解決策を受け取って格納する。発話促進文バッファは、発話促進文生成部115から発話促進文を受け取って格納する。
出力部120は、応答生成部118から応答テキストを受け取り、応答テキストを音声合成サーバ150に出力する。
ステップS201では、処理結果バッファ119の各バッファ内の情報をクリアする。
ステップS202では、時系列における発話の順序を示す発話フラグを1に設定する。
ステップS203では、取得部111が、発話を形態素解析して、発話と形態素解析結果と発話フラグとを対応付けて発話バッファ119−1に書き込む。
ステップS205では、解決策検索部114が、対象課題に対応する対象解決策を知識格納部113から検索し、対象解決策が存在するかどうかを判定する。対象解決策が存在する場合はステップS206に進み、対象解決策が存在しない場合はステップS208に進む。
ステップS206では、応答生成部118が、対象解決策に関する内容の言い回しを調整して応答を生成し、利用者に出力する。
ステップS208では、発話促進文生成部115が、発話促進文を生成し、応答生成部118が言い回しを調整して応答テキストを生成し、出力部120が応答テキストを出力することで、利用者が応答テキストの内容を示す音声を取得する。
ステップS209では、発話フラグに1を加算する。
ステップS212では、知識登録部117が、対象課題と対象解決策とを対応付けて新たな課題解決知識を知識格納部113に登録する。その後ステップS206に進み同様の処理を行う。以上で対話装置110の動作を終了する。
課題表現テーブル300は、ID301および品詞パターン302を対応付けて格納する。品詞パターン302は、文を構成する品詞の組み合わせを示す。図3では、例えば、ID301が「P001」である品詞パターン302は、「名詞句+格助詞+動詞+希望助動詞」である。この品詞パターン302に対応する文例としては、「イルカが見たい」、「さっぱりしたものが食べたい」などといった発話が挙げられる。
ステップS401では、発話バッファ119−1に保持される発話を受け取る。
ステップS402では、最新の発話に付される発話フラグが、「1」であるかどうかを判定する。発話フラグが「1」である場合はステップS403に進み、発話フラグが「1」でない場合はここでの処理を終了する。
知識格納部113に格納されるテーブル500は、ID501、課題502、解決策503および確信度504を対応付けて格納する。課題502は、課題となる表現である。解決策503は、課題502に対する解決策を示す表現である。確信度504は、課題502に対する解決策503の有用性および課題との関連性を示す指標であり、有用性および関連性が高いほど大きい値とする。例えば、ID501が「K00001」である課題解決知識は、課題502「ラーメンが食べたい」、解決策503「中華料理屋を探す」および確信度「1.0」がそれぞれ対応付けられる。
ステップS601では、課題バッファ119−2から対象課題を受け取る。
ステップS602では、対象課題と知識格納部113に格納される課題とを照合して、対象課題と一致する課題が存在するかどうかを判定する。対象課題と一致する課題が存在する場合はステップS603に進み、対象課題と一致する課題が存在しない場合はステップS605に進む。
ステップS603では、一致フラグを「1」に設定する。一致フラグは、照合の一致度を示す情報であり、応答生成部118が一致フラグを参照することで、解決策バッファ119−3に保持される情報を出力部120へ送る際の言い回しを変化させる。
ステップS604では、ステップS603で一致した課題に対応する全ての解決策を対象解決策として、対象解決策と一致フラグとを解決策バッファ119−3に書き込む。
ステップS606では、一致フラグを「0(ゼロ)」に設定する。
ステップS607では、ステップS605で関連課題に対応する全ての解決策を対象解決策として、対象解決策と一致フラグとを解決策バッファ119−3に書き込む。
ステップS608では、解決策バッファ119−3に書き込まれた解決策を確信度の降順にソートする。以上で検索処理を終了する。
図7に示す発話促進文テーブル700は、ID701、単語パターン702および発話促進文703をそれぞれ対応付けて格納する。単語パターン702は、対象課題の表現として用いられる単語である。例えば、ID701が「H001」である発話促進文パターンは、単語パターン702が「忘れた」、発話促進文703が「何かお手伝いできることはありますか」である。ID701「H001」に一致する発話の例としては、「コピーを忘れた」という発話が挙げられる。このように、単語パターン702に応じて発話促進文703を用意して、発話の表現に応じて発話促進文の内容を変更することで、利用者により解決策を含む発話を促しやすくなる。
ステップS801では、発話バッファ119−1から発話を受け取る。
ステップS802では、最新の発話の発話フラグが「1」であるかどうかを判定する。発話フラグが「1」である場合はステップS803に進み、発話フラグが「1」でない場合はステップS806に進む。
ステップS803では、発話フラグが「1」である発話(第1発話)と発話促進文テーブルとを照合し、発話の中に単語パターンと一致するフレーズがあるかどうかを判定する。単語パターンと一致するフレーズがある場合はステップS804に進み、単語パターンと一致するフレーズがない場合はステップS805に進む。
ステップS805では、デフォルトの発話促進文を発話促進文バッファ119−4に書き込み、ここでの処理を終了する。デフォルトの発話促進文は、例えば「どうしましょうか」のように汎用的に使える文であればよい。
ステップS806では、最新の発話の発話フラグが「2」であるかどうかを判定する。発話フラグが「2」である場合はステップS807に進み、発話フラグが「2」でない場合はここでの処理を終了する。
ステップS808では、抽出した名詞句に文字列「とは」を付与した表現を、発話促進文バッファ119−4に書き込み、ここでの処理を終了する。なお、抽出した名詞句に疑問符「?」を付与する表現としてもよく、利用者から名詞句の具体的内容を回答として得られるような表現であればよい。ステップS807およびステップS808の処理は、発話フラグが「2」である発話(第2発話)から解決策を抽出できていない場合であるので、第2発話とは異なる表現を用いた解決策を含む発話を促すための発話促進文(第2発話促進文)を生成する処理である。以上で発話促進文生成部115の生成処理を終了する。
ステップS901では、発話バッファ119−1から発話を受け取る。
ステップS902では、課題バッファ119−2から対象課題を受け取る。
ステップS903では、発話フラグが「2」である発話から、主語または目的語となる名詞句と、述語となる動詞とを抽出する。ここでは、「名詞句+動詞」の品詞パターンに一致する表現を抽出し、抽出した名詞句および動詞について、変数N2に名詞句、変数V2に動詞を設定する。
ステップS905では、対象課題から名詞句を抽出して、変数N1に抽出した名詞句を設定する。
ステップS906では、N2がN1に含まれる名詞と異なる名詞を含むかどうかを判定する。ステップS906の処理における名詞には、「こと」、「とき」、「ところ」および「場合」のように、それ自身では実質的な意味を表さず、連体修飾語を受けて使用される形式名詞を含まないものとする。例えば、「コピーができるところ」というフレーズに含まれる名詞は「コピー」であるとする。N2がN1に含まれる名詞と異なる名詞を含む場合はステップS907に進み、異なる名詞を含まない場合はここでの処理を終了する。
ステップS907では、「N2+格助詞+V2」となる表現を対象解決策とし、確信度を「1.0」に設定して、解決策バッファ119−3に書き込み、処理を終了する。
ステップS909では、発話フラグが「3」の発話から、N2に含まれる名詞句とは異なる名詞句を抽出し、変数N3に抽出した名詞句を設定する。
ステップS910では、「N3+格助詞+V2」となる表現を対象解決策とし、確信度を「1.0」に設定して、解決策バッファ119−3に書き込み、処理を終了する。以上で解決策抽出処理を終了する。なお、発話する利用者は、1人でもよいし、複数でもよい。すなわち、発話フラグが「1」である発話(第1発話)をした利用者と、発話フラグが「2」である発話(第2発話)と、発話フラグが「3」である発話(第3発話)をした利用者が異なってもよい。
ステップS1001およびステップS1002以外は、図9に示すフローチャートと同様の処理を行うので、ここでの説明を省略する。
ステップS1002では、N3に設定された名詞句が、キーワードリストに登録されているかどうかを判定する。名詞句がキーワードリストに登録されている場合はステップS910に進み、登録されていない場合はここでの処理を終了する。
キーワードリスト1100は、ID1101およびキーワード1102を対応付けて格納する。例えば、ID1101が「L0001」であるキーワード1102は、「コンビニ」である。キーワードリスト1100には、よく検索される場所やよく利用されるアプリケーションの一覧を登録しておくことが望ましい。
ステップS1201では、課題バッファ119−2から課題を受け取る。
ステップS1202では、解決策バッファ119−3から解決策を受け取る。
ステップS1203では、課題、解決策および確信度を対応付けて知識格納部113に格納する。以上で登録処理を終了する。
(第1の動作例)
利用者が「コピーを忘れた」と発話する場合を想定する。この場合、取得部111が発話を形態素解析して、発話と形態素解析結果とがリスト番号「1」として、発話バッファ119−1に格納される。
発話バッファ119−1の一例を図13に示す。図13に示すテーブル1300は、リスト番号1301、発話1302、形態素解析結果1303および発話フラグ1304がそれぞれ対応付けられて格納される。
続いて、解決策抽出処理が行われるが、図5に示す知識格納部113のテーブル500には、対象課題「コピーを忘れた」に一致する課題もしくは関連課題が存在しない。よって、利用者に解決策を含む発話を促すため、発話促進文生成処理が行われる。対象課題「コピーを忘れた」は、図7に示す発話促進文テーブル700のID701「H001」に対応する単語パターン702「忘れた」に一致するので、発話促進文生成部115が、発話促進文703「何かお手伝いできることはありますか」を生成する。発話促進文は、後段の処理により音声として利用者に出力される。
解決策バッファ119−3の一例を図15に示す。図15に示すように、解決策バッファ119−3のテーブル1500は、リスト番号1501、解決策1502、確信度1503および一致フラグ1504がそれぞれ対応付けられる。
一方、知識登録部117では、「コピーを忘れた」という対象課題と、「コンビニを探す」という対象解決策と、確信度「1.0」とを対応付けて、新たな課題解決知識として知識格納部113に登録する。
以降、利用者が再度「コピーを忘れた」と発話すると、解決策検索部114は、新たに追加された課題解決知識により、課題「コピーを忘れた」に対する解決策「コンビニを探す」が検索される。よって、応答生成部118により、「コンビニを探しましょうか」という応答テキストを生成することができ、利用者の発話に対し解決策を提示することができる。
ここでは、利用者が「コピーを忘れた」と発話し、対話装置110が「何かお手伝いできることはありますか」と応答するまでは第1の動作例と同様であるが、次の発話として、利用者が「コピーができるところを探して」と発話した場合を想定する。
第2の動作例と同様の発話および応答を行う場合を想定する。第3の動作例は、解決策抽出部116において、N2にN1と異なる名詞を含むかどうかを判定せず、N2として抽出された名詞句が、キーワードリストに登録されているかどうかにより判定する。
すなわち、解決策抽出部116は、発話「コピーができるところを探して」に対して、図10のフローチャートのステップS1001により、N2として抽出される名詞句「コピーができるところ」が図11に示すキーワードリスト1100に存在しない。よって、発話促進文生成部115が、発話促進文「コピーができるところとは」を生成し、発話促進文バッファ119−4に書き込む。
解決策抽出部116は、次の発話「コンビニかな」に対して、解決策抽出処理を行い、ステップS1001により、N3として抽出される「コンビニ」が図11のID1101「L0001」のキーワード1102「コンビニ」と一致するので、「コンビニを探す」というフレーズを対象解決策として得ることができる。
第4の動作例では、課題「コピーを忘れた」と解決策「コンビニを探す」とが課題解決知識として知識格納部113に予め格納されており、利用者が「傘を忘れた」と発話した場合を想定する。発話「傘を忘れた」は、図4に示すID301「P003」の品詞パターン302と一致するため、「傘を忘れた」という発話が対象課題として抽出され、図14に示す課題バッファ119−2に格納される。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
Claims (9)
- 課題と該課題を解決するための1以上の解決策とを対応付けて格納する格納部と、
利用者の第1発話から、品詞の組合せを示す品詞パターンと一致する表現を対象課題として抽出する第1抽出部と、
前記対象課題に対応する解決策である対象解決策を前記格納部から検索する検索部と、
前記格納部に前記対象解決策が存在しない場合または該対象解決策が前記利用者により拒否される場合、前記利用者から前記対象解決策を含む発話を促すための第1発話促進文を生成する生成部と、
前記第1発話促進文に対する前記利用者の応答である第2発話から前記対象解決策を抽出する第2抽出部と、
前記対象課題と前記対象解決策とを対応付けて前記格納部に登録する登録部と、を具備する対話装置。 - 前記生成部は、前記対象課題の表現に用いられる単語を示す複数の単語パターンと複数の発話促進文とを対応付けたテーブルを参照し、当該対象課題の表現と一致する単語パターンに対応する発話促進文を前記第1発話促進文として選択する請求項1に記載の対話装置。
- 前記検索部は、前記対象課題と比較して、文字列の一致度又はカテゴリの類似度が閾値以上である関連課題が前記格納部に存在する場合、該関連課題に対応する解決策を前記対象解決策として得る請求項1または請求項2に記載の対話装置。
- 前記第2抽出部は、前記第2発話から主語または目的語となる名詞句と述語となる動詞とを抽出し、該名詞句と該動詞とを組み合わせた表現を前記対象解決策として得る請求項1から請求項3のいずれか1項に記載の対話装置。
- 前記生成部は、前記第2発話に、前記第1発話に含まれる名詞とは異なりかつ形式名詞ではない名詞が含まれない場合、該第2発話とは異なる表現を用いた解決策を含む発話を促すための第2発話促進文を生成し、
前記第2抽出部は、前記第2発話促進文に対する前記利用者の応答である第3発話から前記対象解決策を抽出する請求項1から請求項4のいずれか1項に記載の対話装置。 - 前記生成部は、前記第2発話の主語または目的語となる名詞句がキーワードのリストに含まれない場合、該第2発話とは異なる表現を用いた解決策を含む発話を促すための第2発話促進文を生成し、
前記第2抽出部は、前記第2発話促進文に対する前記利用者の応答である第3発話から前記対象解決策を抽出する請求項1から請求項4のいずれか1項に記載の対話装置。 - 前記第2抽出部は、前記第2発話から主語または目的語となる第1名詞句と述語となる動詞とを抽出し、前記第3発話から前記第1名詞句とは異なる第2名詞句を抽出し、該第2名詞句と該動詞とを組み合わせた表現を前記対象解決策として得る請求項5または請求項6に記載の対話装置。
- 格納手段が、課題と該課題を解決するための1以上の解決策とを対応付けて格納し、
抽出手段が、利用者の第1発話から、品詞の組合せを示す品詞パターンと一致する表現を対象課題として抽出し、
検索手段が、前記対象課題に対応する解決策である対象解決策を前記格納手段から検索し、
生成手段が、前記格納手段に前記対象解決策が存在しない場合または該対象解決策が前記利用者により拒否される場合、前記利用者から前記対象解決策を含む発話を促すための第1発話促進文を生成し、
抽出手段が、前記第1発話促進文に対する前記利用者の応答である第2発話から前記対象解決策を抽出し、
登録手段が、前記対象課題と前記対象解決策とを対応付けて前記格納手段に登録する対話方法。 - コンピュータを、
課題と該課題を解決するための1以上の解決策とを対応付けて格納する格納手段と、
利用者の第1発話から、品詞の組合せを示す品詞パターンと一致する表現を対象課題として抽出する第1抽出手段と、
前記対象課題に対応する解決策である対象解決策を前記格納部から検索する検索手段と、
前記格納部に前記対象解決策が存在しない場合または該対象解決策が前記利用者により拒否される場合、前記利用者から前記対象解決策を含む発話を促すための第1発話促進文を生成する生成手段と、
前記第1発話促進文に対する前記利用者の応答である第2発話から前記対象解決策を抽出する第2抽出手段と、
前記対象課題と前記対象解決策とを対応付けて前記格納部に登録する登録手段として機能させるための対話プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014132781A JP6275569B2 (ja) | 2014-06-27 | 2014-06-27 | 対話装置、方法およびプログラム |
PCT/JP2015/059821 WO2015198673A1 (en) | 2014-06-27 | 2015-03-23 | Interaction apparatus and method |
US15/257,203 US10319378B2 (en) | 2014-06-27 | 2016-09-06 | Interaction apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014132781A JP6275569B2 (ja) | 2014-06-27 | 2014-06-27 | 対話装置、方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016012197A JP2016012197A (ja) | 2016-01-21 |
JP6275569B2 true JP6275569B2 (ja) | 2018-02-07 |
Family
ID=54937774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014132781A Active JP6275569B2 (ja) | 2014-06-27 | 2014-06-27 | 対話装置、方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10319378B2 (ja) |
JP (1) | JP6275569B2 (ja) |
WO (1) | WO2015198673A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6873420B2 (ja) * | 2016-10-03 | 2021-05-19 | ジャパンモード株式会社 | 問題解決支援システム、問題解決支援方法、及び問題解決支援プログラム |
US11062142B2 (en) * | 2017-06-29 | 2021-07-13 | Accenture Gobal Solutions Limited | Natural language unification based robotic agent control |
US11886823B2 (en) * | 2018-02-01 | 2024-01-30 | International Business Machines Corporation | Dynamically constructing and configuring a conversational agent learning model |
CN111611364B (zh) * | 2020-05-15 | 2023-08-15 | 北京百度网讯科技有限公司 | 一种智能应答方法、装置、设备及存储介质 |
JP7536048B2 (ja) * | 2022-03-22 | 2024-08-19 | 株式会社日本総合研究所 | コンピュータプログラム、情報処理装置、及び情報処理方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2600081B2 (ja) | 1988-11-25 | 1997-04-16 | 工業技術院長 | 自然言語対話装置 |
US7725307B2 (en) * | 1999-11-12 | 2010-05-25 | Phoenix Solutions, Inc. | Query engine for processing voice based queries including semantic decoding |
US7392185B2 (en) * | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
US7987151B2 (en) * | 2001-08-10 | 2011-07-26 | General Dynamics Advanced Info Systems, Inc. | Apparatus and method for problem solving using intelligent agents |
JP2004219714A (ja) | 2003-01-15 | 2004-08-05 | Will Being:Kk | 人間からの指示に基づいてそれぞれ予め定めた特定のシーンに属する対話のシーンを識別し、シーンに即した自然対話を構成する応答文を作成して、それを音声合成することにより、音声対話を行うコンピュータによる音声対話方法及び音声対話システム |
JP2005267092A (ja) | 2004-03-17 | 2005-09-29 | Mitsubishi Electric Corp | 照応解析装置及びナビゲーション装置 |
US7720674B2 (en) | 2004-06-29 | 2010-05-18 | Sap Ag | Systems and methods for processing natural language queries |
KR100691400B1 (ko) * | 2006-03-31 | 2007-03-12 | 엔에이치엔(주) | 부가 정보를 이용하여 형태소를 분석하는 방법 및 상기방법을 수행하는 형태소 분석기 |
JP4181590B2 (ja) | 2006-08-30 | 2008-11-19 | 株式会社東芝 | インタフェース装置及びインタフェース処理方法 |
US20090076887A1 (en) * | 2007-09-16 | 2009-03-19 | Nova Spivack | System And Method Of Collecting Market-Related Data Via A Web-Based Networking Environment |
US20090210411A1 (en) * | 2008-02-15 | 2009-08-20 | Oki Electric Industry Co., Ltd. | Information Retrieving System |
JP2011170633A (ja) * | 2010-02-18 | 2011-09-01 | Nikon Corp | 携帯型装置及び情報処理システム |
WO2012135226A1 (en) * | 2011-03-31 | 2012-10-04 | Microsoft Corporation | Augmented conversational understanding architecture |
US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
JP5951300B2 (ja) | 2012-03-19 | 2016-07-13 | 株式会社東芝 | サービス制御装置、サービス制御方法およびサービス制御プログラム |
US9576574B2 (en) * | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9460075B2 (en) * | 2014-06-17 | 2016-10-04 | International Business Machines Corporation | Solving and answering arithmetic and algebraic problems using natural language processing |
-
2014
- 2014-06-27 JP JP2014132781A patent/JP6275569B2/ja active Active
-
2015
- 2015-03-23 WO PCT/JP2015/059821 patent/WO2015198673A1/en active Application Filing
-
2016
- 2016-09-06 US US15/257,203 patent/US10319378B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016012197A (ja) | 2016-01-21 |
US10319378B2 (en) | 2019-06-11 |
US20170040019A1 (en) | 2017-02-09 |
WO2015198673A1 (en) | 2015-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11024308B2 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
US10719507B2 (en) | System and method for natural language processing | |
EP3032532B1 (en) | Disambiguating heteronyms in speech synthesis | |
US9818401B2 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
US9449599B2 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
CN107430859B (zh) | 将输入映射到表单域 | |
US20190370398A1 (en) | Method and apparatus for searching historical data | |
US10229675B2 (en) | Scalable dynamic class language modeling | |
KR102390940B1 (ko) | 음성 인식을 위한 컨텍스트 바이어싱 | |
US11016968B1 (en) | Mutation architecture for contextual data aggregator | |
JP6275569B2 (ja) | 対話装置、方法およびプログラム | |
JP6143883B2 (ja) | 対話支援システム、方法、及びプログラム | |
US11790891B2 (en) | Wake word selection assistance architectures and methods | |
WO2017166631A1 (zh) | 语音信号处理方法、装置和电子设备 | |
US11741950B2 (en) | Method and apparatus with speech processing | |
AU2022263497A1 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
JP2018147238A (ja) | 発想支援装置及び発想支援方法 | |
US10102845B1 (en) | Interpreting nonstandard terms in language processing using text-based communications | |
EP3005152B1 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
Yang et al. | Vocabulary expansion through automatic abbreviation generation for Chinese voice search | |
JP2011008373A (ja) | 自然言語処理装置及びプログラム | |
Begum Mustafa et al. | Code-Switching in Automatic Speech Recognition: The Issues and Future Directions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180110 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6275569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |