JP2010282404A - 対話処理装置、対話処理方法、及び対話処理プログラム - Google Patents

対話処理装置、対話処理方法、及び対話処理プログラム Download PDF

Info

Publication number
JP2010282404A
JP2010282404A JP2009134973A JP2009134973A JP2010282404A JP 2010282404 A JP2010282404 A JP 2010282404A JP 2009134973 A JP2009134973 A JP 2009134973A JP 2009134973 A JP2009134973 A JP 2009134973A JP 2010282404 A JP2010282404 A JP 2010282404A
Authority
JP
Japan
Prior art keywords
sentence
user
dependency
estimation
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009134973A
Other languages
English (en)
Other versions
JP5158022B2 (ja
Inventor
Seisho Watabe
生聖 渡部
Shokei Tsuchinaga
将慶 土永
Ryoko Hotta
良子 堀田
Takakatsu Yoshimura
貴克 吉村
Kazuya Shimooka
和也 下岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009134973A priority Critical patent/JP5158022B2/ja
Publication of JP2010282404A publication Critical patent/JP2010282404A/ja
Application granted granted Critical
Publication of JP5158022B2 publication Critical patent/JP5158022B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】ユーザの対話意欲を促進させることができる応答を可能にする。
【解決手段】本発明に係る対話処理装置1は、ユーザの音声を認識する音声認識部2と、音声認識手段2による認識結果に基づいて、ユーザが発話した発話文の少なくとも係り受け関係を解析する構文解析部3と、構文解析手段3により解析された係り受け関係に関する情報を、ユーザの発話の進行に伴い蓄積していく係り受け関係記憶手段4と、係り受け関係記憶手段4に蓄積された係り受け関係に関する情報に基づいて、発話文の内容を纏めた纏め文を生成する応答生成手段6とを備える。
【選択図】図1

Description

本発明は、人とロボット等との対話を可能にする技術に関する。
近年、人と対話をすることができるロボットの開発が進められている。通常、このようなロボットは、ユーザの発話内容に応じた応答文を抽出又は作成し、この応答文を発話する機能を備えている。
以下に、本発明に関連する先行技術を挙げる。特許文献1において、対話相手の発話を音声認識する音声認識手段と、それぞれ音声認識手段の認識結果に基づき、別個の応答生成ルールに従って、対話相手の発話に対する応答を生成する複数の応答生成手段と、各応答生成手段によりそれぞれ生成された応答の中から1つの応答を所定の評価関数を用いた評価結果に基づいて選択する選択手段と、選択手段により選択された応答を外部に音声出力する音声出力手段とを備える対話処理装置が開示されている。
特許文献2において、ユーザの発話内容を解析し、これに関連する予め用意された回答内容を出力する会話制御装置であって、各第二形態素情報の中から、第一形態素情報を構成する形態素を含む第二形態素情報を検索し、検索した第二形態素情報に基づいて、第二形態素情報に関連付けられた回答内容を取得する構成が開示されている。
特許文献3において、被験者の感情を推定する装置であって、被験者に提示情報を提示する情報提示手段と、情報提示手段により提示された提示情報を分析する分析手段と、分析手段により得られる分析結果と提示情報の詳細情報とから得られる文脈から感情状態の候補を推定する文脈推定手段と、情報提示手段により提示された提示情報を視聴する被験者の映像、音声、及び前記被験者の生体情報に基づいて被験者の状況を推定する状況推定手段と、文脈推定手段により得られる感情状態の候補と、状況推定手段により得られる感情状態の尤度とに基づいて被験者の感情を推定する感情推定手段とを備える構成が開示されている。
特許文献4において、検索者が意図する例文を高い精度で検索可能にする類似例文検索装置であって、自然言語で記述された各々異なる複数の例文を示す例文データが予め記憶された記憶手段と、検索対象とする検索対象文を示す対象文データが入力される入力手段と、入力手段により入力される対象文データにより示される各例文の構文的構造を解析して構文要素を特定する特定手段と、特定手段により構文要素が特定された検索対象文と各例文との間における、同一種類の構文要素毎の類似度を導出する導出手段と、導出手段により導出された構文要素毎の類似度に対して構文要素の種類別に予め定められた重み値を加味して、検索対象文と各例文との全体的な類似度を算出する算出手段と、算出手段により算出された全体的な類似度に基づいて各例文から検索対象文に類似する例文を選択する選択手段とを備える構成が開示されている。
非特許文献1において、ウェブからの大量例示抽出を用いた感情の分類化について開示されている。
特開2003−255990号公報 特開2003−303187号公報 特開2005−348872号公報 特開2008−152641号公報
"Emotion Classification Using Massive Examples Extracted from Web" Ryoko TOKUHISA, Kentaro INUI, Yuji MATSUMOTO 著http://www.aclweb.org/anthology-new/C/C08/C08-1111.pdf
しかしながら、ユーザの発話に対するロボットの応答は、実意が感じられない通り一遍なものになってしまう場合が多い。このような応答は、ロボットが自分の話を本当に聞いて、理解しているのかといった疑義の印象をユーザに与える。このような印象は、ユーザの対話意欲を大きく減退させるものである。従って、ロボットの応答には、上記のような疑義の印象をユーザに与えないようにする十分な配慮が必要である。このような問題は、上記を含むあらゆる先行技術において、改善の余地が大きいものである。
そこで、本発明は、ユーザの対話意欲を促進させることができる対話処理を実行することを目的とする。
本発明は、上記課題の解決を図るものであり、ユーザの音声を認識する音声認識部と、前記音声認識部による認識結果に基づいて、前記ユーザが発話した発話文の少なくとも係り受け関係を解析する構文解析部と、前記構文解析部により解析された係り受け関係に関する情報を、前記ユーザの発話の進行に伴い蓄積していく係り受け関係記憶部と、前記係り受け関係記憶部に蓄積された前記係り受け関係に関する情報に基づいて、前記発話文の内容を纏めた纏め文を生成する応答生成部とを備える対話処理装置である。
上記装置によれば、ユーザとロボット等との対話が進行すると、ロボット等によりユーザの発話内容を纏めた(要約した)纏め文が発話される。この纏め文の構成及び発話されるタイミングは、ユーザの発話履歴に含まれる語句の係り受け関係に関する情報に基づいて決定される。これにより、ロボット等が話をよく聞いて理解しているといった印象をユーザに与えることができる。
また、前記応答生成手段は、1つの述語に係り受けする語句の数が、第1の閾値に達した場合に、前記纏め文を生成することが好ましい。この第1の閾値としては、3が好例である。
更に、前記応答生成手段は、1つの述語に係り受け可能な格の総数に対する発話された語句が相当する格の数の割合が、第2の閾値に達した場合に、前記纏め文を生成するものであってもよい。この第2の閾値としては、50%が好例である。
纏め文を作成・発話する条件を、上記のように設定することにより、対話の進行時において適度なタイミングで纏め文を発話させることができる。
また、前記係り受け関係を有する語句の組み合わせに基づいて、前記ユーザの感情を推定する感情推定手段を更に備え、前記応答生成手段は、前記感情推定手段による推定結果に基づいて、前記ユーザの感情を表現する文を追加するものであってもよい。
更に、前記係り受け関係を有する語句の組み合わせに基づいて、前記ユーザが発話した文の内容と因果関係を有する事象を推定する因果関係推定手段を更に備え、前記応答生成手段は、前記因果関係推定手段による推定結果に基づいて、前記事象を表現する文を追加するものであってもよい。
ユーザが発話した述語とこれに係り受けする語句との組み合わせに基づいて、ユーザの感情や、発話内容と因果関係を有する事象を推定することができる。そして、この推定結果に基づく文を、ユーザへの応答文(纏め文を含む)に含めることにより、ロボット等が自らの話を理解している印象を更に深めることができる。
また、本発明は、上記と同様の技術思想に基づく方法、及びコンピュータに特定の処理を実行させるプログラムである。
上記本発明によれば、対話の進行に伴い、ユーザの発話内容を纏めた纏め文をロボット等により発話させることができる。また、ユーザの感情や、発話内容と因果関係を有する事象を表現する文を、ロボット等の応答文に含めることができる。これにより、ユーザの対話意欲を促進させることができる。
本発明の実施の形態1に係る対話処理装置の機能的な構成を示すブロック図である。 実施の形態1に係る対話処理装置における処理の流れを示すフローチャートである。 ユーザと、実施の形態1に係る対話処理装置を備えるロボットとの対話を例示する図である。 係り受け関係記憶部に蓄積される係り受け関係に関する情報を例示する図である。 本発明の実施の形態2に係る対話処理装置の機能的な構成を示すブロック図である。 実施の形態2に係る対話処理装置における処理の流れを示すフローチャートである。 実施の形態2に係る対話処理装置による感情推定処理及び因果推定処理を例示する図である。
実施の形態1
図1は、本実施の形態に係る対話処理装置1の機能的な構成を示している。対話処理装置1は、ロボット等の機器に搭載され、人(ユーザ)との対話を可能にするものであり、中央処理装置、記憶装置、入出力装置等から構成されるコンピュータ、制御プログラム、データベース等を用いて実現される。本実施の形態に係る対話処理装置1は、音声認識部2、構文解析部3、係り受け関係記憶部4、及び応答生成部5を備える。
音声認識部2は、ユーザの音声を認識するものであり、マイク等から入力された音声入力信号を、コンピュータにより解析し、発話された内容をテキストデータとして取り出すものである。
構文解析部3は、音声認識部2による認識結果に基づいて、ユーザによる発話文の文法的な関係を解析するものである。本実施の形態に係る構文解析部3は、係り受け関係の定義が蓄積された係り受け定義DB(Data Base)7を参照して、発話文の係り受け関係を解析する。係り受け定義DB7は、例えば、日本語、英語等の言語の種類に対応して用意される。
係り受け関係記憶部4は、RAM(Random Access Memory)等を含んで構成され、構文解析部3により解析された係り受け関係に関する情報を、ユーザの発話の進行に伴い蓄積していくものである。
応答生成部5は、構文解析部3、係り受け関係記憶部4等からの情報に基づいて、ユーザに対する応答文を生成し、スピーカ等の出力装置に音声出力信号を送信するものであり、本実施の形態に係る応答生成部5は、少なくとも係り受け関係記憶部4に蓄積された係り受け関係に関する情報に基づいて、ユーザによる発話文の内容を纏めた(要約した)纏め文を生成する。
図2は、上記構成の対話処理装置1における処理の流れを示している。先ず、マイク等の入力装置を介してユーザの音声の電気信号が入力されると(S101)、この信号をテキストデータとして認識する(S102)。次いで、認識されたテキストデータに基づいて、構文解析、即ち係り受け関係の解析が行われる(S103)。構文解析により得られた係り受け関係に関する情報は、ユーザの発話の進行に伴い、一時メモリ等に記憶、蓄積されていく(S104)。
そして、上記のように蓄積された係り受け関係に関する情報に基づいて、係り受け数が閾値Nに達したか否か、又は係り受け充足率が閾値Rに達したか否かが判定される(S105)。ここで、係り受け数とは、発話中に含まれる1つの述語に係り受けする語句の数を示す。係り受け充足率とは、1つの述語に係り受け可能な格の総数に対する発話された語句が相当する格の数の割合を示す。
前記ステップS105において、係り受け数が閾値Nに達しておらず、且つ係り受け充足率が閾値Rに達していない場合(N)には、通常の応答文を生成し(S106)、この応答文を出力装置により出力する(S107)。
一方、前記ステップS105において、係り受け数が閾値Nに達したか、又は係り受け充足率が閾値Rに達した場合(Y)には、上述した纏め文を生成し(S108)、この纏め文を出力装置により出力する(S107)。上記閾値Nとしては、例えば3が好ましい。また、上記閾値Rとしては、例えば50%が好ましい。
図3は、ユーザと、上記対話処理装置1を備えるロボットとの対話を例示している。同図において、ユーザの発話1.には、「行った」という述語と、これに係り受けする「冬に」という語句とが含まれている。ロボットの発話2.は、発話1.に対する通常応答文であり、周知の技術を適宜利用して生成、出力されるものである。この発話2.に応答するユーザの発話3.には、発話1.と同一の述語「行った」と、これに係り受けする「北海道に」という語句が含まれている。ロボットの発話4.は、発話3.に対する通常応答文であり、周知の技術を適宜利用して生成、出力されるものである。ユーザの発話5.には、発話1.及び発話3.と同一の述語「行った」と、これに係り受けする「友達と」という語句とが含まれている。そして、ロボットの発話6.は、上記ユーザの発話1.3.5.の発話内容を纏めた纏め文であり、発話1.3.5.に共通する述語「行った」と、これに係り受けする全ての語句「冬に」「友達と」「北海道に」とが含まれている。この例では、ユーザとロボットとの対話において、ユーザが1つの述語「行った」に対して3つの係り受け語「冬に」「友達と」「北海道に」を発話したことにより、ロボットが纏め文を発話した状況が示されている。即ち、この状況は、図2に示すステップS105において、係り受け数が閾値3に達した場合を例示するものである。
図4は、上記係り受け関係記憶部4に記憶される係り受け関係に関する情報を示している。この情報は、発話の進行に伴って登場した述語毎に蓄積されていく。ここでは、述語として「行った」「寝た」が例示されている。述語に係り受け可能な格として、「主体」「対象」「着点」「動作の場所」「存在の場所」「目的」「時間」「手段」「位置的な起点」「時間的な起点」「変化の結果」「動作の相手」「材料」「理由」「その他副詞」が存在する。これら全ての格が全ての述語に係り受け可能というわけではなく、述語によって係り受け可能な格が異なる。例えば、述語「行った」に係り受け可能な格は、「主体」「着点」「目的」「時間」「手段」「位置的な起点」「時間的な起点」「動作の相手」「その他の副詞」の9つである。また、述語「寝た」に係り受け可能な格は、「主体」「動作の場所」「時間」「手段」「理由」「その他の副詞」の6つである。この例では、述語「行った」について、着点「北海道に」、目的「旅行に」、動作の相手「友達と」がユーザにより発話され、述語「寝た」について、手段「布団で」、その他の副詞「久しぶりに」がユーザにより発話された状況が示されている。
上記のように、述語「行った」については、係り受け可能な格の総数が9であり、実際の係り受け数が3である。従って、係り受け充足率は、(実際の係り受け数)/(係り受け可能な格の総数)=3/9≒33%となる。また、述語「寝た」については、係り受け可能な格の総数が6であり、実際の係り受け数が2である。従って、係り受け充足率は、2/6≒33%となる。
その後、対話が進行する中で、述語「寝た」について、例えば動作の場所「旅館で」が発話されると、係り受け充足率は、3/6=50%となる。この場合、係り受け充足率が好ましい閾値R(50%)に達したこととなり、上記纏め文が生成される(図2中ステップS105,S108参照)。一方、述語「行った」については、係り受け充足率が50%に達するためには、係り受け数が5となる必要がある。
このように、纏め文を生成する条件を、係り受け充足率のみとすると、述語「行った」のように、係り受け可能な格の総数が多い語句については、なかなか纏め文が生成されないこととなる。また、述語「寝た」のように、係り受け可能な格の総数が少ない語句については、対話の中で係り受け可能な格に相当する語句が発話される機会が少ないため、係り受け数だけを参照すると、なかなか纏め文が生成されないこととなる。従って、纏め文を生成する条件として、係り受け数及び係り受け充足率の両方を用いることにより、より適切なタイミングでロボットに纏め文を発話させることができる。
上記のように、本実施の形態によれば、対話が進行すると、ロボットによりユーザの発話内容を纏めた纏め文が発話される。これにより、ユーザとロボットとの対話の質をより向上させることができる。
実施の形態2
以下、図5〜図7を参照して、本発明の他の実施の形態について説明する。尚、上記実施の形態1と同様の作用効果を奏する箇所については、同一の符号を付してその説明を省略する。図5は、本実施の形態に係る対話処理装置11の機能的な構成を示している。この対話処理装置11は、上記実施の形態1に係る対話処理装置1の構成要素に加え、感情推定部12、及び因果推定部13を備えている。
感情推定部12は、係り受け関係記憶部4に記憶された情報、応答生成部5により生成された応答文(纏め文を含む)、及び感情定義DB15に格納された情報に基づいて、ユーザの感情を推定し、この推定結果に対応する情報を出力する。即ち、纏め文又はユーザが発話した文に含まれる係り受け関係を有する語句の組み合わせと、予め用意された定義とに基づいて、ユーザの感情が推定される。
因果推定部13は、係り受け関係記憶部4に記憶された情報、応答生成部5により生成された応答文(纏め文を含む)、及び因果定義DB16に格納された情報に基づいて、ユーザが発話した文の内容と因果関係を有する事象を推定し、この推定結果に対応する情報を出力する。即ち、纏め文又はユーザが発話した文に含まれる係り受け関係を有する語句の組み合わせと、予め用意された定義とに基づいて、因果関係を有する事象が推定される。
そして、本実施の形態に係る応答生成部5は、感情推定部12から出力された情報に基づいてユーザの感情を表現する文を作成すると共に、因果推定部13から出力された情報に基づいて因果関係を有する事象を表現する文を作成し、これらの文を含む上記纏め文、その他の応答文を生成する。
図6は、本実施の形態に係る対話処理装置11における処理の流れを示している。この処理は、上記実施の形態1に係る処理(図2参照)に、ステップS201,S202,S203が追加されたものである。
本実施の形態に係る処理においては、ユーザの発話文の係り受け関係に関する情報が、係り受け関係記憶部4に記憶されると(S104)、この係り受け関係記憶部4に記憶された情報等に基づいて、ユーザの感情が推定される(S201)と共に、因果関係を有する事象が推定される(S202)。
その後、ステップS105において、上記実施の形態1と同様に、係り受け数及び係り受け充足率を参照し、纏め文を生成するか否かが判定され、通常応答文又は纏め文が生成される。そして、上記ステップS201,S202において推定された結果に基づいて、ユーザの感情を表現する文、及び/又は因果関係を有する事象を表現する文を、通常応答文又は纏め文に追加して、最終的な応答文とする(S203)。
図7は、上記感情推定部12及び因果推定部13による処理(ステップ201,202,203)を例示している。ここでは、「冬に 友達と 北海道に 行ったのですね。」という纏め文51について説明する。上記感情推定部12による感情推定処理において、「友達と 行く」という語句の組み合わせがポジティブな(良い)経験を表すものと判定され、最終的な応答文51は、「冬に 友達と 北海道に 行ったのですね。良かったですね。」となる。即ち、纏め文51に、「良かったですね。」というユーザの感情を表現する文が追加される。また、上記因果推定部13による因果推定処理において、「冬に 北海道に 行く」という語句の組み合わせが「寒い」いう事象と因果関係を有すると判定され、最終的な応答文52は、「冬に 友達と 北海道に行くと、寒いですよね。」となる。即ち、纏め文51に、「寒いですよね。」という発話内容に因果関係を有する事象を表現する文が追加される。
上記のように、本実施の形態によれば、纏め文に加え、ユーザの感情を表現する文や、発話内容に因果関係を有する事象を表現する文が追加されるので、ユーザとロボットとの対話の質をより向上させることができる。
尚、本発明は、上記実施の形態に限られるものではなく、趣旨を逸脱しない範囲で適宜変更することが可能なものである。
1,11 対話処理装置
2 音声認識部
3 構文解析部
4 係り受け関係記憶部
5 応答生成部
12 感情推定部
13 因果推定部

Claims (21)

  1. ユーザの音声を認識する音声認識手段と、
    前記音声認識手段による認識結果に基づいて、前記ユーザが発話した発話文の少なくとも係り受け関係を解析する構文解析手段と、
    前記構文解析手段により解析された係り受け関係に関する情報を、前記ユーザの発話の進行に伴い蓄積していく係り受け関係記憶手段と、
    前記係り受け関係記憶手段に蓄積された前記係り受け関係に関する情報に基づいて、前記発話文の内容を纏めた纏め文を生成する応答生成手段と、
    を備える対話処理装置。
  2. 前記応答生成手段は、1つの述語に係り受けする語句の数が、第1の閾値に達した場合に、前記纏め文を生成する、
    請求項1に記載の対話処理装置。
  3. 前記第1の閾値は、3である、
    請求項2に記載の対話処理装置。
  4. 前記応答生成手段は、1つの述語に係り受け可能な格の総数に対する発話された語句が相当する格の数の割合が、第2の閾値に達した場合に、前記纏め文を生成する、
    請求項1〜3のいずれか1つに記載の対話処理装置。
  5. 前記第2の閾値は、50%である、
    請求項4に記載の対話処理装置。
  6. 前記係り受け関係を有する語句の組み合わせに基づいて、前記ユーザの感情を推定する感情推定手段を更に備え、
    前記応答生成手段は、前記感情推定手段による推定結果に基づいて、前記ユーザの感情を表現する文を追加する、
    請求項1〜5のいずれか1つに記載の対話処理装置。
  7. 前記係り受け関係を有する語句の組み合わせに基づいて、前記発話文の内容と因果関係を有する事象を推定する因果関係推定手段を更に備え、
    前記応答生成手段は、前記因果関係推定手段による推定結果に基づいて、前記事象を表現する文を追加する、
    請求項1〜6のいずれか1つに記載の対話処理装置。
  8. ユーザの音声を認識する音声認識工程と、
    前記音声認識工程による認識結果に基づいて、前記ユーザが発話した発話文の少なくとも係り受け関係を解析する構文解析工程と、
    前記構文解析工程により解析された係り受け関係に関する情報を、前記ユーザの発話の進行に伴い蓄積していく係り受け関係記憶工程と、
    前記係り受け関係記憶工程に蓄積された前記係り受け関係に関する情報に基づいて、前記発話文の内容を纏めた纏め文を生成する応答生成工程と、
    を備える対話処理方法。
  9. 前記応答生成工程は、1つの述語に係り受けする語句の数が、第1の閾値に達した場合に、前記纏め文を生成する、
    請求項8に記載の対話処理方法。
  10. 前記第1の閾値は、3である、
    請求項9に記載の対話処理方法。
  11. 前記応答生成工程は、1つの述語に係り受け可能な格の総数に対する発話された語句が相当する格の数の割合が、第2の閾値に達した場合に、前記纏め文を生成する、
    請求項8〜10のいずれか1つに記載の対話処理方法。
  12. 前記第2の閾値は、50%である、
    請求項11に記載の対話処理方法。
  13. 前記係り受け関係を有する語句の組み合わせに基づいて、前記ユーザの感情を推定する感情推定工程を更に備え、
    前記応答生成工程は、前記感情推定工程による推定結果に基づいて、前記ユーザの感情を表現する文を追加する、
    請求項8〜12のいずれか1つに記載の対話処理方法。
  14. 前記係り受け関係を有する語句の組み合わせに基づいて、前記発話文の内容と因果関係を有する事象を推定する因果関係推定工程を更に備え、
    前記応答生成工程は、前記因果関係推定工程による推定結果に基づいて、前記事象を表現する文を追加する、
    請求項8〜13のいずれか1つに記載の対話処理方法。
  15. コンピュータに、
    ユーザの音声を認識する音声認識処理と、
    前記音声認識処理による認識結果に基づいて、前記ユーザが発話した発話文の少なくとも係り受け関係を解析する構文解析処理と、
    前記構文解析処理により解析された係り受け関係に関する情報を、前記ユーザの発話の進行に伴い蓄積していく係り受け関係記憶処理と、
    前記係り受け関係記憶処理に蓄積された前記係り受け関係に関する情報に基づいて、前記発話文の内容を纏めた纏め文を生成する応答生成処理と、
    を実行させる対話処理プログラム。
  16. 前記応答生成処理は、1つの述語に係り受けする語句の数が、第1の閾値に達した場合に、前記纏め文を生成する、
    請求項15に記載の対話処理プログラム。
  17. 前記第1の閾値は、3である、
    請求項16に記載の対話処理プログラム。
  18. 前記応答生成処理は、1つの述語に係り受け可能な格の総数に対する発話された語句が相当する格の数の割合が、第2の閾値に達した場合に、前記纏め文を生成する、
    請求項15〜17のいずれか1つに記載の対話処理プログラム。
  19. 前記第2の閾値は、50%である、
    請求項18に記載の対話処理プログラム。
  20. コンピュータに、前記係り受け関係を有する語句の組み合わせに基づいて、前記ユーザの感情を推定する感情推定処理を更に実行させ、
    前記応答生成処理は、前記感情推定処理による推定結果に基づいて、前記ユーザの感情を表現する文を追加する、
    請求項15〜19のいずれか1つに記載の対話処理プログラム。
  21. コンピュータに、前記係り受け関係を有する語句の組み合わせに基づいて、前記発話文の内容と因果関係を有する事象を推定する因果関係推定処理を更に実行させ、
    前記応答生成処理は、前記因果関係推定手段による推定結果に基づいて、前記事象を表現する文を追加する、
    請求項15〜20のいずれか1つに記載の対話処理プログラム。
JP2009134973A 2009-06-04 2009-06-04 対話処理装置、対話処理方法、及び対話処理プログラム Expired - Fee Related JP5158022B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009134973A JP5158022B2 (ja) 2009-06-04 2009-06-04 対話処理装置、対話処理方法、及び対話処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009134973A JP5158022B2 (ja) 2009-06-04 2009-06-04 対話処理装置、対話処理方法、及び対話処理プログラム

Publications (2)

Publication Number Publication Date
JP2010282404A true JP2010282404A (ja) 2010-12-16
JP5158022B2 JP5158022B2 (ja) 2013-03-06

Family

ID=43539079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009134973A Expired - Fee Related JP5158022B2 (ja) 2009-06-04 2009-06-04 対話処理装置、対話処理方法、及び対話処理プログラム

Country Status (1)

Country Link
JP (1) JP5158022B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737013A (zh) * 2011-04-02 2012-10-17 三星电子(中国)研发中心 基于依存关系来识别语句情感的设备和方法
JP2017078978A (ja) * 2015-10-21 2017-04-27 Jetrunテクノロジ株式会社 自然言語処理装置
JP2017151517A (ja) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 ロボット制御システム
CN108831435A (zh) * 2018-06-06 2018-11-16 安徽继远软件有限公司 一种基于多情感说话人自适应的情感语音合成方法
CN110188190A (zh) * 2019-04-03 2019-08-30 阿里巴巴集团控股有限公司 对话解析方法、装置、服务器及可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6318458A (ja) * 1986-07-10 1988-01-26 Nec Corp 感情情報抽出装置
JPH07239694A (ja) * 1994-03-02 1995-09-12 Oki Electric Ind Co Ltd 音声対話装置
JP2002169804A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2003303187A (ja) * 2002-04-11 2003-10-24 P To Pa:Kk 会話制御システム、会話制御装置、会話制御方法、プログラム及びプログラムを記録した記録媒体
JP2003330490A (ja) * 2002-05-15 2003-11-19 Fujitsu Ltd 音声対話装置
JP2004184788A (ja) * 2002-12-05 2004-07-02 Casio Comput Co Ltd 音声対話システムおよびプログラム
JP2005025571A (ja) * 2003-07-03 2005-01-27 Ns Solutions Corp 業務支援装置、業務支援方法およびそのプログラム
JP2008052178A (ja) * 2006-08-28 2008-03-06 Toyota Motor Corp 音声認識装置と音声認識方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6318458A (ja) * 1986-07-10 1988-01-26 Nec Corp 感情情報抽出装置
JPH07239694A (ja) * 1994-03-02 1995-09-12 Oki Electric Ind Co Ltd 音声対話装置
JP2002169804A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2003303187A (ja) * 2002-04-11 2003-10-24 P To Pa:Kk 会話制御システム、会話制御装置、会話制御方法、プログラム及びプログラムを記録した記録媒体
JP2003330490A (ja) * 2002-05-15 2003-11-19 Fujitsu Ltd 音声対話装置
JP2004184788A (ja) * 2002-12-05 2004-07-02 Casio Comput Co Ltd 音声対話システムおよびプログラム
JP2005025571A (ja) * 2003-07-03 2005-01-27 Ns Solutions Corp 業務支援装置、業務支援方法およびそのプログラム
JP2008052178A (ja) * 2006-08-28 2008-03-06 Toyota Motor Corp 音声認識装置と音声認識方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN4004002660; 山下泰樹,他: '自由発話による実時間音声対話システムTOSBURGの応答生成' 第16回ヒューマンインタフェースと認知モデル研究会資料 SIG-HICG-9201, 19920518, p.9-17 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737013A (zh) * 2011-04-02 2012-10-17 三星电子(中国)研发中心 基于依存关系来识别语句情感的设备和方法
JP2017078978A (ja) * 2015-10-21 2017-04-27 Jetrunテクノロジ株式会社 自然言語処理装置
JP2017151517A (ja) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 ロボット制御システム
CN108831435A (zh) * 2018-06-06 2018-11-16 安徽继远软件有限公司 一种基于多情感说话人自适应的情感语音合成方法
CN110188190A (zh) * 2019-04-03 2019-08-30 阿里巴巴集团控股有限公司 对话解析方法、装置、服务器及可读存储介质
CN110188190B (zh) * 2019-04-03 2023-07-14 创新先进技术有限公司 对话解析方法、装置、服务器及可读存储介质

Also Published As

Publication number Publication date
JP5158022B2 (ja) 2013-03-06

Similar Documents

Publication Publication Date Title
US11037553B2 (en) Learning-type interactive device
KR102161579B1 (ko) 응답문 생성 장치, 방법 및 프로그램, 그리고 음성 대화 시스템
US10037758B2 (en) Device and method for understanding user intent
US10460034B2 (en) Intention inference system and intention inference method
JP5459214B2 (ja) 言語モデル作成装置、言語モデル作成方法、音声認識装置、音声認識方法、プログラム、および記録媒体
JP5141695B2 (ja) 記号挿入装置および記号挿入方法
JP5496863B2 (ja) 感情推定装置、その方法、プログラム及びその記録媒体
JP6154155B2 (ja) プロミネンスを使用した音声対話システム
CN113614825A (zh) 用于自动语音识别的字词网格扩增
JP2015219583A (ja) 話題決定装置、発話装置、方法、及びプログラム
JP5506738B2 (ja) 怒り感情推定装置、怒り感情推定方法およびそのプログラム
EP2988298B1 (en) Response generation method, response generation apparatus, and response generation program
JP5158022B2 (ja) 対話処理装置、対話処理方法、及び対話処理プログラム
JP2010048953A (ja) 対話文生成装置
JP2016001242A (ja) 質問文生成方法、装置、及びプログラム
JP5073024B2 (ja) 音声対話装置
JP2017125921A (ja) 発話選択装置、方法、及びプログラム
JP2010078877A (ja) 音声認識装置、音声認識方法及び音声認識プログラム
JP6254504B2 (ja) 検索サーバ、及び検索方法
JP2009163620A (ja) 応答生成装置、及び応答生成プログラム
JP2018092485A (ja) 文生成装置、文生成方法及びプログラム
JP6709558B2 (ja) 会話処理装置
JP5243325B2 (ja) 音声認識に仮名漢字変換システムを用いた端末、方法及びプログラム
Charfuelan MARY TTS HMMbased voices for the Blizzard Challenge 2012
JP2009198871A (ja) 音声対話装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

R151 Written notification of patent or utility model registration

Ref document number: 5158022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees