JPWO2014073613A1 - 会話文生成装置、会話文生成方法及び会話文生成プログラム - Google Patents
会話文生成装置、会話文生成方法及び会話文生成プログラム Download PDFInfo
- Publication number
- JPWO2014073613A1 JPWO2014073613A1 JP2014545753A JP2014545753A JPWO2014073613A1 JP WO2014073613 A1 JPWO2014073613 A1 JP WO2014073613A1 JP 2014545753 A JP2014545753 A JP 2014545753A JP 2014545753 A JP2014545753 A JP 2014545753A JP WO2014073613 A1 JPWO2014073613 A1 JP WO2014073613A1
- Authority
- JP
- Japan
- Prior art keywords
- state
- user
- agent
- conversation sentence
- conversation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 38
- 230000008569 process Effects 0.000 claims description 23
- 238000004519 manufacturing process Methods 0.000 claims description 4
- 230000008451 emotion Effects 0.000 description 51
- 206010037180 Psychiatric symptoms Diseases 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 241000282414 Homo sapiens Species 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 235000013305 food Nutrition 0.000 description 3
- 235000012054 meals Nutrition 0.000 description 3
- 230000006996 mental state Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 235000003642 hunger Nutrition 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012482 interaction analysis Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本願発明の会話文生成装置は、ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付け、エージェントの物理状態および心理状態をエージェント状態として記憶し、ユーザの物理状態および心理状態をユーザ状態として記憶し、入力情報と、エージェント状態とから新たなエージェント状態を推定し、入力情報と、ユーザ状態とから新たなユーザ状態を推定し、入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成し、入力情報とエージェント状態とユーザ状態と発話意図とからエージェントのユーザに対する会話文を生成して出力する。
Description
本発明は、会話文生成装置、会話文生成方法及び会話文生成プログラムに関し、特にユーザとの擬人的な会話を行う仮想的なエージェントの会話文を生成する会話文生成装置、会話文生成方法及び会話文生成プログラムに関する。
人間は誰かとコミュニケーションをとりたい、共感を得たいという欲求を持っており、そのようなコミュニケーションの相手は、対人間だけのものでなく、対機械や対動物のようにあらゆる対象との間で成り立つものであると考えられる。そのような人間と機械が対話的にインタラクションを行うシステムとしてこれまで多くの対話システムが提案されている。
そのような対話システムの一例として特許文献1がある。特許文献1では、交流分析(たとえば、杉田峰泰:「交流分析」,日本文化科学社,1985)に基づいて自我状態を自我状態推定部で推定し、推定した自我状態を用いて対話制御部で応答用のテキストを出力し、人間と機械とがスムーズに対話する対話システムを開示している。
しかし、従来の対話システムは、あらかじめ決められたシナリオに沿ってユーザと機械とが対話を行うことで決められたタスクを達成することを志向したものであり、そこでの対話は画一的なものが多く、人間同士の雑談のような自由な会話を志向したものではなかった。
従来の人間と機械の対話システムは、人間からの要求に対して、対話制御部で要求内容を判別し、要求内容に合わせた対話シナリオに沿って人間との対話を行うことで決められたタスクを達成するものであった。そこでの対話は画一的なものが多く、人間同士の会話のようなバリエーションのある会話文やユーザの状況に合わせた会話文を生成することはできなかった。人間同士の会話では会話相手を飽きさせないために同じ意図の発言をする場合でも様々なバリエーションのある発話を行っているし、会話相手がそれぞれ物理状態、心理状態を持ち、それに合わせた発話を行っている、また、過去の発言を記憶し、過去の発言内容と一貫した会話を行っている。従来の対話システムでは、そうした人間らしい会話を実現することが困難であった。
本発明は、上記問題点に鑑みてなされたもので、人間らしい会話を実現することができる会話文生成装置、会話文生成方法及び会話文生成プログラムを提供することを目的とする。
本発明は、ユーザとの擬人的な会話を行う仮想的なエージェントの会話文を生成する会話文生成装置であって、ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付ける入力部と、エージェントの物理状態および心理状態をエージェント状態として記憶するエージェント状態記憶部と、ユーザの物理状態および心理状態をユーザ状態として記憶するユーザ状態記憶部と、入力情報と、エージェント状態とから新たなエージェント状態を推定するエージェント状態推定部と、入力情報と、ユーザ状態とから新たなユーザ状態を推定するユーザ状態推定部と、入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成する発話意図生成部と、入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成する会話文生成部と、会話文生成部で生成した会話文を出力する出力部と、を備えることを特徴とする会話文生成装置である。
以上のような構成にすることで、本発明では、会話文生成を状態推定、発話意図生成、会話文生成の3つのフェーズに分けて行う。発話意図生成と会話文生成を分けて扱うことで同じ発話意図に対して複数の会話文を生成しバリエーションのある会話文を生成することが可能になる。エージェントの状態推定、またはユーザの状態推定を行うことで、エージェント、ユーザの物理状態、心理状態を推定し、推定した物理状態、心理状態に合わせた会話文を生成することが可能になる。また、状態推定を行い、その結果を状態記憶部で記憶することで過去の発言内容と一貫した会話文を生成することが可能になる。
本発明は、ユーザとの擬人的な会話を行う仮想的なエージェントの会話文を生成する会話文生成方法であって、ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付け、エージェントの物理状態および心理状態をエージェント状態として記憶し、ユーザの物理状態および心理状態をユーザ状態として記憶し、入力情報と、エージェント状態とから新たなエージェント状態を推定し、入力情報と、ユーザ状態とから新たなユーザ状態を推定し、入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成し、入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成し、会話文生成部で生成した会話文を出力することを特徴とする会話文生成方法である。
本発明は、コンピュータに、ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付ける処理、エージェントの物理状態および心理状態をエージェント状態として記憶する処理、ユーザの物理状態および心理状態をユーザ状態として記憶する処理、入力情報と、エージェント状態とから新たなエージェント状態を推定する処理、入力情報と、ユーザ状態とから新たなユーザ状態を推定する処理、入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成する処理、入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成する会話文生成処理、前記会話文生成処理で生成した会話文を出力する処理、を実行させることを特徴とするプログラムである。
本発明によれば、人間らしい会話を実現する会話文を生成することができる。
以下、本発明の実施形態について図面を参照して説明する。本発明は、機械や動物を擬人化したエージェントとして扱い、ユーザである人間との間で会話を行うシステムに関するものである。
(第1の実施形態)
第1の実施形態に係る会話文生成装置の構成例を示すブロック図を図1に示す。本発明の第1の実施の形態は、入力部1と、エージェント状態推定部2と、発話意図生成部3と、会話文生成部4と、出力部5と、エージェント状態記憶部6から構成される。
第1の実施形態に係る会話文生成装置の構成例を示すブロック図を図1に示す。本発明の第1の実施の形態は、入力部1と、エージェント状態推定部2と、発話意図生成部3と、会話文生成部4と、出力部5と、エージェント状態記憶部6から構成される。
入力部1は、ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する手掛かり情報とを入力情報として受け付け、それらをエージェント状態推定部2に渡す。
入力情報は、属性名と属性値のペアで与えられる。ユーザからエージェントへ向けた会話文は、会話文そのままを用いてもよいし、会話文を解析し要点のみを抽出して用いてもよい。例えば、ユーザからエージェントへ「(帰りが)遅くなる」との内容のメールを送った際に属性名が「メール」、属性値が「遅くなる」との要点のみを入力情報としても良い。また、エージェントが自らの状態を表明し、会話の発端となる場合は、ユーザからの会話文は入力されなくてもよい。その他、入力情報としては、ユーザ、エージェントの呼び名や性別といったユーザ、エージェントに固有の属性(以下、ユーザ属性、エージェント属性と呼ぶ)や、会話文作成時の時間や天気のような動的な属性(以下、動的属性と呼ぶ)が挙げられる。表1、表2、表3に入力情報の例を示す。
エージェント状態推定部2は、入力部1から受け取った入力情報と、エージェント状態記憶部6で記憶されたエージェント状態とから新たなエージェント状態を推定し、推定されたエージェント状態をエージェント状態記憶部6に格納し、入力情報を発話意図生成部3に渡す。
エージェント状態はエージェントの物理状態および心理状態を表したものであり、入力情報と同様に属性名と属性値のペアで表現される。例えば、エージェントの感情を数値で表した「感情値」は、エージェントがうれしい、楽しい場合は、「感情値」の値を正の値として表現し、逆にエージェントが悲しい、つらい場合は、負の値として表現し、値の絶対値を感情の強さとして定義する。
エージェント状態の推定は、状態推定ルールを用いて行う。状態推定ルールは、条件部と、状態記述部とからなる。状態記述部は、エージェントの物理状態および心理状態を記述したものである。条件部は、入力情報と、エージェント状態記憶部6に記憶されたエージェント状態とから、エージェントが前記状態にあるかどうかを判定する条件を記述したものである。入力情報とエージェント状態が条件部に一致するとエージェントが状態記述部に記述されたエージェント状態であると推定される。状態推定ルールを表4に例示する。
発話意図生成部3は、エージェント状態推定部2から受け取った入力情報と、エージェント状態とから、エージェントのユーザに対する発話意図を生成し、生成した発話意図を入力情報と共に会話文生成部4に渡す。発話意図は「寂しさ表明」、「ユーザなぐさめ」のようなラベルと意図の強さを表すスコアで定義され、1回の会話文生成時に1又は複数の発話意図を生成する。
発話意図の生成は、発話意図生成ルールを用いて行う。発話意図生成ルールは、条件部と、発話意図記述部とからなる。発話意図記述部は、エージェントのユーザに対する発話意図を記述したものである。条件部は、入力情報と、エージェント状態と、ユーザ状態とから、エージェントが前記発話意図にあるかどうかを判定する条件を記述したものである。入力情報とエージェント状態が条件部に一致すると発話意図記述部に記述された発話意図が生成される。発話意図のスコアは条件部に付与されたスコアの合計値とする。また、直近に状態変化があった場合は、変化があった状態に関する意図が強くなると考えられるため、状態変化からの時間が閾値以内の状態を用いた条件にはスコアにボーナスを加え、意図のスコアを大きくしてもよい。
会話文生成部4は、発話意図生成部3から受け取った入力情報、エージェント状態、発話意図を用いて、エージェントのユーザに対する会話文を生成し、生成した会話文を出力部5に渡す。
会話文の生成は、会話文生成ルールを用いて行う。会話文生成ルールは、条件部と、会話文記述部とからなる。会話文記述部は、エージェントのユーザに対する会話文を記述したものである。条件部は、入力情報と、エージェント状態と、発話意図とから、エージェントのユーザに対する会話文として前記会話文が適切かどうかを判定する条件を記述したものである。入力情報とエージェント状態と発話意図が条件部に一致すると、会話文記述部に記述された会話文が選択される。会話文は、文章をそのまま記述してもよいし、ユーザ属性、エージェント属性等の値を変数として埋め込んだテンプレート形式で記述してもよい。その場合、会話文生成時に変数部分をユーザ属性、エージェント属性等の値に置き換えて会話文を生成する。これによって、ユーザ名やエージェント名を文章に埋め込んだ文章を生成することが可能となる。
会話文の生成は発話意図ごとに行い、1つの発話意図からは1つの文章を生成する。1つの発話意図に対して複数の会話文生成ルールが適合する場合は、意図生成時と同様に、条件部に付与されたスコアを合計し、合計スコアがもっとも大きなルールを採用する。直近に使用されたテンプレートを連続して使用するとワンパターンな応答となり、ユーザが飽きることになるため、前回使用時からの時間が閾値以内のルールはスコアにペナルティを付けて連続して同じルールが採用されないようにしてもよい。
出力部5は、会話文生成部4から受け取った会話文をユーザに対して出力する。例えば、文字の色、サイズを編集し、メール送信したりSNS(social networking service)に投稿する。または、音声合成器を用いて音声でユーザに提示してもよい。
エージェント状態記憶部6は、エージェント状態推定部2で推定したエージェント状態を、生成を行った時刻と紐づけて格納する。エージェント状態は状態推定による変更がない場合でも前回の会話文生成時の状態を継続して保持しておくことで過去の会話文との一貫性のある会話文を生成することが可能となる。
(第2の実施形態)
第2の実施形態に係る会話文生成装置の構成例を示すブロック図を図2に示す。本発明の第2の実施の形態は、エージェント状態の推定だけでなく、ユーザ状態の推定を行う。ユーザ状態の推定が追加されることにより、第2の実施形態では、図1の構成からユーザ状態推定部22、ユーザ状態記憶部62が追加される。ユーザ状態の推定、利用はエージェント状態の推定、利用と同様の手法で実現される。
第2の実施形態に係る会話文生成装置の構成例を示すブロック図を図2に示す。本発明の第2の実施の形態は、エージェント状態の推定だけでなく、ユーザ状態の推定を行う。ユーザ状態の推定が追加されることにより、第2の実施形態では、図1の構成からユーザ状態推定部22、ユーザ状態記憶部62が追加される。ユーザ状態の推定、利用はエージェント状態の推定、利用と同様の手法で実現される。
ユーザ状態は、ユーザの物理状態および心理状態を表したものであり、例えば、「ポジティブ」か「ネガティブ」かの属性値を持つ「ポジネガ状態」がある。「ポジネガ状態」は、ユーザからのメール等の内容からユーザの精神状態を「ポジティブ」か「ネガティブ」の2値で表したものである。
次に、図3のフローチャートを参照して第1及び第2の実施の形態の動作について詳細に説明する。まず、入力部1で、ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する手掛かり情報とを入力情報として受け付ける(ステップA1)。
次に、エージェント状態推定部2、又は、エージェント状態推定部21とユーザ状態推定部22で、入力部1から受け取った入力情報と、エージェント状態記憶部6、又は、エージェント状態記憶部61とユーザ状態記憶部62で記憶されたエージェント状態とから新たなエージェント状態、ユーザ状態を推定し、推定されたエージェント状態、ユーザ状態をエージェント状態記憶部6、又は、エージェント状態記憶部61とユーザ状態記憶部62に格納する(ステップA2)。
次に、発話意図生成部3で、エージェント状態推定部2から受け取った入力情報と、エージェント状態、ユーザ状態とから、エージェントのユーザに対する発話意図を生成する(ステップA3)。
次に、会話文生成部4で、発話意図生成部3から受け取った入力情報、エージェント状態、発話意図を用いて、エージェントのユーザに対する会話文を生成する(ステップA4)。
最後に、出力部5で会話文を出力し(ステップA5)、処理を終える。
次に、本実施の形態の効果について説明する。本実施の形態では、発話意図生成部で発話意図を生成し、生成された発話意図に沿った会話文を会話文生成部で生成する。1つの発話意図に対して複数の会話文生成ルールを用意することでバリエーションのある会話文を生成することが可能になる。また、エージェント状態推定部、ユーザ状態推定部でエージェントやユーザの物理状態、心理状態を推定し、それに応じて会話文を生成することでエージェントに感情を持たせたり、ユーザの心理に応じた会話を実現できる。また、状態推定の結果を状態記憶部で記憶することで過去の発言内容と一貫した会話文を生成することが可能になる。
次に、具体的な実施例を用いて本発明を実施するための最良の形態の動作を説明する。本実施例では、エージェントとしてペットである犬と会話を行う会話システムを例に説明する。
(実施例1)
入力として表11、表12、表13のようなユーザ属性、エージェント属性、動的属性が与えられた場合の会話文の生成について説明する。まず、エージェント状態推定部2において、表14のようなエージェント状態推定ルールを参照することによって、動的属性「メール=遅くなる」という入力によりエージェント状態の「状況」が「留守番」、「感情」が「寂しい」と推定される。
入力として表11、表12、表13のようなユーザ属性、エージェント属性、動的属性が与えられた場合の会話文の生成について説明する。まず、エージェント状態推定部2において、表14のようなエージェント状態推定ルールを参照することによって、動的属性「メール=遅くなる」という入力によりエージェント状態の「状況」が「留守番」、「感情」が「寂しい」と推定される。
次に、発話意図生成部3で、表15のような発話意図生成ルールを参照することによって、エージェント状態推定部2で決定されたエージェント状態の「感情=寂しい」によって留守番に対する「寂しさ表明」の発話意図を生成する。
次に、会話文生成部4で、表16のような会話文生成ルールを参照することによって、「発話意図=寂しさ表明」かつ「状況=留守番」の条件を満たすため、表16にあるような3通りのテンプレートが選択され、3通りの会話文が生成される。実際に採用される会話文は1つのみのため、上記3通りの会話文がランダムもしくは順繰りに生成されることにより、ユーザを飽きさせない、バリエーションのある会話を実現することが可能となる。
本例では、3パターンの会話文生成ルールを記載しているが、このパターンを増やすことで同じテンプレートの出現頻度を下げることができ、よりバリエーションの豊富な会話を実現することが可能となる。
(実施例2)
入力として表21、表22、表23のようなユーザ属性、エージェント属性、動的属性が与えられた場合の会話文の生成について説明する。
入力として表21、表22、表23のようなユーザ属性、エージェント属性、動的属性が与えられた場合の会話文の生成について説明する。
まず、エージェント状態推定部2において、表24のようなエージェント状態推定ルールを参照することによって、動的属性「メール=遅くなる」という入力によりエージェント状態の「状況」が「留守番」、「感情値」が「−1」と推定される。また、エージェント状態の感情値が「正値(0以上)」であればエージェントの感情がふつう〜良好と判断され、エージェント状態の感情は「寂しい」と推定される。エージェント状態の感情値が「負値(−1以下)」であればエージェントの感情が不良と判断され、エージェント状態の感情は「嫌悪」と推定される。
次に、発話意図生成部3で、表25のような発話意図生成ルールを参照することによって、エージェント状態の「感情」をもとに発話意図を生成する。「感情=寂しい」の場合は発話意図「寂しさ表明」を、「感情=嫌悪」の場合は発話意図「嫌悪表明」を生成する。
次に、会話文生成部4で、発話意図に沿ったテンプレートを定義しておくことで、「寂しさ表明」の場合は「寂しい気持ち」を、「嫌悪表明」の場合は「嫌悪の気持ち」を表す文章を生成する。表26のような会話文生成ルールを参照すると、「発話意図=寂しさ表明」の場合は、「コロ、お留守番寂しいよぉ〜o(;_;)oエーン」が、「発話意図=嫌悪表明」の場合は、「お留守番なんか、大っきらいだぁ〜!」が会話文として生成される。
以上のように、エージェントの状態として「感情値」という値を定義し、「感情値」に応じて生成する会話文を変化させることにより、非人間のエージェントがあたかも感情を持っているかのような会話を実現することが可能となる。
(実施例3)
入力として表31、表32、表33のようなユーザ属性、エージェント属性、動的属性が与えられた場合の会話文の生成について説明する。
入力として表31、表32、表33のようなユーザ属性、エージェント属性、動的属性が与えられた場合の会話文の生成について説明する。
まず、エージェント状態推定部21において、表341のようなエージェント状態推定ルールを参照することによって、動的属性「メール=遅くなる」という入力によりエージェント状態の状況が「留守番」、感情値が「−1」と推定される。また、エージェント状態の感情値が「正値(0以上)」であればエージェントの感情がふつう〜良好と判断され、エージェント状態の感情は「寂しい」と推定される。エージェント状態の感情値が「負値(−1以下)」であればエージェントの感情が不良と判断され、エージェント状態の感情は「嫌悪」と推定される。
さらに、ユーザ状態推定部22において、表342のようなユーザ状態推定ルールを参照することによって、動的属性「ユーザ状況=残業中」という入力により、ユーザの現在置かれている状況(残業中)からユーザの精神状態はネガティブと推定され、ユーザ状態のポジネガ状態は「ネガティブ」と推定される。逆にユーザの置かれている状況がユーザにとってポジティブな精神状態になると推定されるもの(デート中、遊び中など)であれば、ユーザ状態のポジネガ状態は「ポジティブ」と推定される。
次に、発話意図生成部3で、表35のような発話意図生成ルールを参照することによって、エージェント状態の感情とユーザ状態のポジネガ状態をもとに発話意図を生成する。
エージェント状態が「感情=寂しい」の場合は発話意図「寂しさ表明」を、「感情=嫌悪」の場合は発話意図「嫌悪表明」を生成する。また、ユーザ状態が「ポジネガ状態=ネガティブ」の場合はネガティブな精神状態となっているユーザをなぐさめるために発話意図「ユーザなぐさめ」を、「ポジネガ状態=ポジティブ」の場合はポジティブな精神状態となっているユーザと喜びを共有するために発話意図「ユーザ喜び同調」を生成する。
次に、会話文生成部4で、表36のような会話文生成ルールを参照し、各会話意図に対応する会話文を生成する。
例えば、発話意図として、「寂しさ表明」と「ユーザなぐさめ」があり、エージェント状態の「状況=留守番」、「感情=寂しい」、ユーザ状態の「状況=残業中」の場合は、以下のような会話文が生成される。
以上のように、「ポジネガ状態」のようなユーザの状態を定義し、ユーザ状態に応じて生成する会話文を変化させることにより、ユーザが期待する会話文を生成することが可能となる。
(実施例4)
入力として表41、表42、表43のようなユーザ属性、エージェント属性、動的属性が与えられた場合の会話文の生成について説明する。本実施例は、ユーザとエージェントが1対1の会話だけでなく、複数のユーザとエージェントが会話する場合である。
入力として表41、表42、表43のようなユーザ属性、エージェント属性、動的属性が与えられた場合の会話文の生成について説明する。本実施例は、ユーザとエージェントが1対1の会話だけでなく、複数のユーザとエージェントが会話する場合である。
まず、エージェント状態推定部21、ユーザ状態推定部22において、表44のようなエージェント状態推定ルール、ユーザ状態推定ルールを参照することによって、ユーザP1からの動的属性「土産=たべもの」という入力により、エージェント状態の状況が「土産待ち」、感情値が「+1」、ユーザ状態の親密度が「+1」で生成される。また、ユーザ状態の感情値が「閾値以上(−2以上)」であればエージェントとユーザとの関係はふつう〜良好と判断され、エージェント状態の感情は「とてもうれしい」で生成される。ユーザ状態の感情値が「閾値以下(−3以下)」であればエージェントとユーザとの関係は不良と判断され、エージェント状態の感情は「うれしい」で生成される。
ユーザP2からの動的属性「メール=病院に行く」という入力により、エージェント状態の状況が「通院」、感情値が「−2」、ユーザ状態の親密度が「−2」で生成される。また、ユーザ状態の感情値が「閾値以上(−2以上)」であればエージェントとユーザとの関係はふつう〜良好と判断され、エージェント状態の感情は「悲しい」で生成される。ユーザ状態の感情値が「閾値以下(−3以下)」であればエージェントとユーザとの関係は不良と判断され、エージェント状態の感情は「嫌悪」で生成される。
次に、発話意図生成部3で、表45のような発話意図生成ルールを参照することによって、エージェント状態とユーザ状態をもとに発話意図を生成する。ユーザP1の場合、「感情=とてもうれしい」の場合は発話意図「歓喜表明」を、「感情=うれしい」の場合は発話意図「うれしさ表明」を生成する。ユーザP2の場合、「感情=悲しい」の場合は発話意図「悲しみ表明」を、「感情=嫌悪」の場合は発話意図「嫌悪表明」を生成する。
次に、会話文生成部4で、表46のような会話文生成ルールを参照し、会話対象となるユーザとエージェントの親密度を加味した上で、各会話意図に対応する会話文を生成する。
例えば、エージェントにとってネガティブなことを重ねた親密度の低いユーザに対しては、ポジティブな動的属性(「土産=たべもの」)を与えられても余所余所しい形式ばった応答となるよう定義する。逆にポジティブなことを重ねた親密度の高いユーザに対しては、ネガティブな動的属性を与えられても甘えた応答を返すようテンプレートに変化をもたせておくことで、エージェントの感情に沿った応答となるよう定義する。
以上のように、各ユーザとのやりとりによって発生したエージェントの感情によって、各ユーザとエージェントの親密度を数値で定義する。エージェントにとってポジティブな動的属性を与えた場合は親密度を加算、ネガティブな動的属性を与えた場合は減算し、各ユーザごとに保持、管理することで、与えられる動的属性が同じであっても、親密度の高いユーザと親密度の低いユーザとで発生するエージェントの感情を変化させることで、各ユーザとの親密度を踏まえた応答を生成することが可能となる。
(実施例5)
入力として表51、表52、表53のようなユーザ属性、エージェント属性、動的属性が与えられた場合の会話文の生成について説明する。本実施例は、過去の会話の流れに沿った会話を行う場合の例である。
入力として表51、表52、表53のようなユーザ属性、エージェント属性、動的属性が与えられた場合の会話文の生成について説明する。本実施例は、過去の会話の流れに沿った会話を行う場合の例である。
状況として、入力1の時点でエージェントは空腹状態にあったが、入力2で満腹状態となる。その状況で、入力3または入力4が与えられるとする。
まず、エージェント状態推定部21、ユーザ状態推定部22において、入力1では、動的属性「メール=遅くなる」という入力によりエージェント状態の状況が「留守番」、感情値が「−1」、感情が「寂しい」で生成される。
また、動的属性「ユーザ状況=デート中」という入力によりユーザ状態のポジネガ状態は「ポジティブ」で生成される。さらに、帰りが遅いという状況から、食事も遅くなり、お腹を空かせていると判断され、エージェント状態の体調が「空腹」で生成される。
入力2では、動的属性「ごはん=完食」という入力によりエージェント状態の状況が「食後」、感情値が「+1」、感情が「うれしい」、体調が「満腹」で生成される。
入力3、入力4では、動的属性「土産=たべもの」という入力によりエージェント状態の感情が「うれしい」に変化するが、体調を変化させる動的属性はないため、入力2の状態である「体調=満腹」をそのまま引き継ぐ。この段階で入力3、入力4の差分はない。
発話意図生成部3では、エージェント状態と過去から引き継がれたエージェント状態に従って発話意図を決定する。
入力1において、エージェント状態が「感情=寂しい」によって留守番に対する「寂しさ表明」と「体調=空腹」によって「空腹表明」を生成する。また、ユーザ状態の「ポジネガ状態=ポジティブ」から「ユーザ喜び同調」を生成する。
入力2においては、エージェント状態の「感情=うれしい」によって「うれしさ表明」、「体調=満腹」によって「満腹表明」を生成する。
入力3、入力4においては、エージェント状態の「感情=うれしい」によって「うれしさ表明」、「体調=満腹」によって「満腹表明」を生成する。この段階でも入力3、入力4の差分はない。
会話文生成部4では、過去時点の動的属性、エージェント状態、ユーザ状態の履歴情報を参照した上で、過去の内容に触れる会話文生成ルールとなるよう定義する。
入力3は、履歴情報を参照することなく現在のエージェント状態(満腹)に従った文章を生成するが、入力4は、動的属性で指定された過去のある時点の履歴情報から過去時点のエージェント状態(空腹)を参照し、「空腹だった」ことを踏まえた応答を行うよう定義する。入力4では、動的属性として「履歴ポインタ」が「(入力1)」として与えられており、その情報を用いてエージェント状態記憶部61から入力1時点でのエージェント状態を参照できるようにする。参照時には「履歴:A状態−>体調」のような記述で過去の入力1時点のエージェント状態の「体調」を参照する。
以上のように、過去の状態推定結果を利用したルールを用いることで過去との一貫性を保った会話文を生成することが可能となる。
なお、状態推定ルールと発話意図生成ルールと会話文生成ルールは、例えば会話文生成装置の記憶部に記憶されてもよく、また、会話文生成装置が接続可能な他の装置に記憶されてもよい。
本発明の活用例として、動物や機械のような非人間の対象を擬人化してユーザと会話を行う会話システム、ソーシャルメディアサービス等に適用できる。
上述した本発明の実施形態に係る会話文生成装置は、CPU(Central Processing Unit)が記憶部に格納された動作プログラム等を読み出して実行することにより実現されてもよく、また、ハードウェアで構成されてもよい。上述した実施の形態の一部の機能のみをコンピュータプログラムにより実現することもできる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
ユーザとの擬人的な会話を行う仮想的なエージェントの会話文を生成する会話文生成装置であって、
ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付ける入力部と、
エージェントの物理状態および心理状態をエージェント状態として記憶するエージェント状態記憶部と、
ユーザの物理状態および心理状態をユーザ状態として記憶するユーザ状態記憶部と、
入力情報と、エージェント状態とから新たなエージェント状態を推定するエージェント状態推定部と、
入力情報と、ユーザ状態とから新たなユーザ状態を推定するユーザ状態推定部と、
入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成する発話意図生成部と、
入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成する会話文生成部と、
会話文生成部で生成した会話文を出力する出力部と、
を備えることを特徴とする会話文生成装置。
ユーザとの擬人的な会話を行う仮想的なエージェントの会話文を生成する会話文生成装置であって、
ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付ける入力部と、
エージェントの物理状態および心理状態をエージェント状態として記憶するエージェント状態記憶部と、
ユーザの物理状態および心理状態をユーザ状態として記憶するユーザ状態記憶部と、
入力情報と、エージェント状態とから新たなエージェント状態を推定するエージェント状態推定部と、
入力情報と、ユーザ状態とから新たなユーザ状態を推定するユーザ状態推定部と、
入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成する発話意図生成部と、
入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成する会話文生成部と、
会話文生成部で生成した会話文を出力する出力部と、
を備えることを特徴とする会話文生成装置。
(付記2)
前記ユーザ状態推定部は、
ユーザの物理状態および心理状態を記述した状態記述部と、入力情報と、前記ユーザ状態記憶部に記憶されたユーザ状態とから、ユーザが前記状態にあるかどうかを判定する条件を記述した条件部とからなる状態推定ルールを用いて、新たなユーザ状態を推定する
ことを特徴とする付記1に記載の会話文生成装置。
前記ユーザ状態推定部は、
ユーザの物理状態および心理状態を記述した状態記述部と、入力情報と、前記ユーザ状態記憶部に記憶されたユーザ状態とから、ユーザが前記状態にあるかどうかを判定する条件を記述した条件部とからなる状態推定ルールを用いて、新たなユーザ状態を推定する
ことを特徴とする付記1に記載の会話文生成装置。
(付記3)
前記発話意図生成部は、ユーザ状態を条件に含む発話意図生成ルールを用いて発話意図を生成し、
前記会話文生成部は、ユーザ状態を条件に含む会話文生成ルールを用いて会話文を生成することで、ユーザ状態に応じた会話文を生成する
ことを特徴とする付記1又は付記2に記載の会話文生成装置。
前記発話意図生成部は、ユーザ状態を条件に含む発話意図生成ルールを用いて発話意図を生成し、
前記会話文生成部は、ユーザ状態を条件に含む会話文生成ルールを用いて会話文を生成することで、ユーザ状態に応じた会話文を生成する
ことを特徴とする付記1又は付記2に記載の会話文生成装置。
(付記4)
複数のユーザとの会話を行う場合に、
前記ユーザ状態記憶部は、ユーザごとに固有のユーザ状態を記憶し、
前記会話文生成部は、前記入力部で入力されるユーザを特定する情報を用いてユーザ状態を切り替えることで、会話を行うユーザに応じた会話文を生成する
ことを特徴とする付記1から3のいずれかに記載の会話文生成装置。
複数のユーザとの会話を行う場合に、
前記ユーザ状態記憶部は、ユーザごとに固有のユーザ状態を記憶し、
前記会話文生成部は、前記入力部で入力されるユーザを特定する情報を用いてユーザ状態を切り替えることで、会話を行うユーザに応じた会話文を生成する
ことを特徴とする付記1から3のいずれかに記載の会話文生成装置。
(付記5)
ユーザとの擬人的な会話を行う仮想的なエージェントの会話文を生成する会話文生成方法であって、
ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付け、
エージェントの物理状態および心理状態をエージェント状態として記憶し、
ユーザの物理状態および心理状態をユーザ状態として記憶し、
入力情報と、エージェント状態とから新たなエージェント状態を推定し、
入力情報と、ユーザ状態とから新たなユーザ状態を推定し、
入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成し、
入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成し、
生成した会話文を出力する
ことを特徴とする会話文生成方法。
ユーザとの擬人的な会話を行う仮想的なエージェントの会話文を生成する会話文生成方法であって、
ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付け、
エージェントの物理状態および心理状態をエージェント状態として記憶し、
ユーザの物理状態および心理状態をユーザ状態として記憶し、
入力情報と、エージェント状態とから新たなエージェント状態を推定し、
入力情報と、ユーザ状態とから新たなユーザ状態を推定し、
入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成し、
入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成し、
生成した会話文を出力する
ことを特徴とする会話文生成方法。
(付記6)
ユーザの物理状態および心理状態を記述した状態記述部と、入力情報と、前記記憶されたユーザ状態とから、ユーザが前記状態にあるかどうかを判定する条件を記述した条件部とからなる状態推定ルールを用いて、新たなユーザ状態を推定する
ことを特徴とする付記5に記載の会話文生成方法。
ユーザの物理状態および心理状態を記述した状態記述部と、入力情報と、前記記憶されたユーザ状態とから、ユーザが前記状態にあるかどうかを判定する条件を記述した条件部とからなる状態推定ルールを用いて、新たなユーザ状態を推定する
ことを特徴とする付記5に記載の会話文生成方法。
(付記7)
ユーザ状態を条件に含む発話意図生成ルールを用いて発話意図を生成し、
ユーザ状態を条件に含む会話文生成ルールを用いて会話文を生成することで、ユーザ状態に応じた会話文を生成する
ことを特徴とする付記5又付記6に記載の会話文生成方法。
ユーザ状態を条件に含む発話意図生成ルールを用いて発話意図を生成し、
ユーザ状態を条件に含む会話文生成ルールを用いて会話文を生成することで、ユーザ状態に応じた会話文を生成する
ことを特徴とする付記5又付記6に記載の会話文生成方法。
(付記8)
複数のユーザとの会話を行う場合に、
ユーザごとに固有のユーザ状態を記憶し、
前記入力されるユーザを特定する情報を用いてユーザ状態を切り替えることで、会話を行うユーザに応じた会話文を生成する
ことを特徴とする付記5から7のいずれかに記載の会話文生成方法。
複数のユーザとの会話を行う場合に、
ユーザごとに固有のユーザ状態を記憶し、
前記入力されるユーザを特定する情報を用いてユーザ状態を切り替えることで、会話を行うユーザに応じた会話文を生成する
ことを特徴とする付記5から7のいずれかに記載の会話文生成方法。
(付記9)
コンピュータに、
ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付ける入力処理、
エージェントの物理状態および心理状態をエージェント状態として記憶する処理、
ユーザの物理状態および心理状態をユーザ状態として記憶するユーザ状態記憶処理、
入力情報と、エージェント状態とから新たなエージェント状態を推定する処理、
入力情報と、ユーザ状態とから新たなユーザ状態を推定するユーザ状態推定処理、
入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成する発話意図生成処理、
入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成する会話文生成処理、
前記会話文生成処理で生成した会話文を出力する処理、
を実行させることを特徴とするプログラム。
コンピュータに、
ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付ける入力処理、
エージェントの物理状態および心理状態をエージェント状態として記憶する処理、
ユーザの物理状態および心理状態をユーザ状態として記憶するユーザ状態記憶処理、
入力情報と、エージェント状態とから新たなエージェント状態を推定する処理、
入力情報と、ユーザ状態とから新たなユーザ状態を推定するユーザ状態推定処理、
入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成する発話意図生成処理、
入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成する会話文生成処理、
前記会話文生成処理で生成した会話文を出力する処理、
を実行させることを特徴とするプログラム。
(付記10)
前記ユーザ状態推定処理は、
ユーザの物理状態および心理状態を記述した状態記述部と、入力情報と、前記憶されたユーザ状態とから、ユーザが前記状態にあるかどうかを判定する条件を記述した条件部とからなる状態推定ルールを用いて、新たなユーザ状態を推定する
ことを特徴とする付記9に記載のプログラム。
前記ユーザ状態推定処理は、
ユーザの物理状態および心理状態を記述した状態記述部と、入力情報と、前記憶されたユーザ状態とから、ユーザが前記状態にあるかどうかを判定する条件を記述した条件部とからなる状態推定ルールを用いて、新たなユーザ状態を推定する
ことを特徴とする付記9に記載のプログラム。
(付記11)
前記発話意図生成処理は、ユーザ状態を条件に含む発話意図生成ルールを用いて発話意図を生成し、
前記会話文生成処理は、ユーザ状態を条件に含む会話文生成ルールを用いて会話文を生成することで、ユーザ状態に応じた会話文を生成する
ことを特徴とする付記9又は付記10に記載のプログラム。
前記発話意図生成処理は、ユーザ状態を条件に含む発話意図生成ルールを用いて発話意図を生成し、
前記会話文生成処理は、ユーザ状態を条件に含む会話文生成ルールを用いて会話文を生成することで、ユーザ状態に応じた会話文を生成する
ことを特徴とする付記9又は付記10に記載のプログラム。
(付記12)
複数のユーザとの会話を行う場合に、
前記ユーザ状態記憶処理は、ユーザごとに固有のユーザ状態を記憶し、
前記会話文生成処理は、前記入力処理で入力されるユーザを特定する情報を用いてユーザ状態を切り替えることで、会話を行うユーザに応じた会話文を生成する
ことを特徴とする付記9から11のいずれかに記載のプログラム。
複数のユーザとの会話を行う場合に、
前記ユーザ状態記憶処理は、ユーザごとに固有のユーザ状態を記憶し、
前記会話文生成処理は、前記入力処理で入力されるユーザを特定する情報を用いてユーザ状態を切り替えることで、会話を行うユーザに応じた会話文を生成する
ことを特徴とする付記9から11のいずれかに記載のプログラム。
以上、好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
この出願は、2012年11月8日に出願された日本出願特願2012−246262を基礎とする優先権を主張し、その開示の全てをここに取り込む。
この出願は、2012年11月8日に出願された日本出願特願2012−246262を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 入力部
2 エージェント状態推定部
3 発話意図生成部
4 会話文生成部
5 出力部
6 エージェント状態記憶部
21 エージェント状態推定部
22 ユーザ状態推定部
61 エージェント状態記憶部
62 ユーザ状態記憶部
2 エージェント状態推定部
3 発話意図生成部
4 会話文生成部
5 出力部
6 エージェント状態記憶部
21 エージェント状態推定部
22 ユーザ状態推定部
61 エージェント状態記憶部
62 ユーザ状態記憶部
Claims (6)
- ユーザとの擬人的な会話を行う仮想的なエージェントの会話文を生成する会話文生成装置であって、
ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付ける入力部と、
エージェントの物理状態および心理状態をエージェント状態として記憶するエージェント状態記憶部と、
ユーザの物理状態および心理状態をユーザ状態として記憶するユーザ状態記憶部と、
入力情報と、エージェント状態とから新たなエージェント状態を推定するエージェント状態推定部と、
入力情報と、ユーザ状態とから新たなユーザ状態を推定するユーザ状態推定部と、
入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成する発話意図生成部と、
入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成する会話文生成部と、
会話文生成部で生成した会話文を出力する出力部と、
を備えることを特徴とする会話文生成装置。 - 前記ユーザ状態推定部は、
ユーザの物理状態および心理状態を記述した状態記述部と、入力情報と、前記ユーザ状態記憶部に記憶されたユーザ状態とから、ユーザが前記状態にあるかどうかを判定する条件を記述した条件部とからなる状態推定ルールを用いて、新たなユーザ状態を推定する
ことを特徴とする請求項1に記載の会話文生成装置。 - 前記発話意図生成部は、ユーザ状態を条件に含む発話意図生成ルールを用いて発話意図を生成し、
前記会話文生成部は、ユーザ状態を条件に含む会話文生成ルールを用いて会話文を生成することで、ユーザ状態に応じた会話文を生成する
ことを特徴とする請求項1又は請求項2に記載の会話文生成装置。 - 複数のユーザとの会話を行う場合に、
前記ユーザ状態記憶部は、ユーザごとに固有のユーザ状態を記憶し、
前記会話文生成部は、前記入力部で入力されるユーザを特定する情報を用いてユーザ状態を切り替えることで、会話を行うユーザに応じた会話文を生成する
ことを特徴とする請求項1から請求項3のいずれかに記載の会話文生成装置。 - ユーザとの擬人的な会話を行う仮想的なエージェントの会話文を生成する会話文生成方法であって、
ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付け、
エージェントの物理状態および心理状態をエージェント状態として記憶し、
ユーザの物理状態および心理状態をユーザ状態として記憶し、
入力情報と、エージェント状態とから新たなエージェント状態を推定し、
入力情報と、ユーザ状態とから新たなユーザ状態を推定し、
入力情報と、エージェント状態と、ユーザ状態とから、エージェントのユーザに対する発話意図を生成し、
入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成し、
生成した会話文を出力する
ことを特徴とする会話文生成方法。 - コンピュータに、
ユーザからエージェントへ向けた会話文と、エージェントの物理状態および心理状態を推定する第1の手掛かり情報と、ユーザの物理状態および心理状態を推定する第2の手掛かり情報と、を入力情報として受け付ける処理、
エージェントの物理状態および心理状態をエージェント状態として記憶する処理、
ユーザの物理状態および心理状態をユーザ状態として記憶する処理、
入力情報と、エージェント状態と、から新たなエージェント状態を推定する処理、
入力情報と、ユーザ状態とから新たなユーザ状態を推定する処理、
入力情報と、エージェント状態とユーザ状態とから、エージェントのユーザに対する発話意図を生成する処理、
入力情報と、エージェント状態と、ユーザ状態と、発話意図とから、エージェントのユーザに対する会話文を生成する会話文生成処理、
前記会話文生成処理で生成した会話文を出力する処理、
を実行させることを特徴とするプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012246262 | 2012-11-08 | ||
JP2012246262 | 2012-11-08 | ||
PCT/JP2013/080139 WO2014073613A1 (ja) | 2012-11-08 | 2013-11-07 | 会話文生成装置、会話文生成方法及び会話文生成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2014073613A1 true JPWO2014073613A1 (ja) | 2016-09-08 |
Family
ID=50684713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014545753A Pending JPWO2014073613A1 (ja) | 2012-11-08 | 2013-11-07 | 会話文生成装置、会話文生成方法及び会話文生成プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9679553B2 (ja) |
JP (1) | JPWO2014073613A1 (ja) |
WO (1) | WO2014073613A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6995566B2 (ja) | 2017-11-02 | 2022-02-04 | 株式会社日立製作所 | ロボット対話システム及びロボット対話システムの制御方法 |
WO2019093239A1 (ja) | 2017-11-07 | 2019-05-16 | 日本電気株式会社 | 情報処理装置、方法及び記録媒体 |
US20190385711A1 (en) | 2018-06-19 | 2019-12-19 | Ellipsis Health, Inc. | Systems and methods for mental health assessment |
JP2021529382A (ja) | 2018-06-19 | 2021-10-28 | エリプシス・ヘルス・インコーポレイテッド | 精神的健康評価のためのシステム及び方法 |
JP7146933B2 (ja) * | 2018-10-05 | 2022-10-04 | 株式会社Nttドコモ | 情報提供装置 |
KR102228866B1 (ko) * | 2018-10-18 | 2021-03-17 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
CN109753587A (zh) * | 2019-01-07 | 2019-05-14 | 武汉斗鱼鱼乐网络科技有限公司 | 用户心理模型的构建方法、装置、电子设备及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0612401A (ja) * | 1992-06-26 | 1994-01-21 | Fuji Xerox Co Ltd | 感情模擬装置 |
US6249720B1 (en) * | 1997-07-22 | 2001-06-19 | Kabushikikaisha Equos Research | Device mounted in vehicle |
JP2005157494A (ja) * | 2003-11-20 | 2005-06-16 | Aruze Corp | 会話制御装置及び会話制御方法 |
JP2006071936A (ja) | 2004-09-01 | 2006-03-16 | Matsushita Electric Works Ltd | 対話エージェント |
-
2013
- 2013-11-07 WO PCT/JP2013/080139 patent/WO2014073613A1/ja active Application Filing
- 2013-11-07 JP JP2014545753A patent/JPWO2014073613A1/ja active Pending
- 2013-11-07 US US14/441,572 patent/US9679553B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2014073613A1 (ja) | 2014-05-15 |
US20150279350A1 (en) | 2015-10-01 |
US9679553B2 (en) | 2017-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014073612A1 (ja) | 会話文生成装置、会話文生成方法及び会話文生成プログラム | |
WO2014073613A1 (ja) | 会話文生成装置、会話文生成方法及び会話文生成プログラム | |
CN107870977B (zh) | 基于用户状态形成聊天机器人输出的方法、系统和介质 | |
US20200395008A1 (en) | Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models | |
CN108536802B (zh) | 基于儿童情绪的交互方法及装置 | |
CN108292305B (zh) | 用于处理语句的方法 | |
JP6884947B2 (ja) | 対話システム及びそのためのコンピュータプログラム | |
Berg | Modelling of natural dialogues in the context of speech-based information and control systems | |
JP5286062B2 (ja) | 対話装置、対話方法、対話プログラムおよび記録媒体 | |
CN107393529A (zh) | 语音识别方法、装置、终端及计算机可读存储介质 | |
CN111542814A (zh) | 改变应答以提供表现丰富的自然语言对话的方法、计算机装置及计算机可读存储介质 | |
Ma et al. | A chat system based on emotion estimation from text and embodied conversational messengers | |
Galitsky et al. | Chatbot components and architectures | |
CN114911932A (zh) | 基于主题语义增强的异构图结构多会话者情感分析方法 | |
Kao et al. | Model of multi-turn dialogue in emotional chatbot | |
CN111557001B (zh) | 提供自然语言对话的方法、计算机装置及计算机可读存储介质 | |
JP2016090775A (ja) | 応答生成装置、応答生成方法およびプログラム | |
CN109800295A (zh) | 基于情感词典和词概率分布的情感会话生成方法 | |
CN111556999B (zh) | 通过即时提供实质性回答以提供自然语言对话的方法、计算机装置及计算机可读存储介质 | |
JP2009163620A (ja) | 応答生成装置、及び応答生成プログラム | |
Irfan et al. | Coffee with a hint of data: towards using data-driven approaches in personalised long-term interactions | |
JP6643077B2 (ja) | 対話システムおよびプログラム | |
Yamamoto et al. | Dialogue behavior control model for expressing a character of humanoid robots | |
JP6858721B2 (ja) | コンテンツに関する対話を実施可能な対話制御装置、プログラム及び方法 | |
Muthukumar et al. | Generative adversarial imitation learning for empathy-based AI |