JP2005157494A - 会話制御装置及び会話制御方法 - Google Patents

会話制御装置及び会話制御方法 Download PDF

Info

Publication number
JP2005157494A
JP2005157494A JP2003391305A JP2003391305A JP2005157494A JP 2005157494 A JP2005157494 A JP 2005157494A JP 2003391305 A JP2003391305 A JP 2003391305A JP 2003391305 A JP2003391305 A JP 2003391305A JP 2005157494 A JP2005157494 A JP 2005157494A
Authority
JP
Japan
Prior art keywords
information
topic
conversation
unit
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003391305A
Other languages
English (en)
Inventor
Atsushi Fujimoto
淳 富士本
Seiyo Ko
声揚 黄
Yutaka Katsukura
裕 勝倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal Entertainment Corp
P to PA Inc
Original Assignee
P to PA Inc
Aruze Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by P to PA Inc, Aruze Corp filed Critical P to PA Inc
Priority to JP2003391305A priority Critical patent/JP2005157494A/ja
Priority to AU2004229094A priority patent/AU2004229094A1/en
Priority to EP04027344A priority patent/EP1533788A1/en
Priority to US10/993,884 priority patent/US7676369B2/en
Priority to ZA200409338A priority patent/ZA200409338B/xx
Priority to CN200410091336XA priority patent/CN1637740B/zh
Publication of JP2005157494A publication Critical patent/JP2005157494A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

【課題】 会話内容や会話の状態と外部から得られた情報との双方に基づいて会話制御を行い、より自然な回答を行うことができる会話制御技術を提供する。
【解決手段】 この会話制御装置は、複数の話題特定情報を記憶する会話データベースと、従前の会話及び従前の回答により定まる談話履歴を記憶し、この談話履歴により定まる話題特定情報と発話情報とを用いて回答文を選択する会話制御部と、環境認知情報を取得する環境認知部とを有しており、環境認知部は、取得した環境認知情報に基づきイベント情報を生成し、会話制御部は、イベント情報に基づいて回答文を選択する。
【選択図】 図1

Description

本発明は、会話制御装置及び会話制御方法に関し、より詳しくは話者の顔認識、位置、性別、声紋認識などの環境認知情報を用いて、話者の発話に対する回答をなす会話制御を行う会話制御装置及び会話制御方法に関する。
近年、コンピュータを中心とした情報処理の手段として開発され進展してきたディジタル信号処理、高集積度LSI製造技術、DVDなどディスクメディアの微細精密加工製造技術の高度化を背景にして、機械が自然な音声を話すようになったり、人の発する言葉を理解して適切な回答を返すことができる会話制御技術が提供されるようになってきている(例えば、特許文献1)。
このような会話制御技術においては、ユーザ(話者)の発話をキーボードなどを介して得て、発話の内容のみに基づいて会話制御を行っていた。
一方、ユーザの音声や画像など、発話内容以外の情報に基づいて、自律的に行動制御を行う技術も提案されている(例えば、特許文献2)。
特開2002−358304号公報 特開2003−111981号公報(段落[0038])
上記のような従来の会話制御技術では、発話内容以外の要因、例えば話者の表情、性別、年齢などを加味して回答を行うことは行われていなかった。
また、発話内容以外の情報に基づいて自律的に行動制御を行う技術においては、外部から得た認識結果のみに基づいて行動制御するものであるが、かかる技術においては過去における会話内容を考慮していないため、不自然な行動制御となるおそれがある。例えば、外部から得た認識結果が「怒った顔」という情報であった場合、それまでの会話が良好な関係であっても「怒った顔」のみに基づいた行動制御となってしまう。
本発明の目的は、会話内容や会話の状態と外部から得られた情報との双方に基づいて会話制御を行い、より自然な回答を行うことができる会話制御技術を提供することにある。
上記課題を解決するための手段として、本発明は以下のような特徴を有している。
本発明の第1の態様は、ユーザからの発話に応答する回答を出力する会話制御装置として提案される。
この会話制御装置は、複数の話題特定情報を記憶する会話データベース手段(会話データベース)と、従前の会話及び従前の回答により定まる談話履歴を記憶し、この談話履歴により定まる話題特定情報と発話情報とを用いて回答文を選択する会話制御手段(会話制御部)と、環境認知情報を取得する環境認知手段(環境認知部)とを有しており、環境認知手段は、取得した環境認知情報に基づきイベント情報を生成し、会話制御手段は、イベント情報に基づいて回答文を選択する。
ここにいう「環境認知情報」は話者及び/又は話者周辺の領域から得られる情報をいい、たとえば会話制御装置に取り付けられたCCDカメラ、赤外線センサ、マイクなどが出力する情報を言う。「イベント情報」は環境認知情報を解釈することにより得られる、会話制御装置外部の状況を示す情報であって、例えば話者の感情、性別、年代、話者の特定、話者の接近などを示す情報を言う。
この会話制御装置によれば、ユーザの発話の内容だけでなく、環境認知手段から得られる情報(例えば、顔認識、感情推定、性別認識、年代認識、声紋認識、話者位置認識、など)に基づいて会話制御を行うので、会話がなされている状況に応じた回答を出力することが可能となる。
本発明の第2の態様は、ユーザからの発話に応答する回答を出力する会話制御装置として提案される。
この会話制御装置は、複数の話題特定情報を記憶する会話データベース手段(会話データベース)と、従前の会話及び従前の回答により定まる談話履歴を記憶し、この談話履歴により定まる話題特定情報と発話情報とを用いて回答文を選択する会話制御手段(会話制御部)と、環境認知情報を取得する環境認知手段(環境認知部)と、会話制御装置の演ずるキャラクタ及び話者の少なくとも一方の感情を示す感情状態情報を記憶し、更新する感情状態情報管理手段(感情状態情報管理部)とを有しており、環境認知手段は取得した環境認知情報に基づきイベント情報を生成し、感情状態情報管理手段はイベント情報に応じて感情状態情報を更新し、会話制御手段は、感情状態情報に基づいて回答文を選択する。
ここにいう「感情状態情報」は、キャラクタ及び/又は話者の感情を示す情報をいう。「環境認知情報」「イベント情報」の意味するところは、第1の態様における意味と同様である。
本態様にかかる会話制御装置によれば、ユーザの発話の内容だけでなく、環境認知手段から得られる情報(例えば、顔認識、感情推定、性別認識、年代認識、声紋認識、話者位置認識、など)に基づいて会話制御を行うので、会話がなされている状況に応じた回答を出力することが可能となるとともに、キャラクタの感情変化を反映させつつ、会話がなされている状況に即した適切な回答を出力することが可能となる。
本発明の第3の態様は、ユーザからの発話に応答する回答を出力する会話制御方法として提案される。
この会話制御方法は、複数の話題特定情報と、各話題特定情報について定められた1又は複数の話題タイトルと、各話題タイトルについて定められた一又は複数の回答文と、回答文に対応して定められたイベント情報フラグとを予め記憶させるステップと、会話制御装置外部の環境から環境認知情報を取得し、環境認知情報からイベント情報を生成するステップと、従前の会話及び従前の回答文により定まる談話履歴により定まる話題特定情報と発話情報とを照合して、当該話題特定情報のいずれかについて定められた話題タイトルのいずれかを取得し、その話題タイトルに対応する複数の回答文から前記イベント情報に応じたイベント情報フラグに対応する回答文を選択するステップとを有している。
ここにいう「環境認知情報」は話者及び/又は話者周辺の領域から得られる情報をいい、たとえば会話制御装置に取り付けられたCCDカメラ、赤外線センサ、マイクなどが出力する情報を言う。「イベント情報」は環境認知情報を解釈することにより得られる、会話制御装置外部の状況を示す情報であって、例えば話者の感情、性別、年代、話者の特定、話者の接近などを示す情報をいう。
この会話制御方法によれば、ユーザの発話の内容だけでなく、環境認知手段から得られる情報(例えば、顔認識、感情推定、性別認識、年代認識、声紋認識、話者位置認識、など)に基づいて会話制御を行うので、会話がなされている状況に応じた回答を出力することが可能となる。
本発明の第4の態様は、ユーザからの発話に応答する回答を出力する会話制御方法として提案される。
この会話制御方法は、複数の話題特定情報と、各話題特定情報について定められた1又は複数の話題タイトルと、各話題タイトルについて定められた一又は複数の回答文とを予め記憶させるステップと、外部の環境から環境認知情報を取得し、環境認知情報からイベント情報を生成するステップと、キャラクタ及び話者の少なくとも一方の感情を示す感情状態情報を前記イベント情報に応じて更新するステップと、従前の会話及び従前の回答文により定まる談話履歴により定まる話題特定情報と発話情報とを照合して、当該話題特定情報のいずれかについて定められた話題タイトルのいずれかを取得し、その話題タイトルに対応する複数の回答文から前記イベント情報及び感情状態情報に応じた回答文を選択するステップとを有することを特徴とする。
ここにいう「感情状態情報」は、キャラクタ及び/又は話者の感情を示す情報をいう。「環境認知情報」「イベント情報」の意味するところは、第3の態様における意味と同様である。
本態様にかかる会話制御方法によれば、ユーザの発話の内容だけでなく、外部から得られる情報(例えば、顔認識、感情推定、性別認識、年代認識、声紋認識、話者位置認識、など)に基づいて会話制御を行うので、会話がなされている状況に応じた回答を出力することが可能となるとともに、キャラクタの感情変化を反映させつつ、会話がなされている状況に即した適切な回答を出力することが可能となる。
本発明によれば、会話内容や会話の状態と外部から得られた情報との双方に基づいて会話制御を行い、より自然な回答を行うことが可能となる。
以下に図面を参照しながら本発明の第1の実施の形態を説明する。
図1に、本実施の形態にかかる会話制御装置の外観を示す斜視図である。
図示の会話制御装置1は、レストランなどのテーブル上に設置され、客(ユーザ)の質問や注文などに応答しつつ、客からのオーダーを取るレストラン向けテーブルオーダー端末装置である。
会話制御装置1は、ユーザインターフェイスを表示する液晶表示部11と、話者の発話を取得する入力手段として機能するとともに声紋や話者位置を特定することにより話者特定を行うためのセンサとして機能する3D指向マイク12A、12B,12C、12Dと、主に話者の映像を撮影するためのCCDカメラ13と,話者の接近等を検知するための赤外線センサ14と、会話制御装置1が回答するために発する音声などを出力するためのスピーカ15L,15Rとを有している。
会話制御装置1は、話者の発話を3D指向マイク12A、12B,12C、12Dにて取得する。また、3D指向マイク12A、12B,12C、12D、CCDカメラ13,赤外線センサ14により外部を認識して、環境認知情報を得る。会話制御装置1は、話者の発話及び環境認知情報に基づいて回答を出力する。回答はスピーカ15L,15Rによって音声情報として出力されてもよいし、液晶表示部11に文字・画像データとして出力されてもよい。
また、会話制御装置1は、液晶表示部11にユーザ(客)のオーダー選択を助けるためのユーザインターフェイスを表示するようにしてもよく、さらにオーダー決定後料理が出されるまでの時間に、ユーザに遊んで貰うための娯楽用コンテンツ、たとえば心理診断コンテンツなどを表示するようにしてもよい。
[1.会話制御装置の構成例]
次に、会話制御装置1の内部構成について説明する。
[全体構成]
図2は、本実施の形態に係る会話制御装置1の構成例を示す機能ブロック図である。
会話制御装置1は、その筐体内部に、たとえばコンピュータ、ワークステーションなどの情報処理装置若しくは情報処理装置に相当するハードウエアを搭載している。会話制御装置1が有する情報処理装置は、演算処理装置(CPU)、主メモリ(RAM)、読出し専用メモリ(ROM)、入出力装置(I/O)、ハードディスク装置等の外部記憶装置を具備している装置で構成されている。前記ROM、もしくは外部記憶装置などに情報処理装置を会話制御装置1として機能させるためのプログラム、もしくは会話制御方法をコンピュータに実行させるためのプログラムが記憶されており、該プログラムを主メモリ上に載せ、CPUがこれを実行することにより会話制御装置1又は会話処理方法が実現される。また、上記プログラムは必ずしも当該装置内の記憶装置に記憶されていなくともよく、磁気ディスク、光ディスク、光磁気ディスク、CD(Compact Disc)、DVD(Digital Video Disc)などのコンピュータ読み取り可能なプログラム記録媒体や、外部の装置(例えば、ASP(アプリケーション・サービス・プロバイダ)のサーバなど)から提供され、これを主メモリに乗せる構成であっても良い。
図2に示すように、会話制御装置1は、入力部100と、音声認識部200と、会話制御部300と、文解析部400と、会話データベース500と、出力部600と、音声認識辞書記憶部700と、環境認知部800と、ユーザインタフェース制御部900とを備えている。
[入力部]
入力部100は、3D指向マイク12A〜12Dに相当し、利用者から入力された入力情報を取得するものである。入力部100は、取得した発話内容に対応する音声を音声信号として音声認識部200に出力する。なお、入力部100が3D指向マイク12A〜12Dである場合には、入力部100は環境認知部800としても機能する。
[音声認識部]
音声認識部200は、入力部100で取得した発話内容に基づいて、発話内容に対応する文字列を特定するものである。具体的には、入力部100から音声信号が入力された音声認識部200は、入力された音声信号に基づいて、この音声信号を、音声認識辞書記憶部700に格納されている辞書および会話データベース500と照合して、音声信号から推測される音声認識結果を出力する。なお、図3に示す構成例では、音声認識部200は、会話制御部300に会話データベース500の記憶内容の取得を要求し、会話制御部300が要求に応じて取得した会話データベース500の記憶内容を受け取るようになっているが、音声認識部200が直接会話データベース500の記憶内容を取得して音声信号との比較を行う構成であってもかまわない。
[音声認識部の構成例]
図3に、音声認識部200の構成例を示す機能ブロック図を示す。音声認識部200は、特徴抽出部200Aと、バッファメモリ(BM)200Bと、単語照合部200Cと、バッファメモリ(BM)200Dと、候補決定部200Eと、単語仮説絞込部200Fを有している。単語照合部200C及び単語仮説絞込部200Fは音声認識辞書記憶部700に接続されており、候補決定部200Eは会話データベース500に接続されている。
単語照合部200Cに接続された音声認識辞書記憶部700は、音素隠れマルコフモデル(以下、隠れマルコフモデルをHMMという。)を記憶している。音素HMMは、各状態を含んで表され、各状態はそれぞれ以下の情報を有する。(a)状態番号、(b)受理可能なコンテキストクラス、(c)先行状態、及び後続状態のリスト、(d)出力確率密度分布のパラメータ、及び(e)自己遷移確率及び後続状態への遷移確率から構成されている。なお、本実施形態において用いる音素HMMは、各分布がどの話者に由来するかを特定する必要があるため、所定の話者混合HMMを変換して生成する。ここで、出力確率密度関数は34次元の対角共分散行列をもつ混合ガウス分布である。また、単語照合部200Cに接続された音声認識辞書記憶部700は単語辞書を記憶している。単語辞書は、音素HMMの各単語毎にシンボルで表した読みを示すシンボル列を格納する。
話者の発声音声はマイクロホンなどに入力されて音声信号に変換された後、特徴抽出部200Aに入力される。特徴抽出部200Aは、入力された音声信号をA/D変換した後、特徴パラメータを抽出し、これを出力する。特徴パラメータを抽出し、これを出力する方法としては様々なものが考えられるが、例えば一例としては、LPC分析を実行し、対数パワー、16次ケプストラム係数、Δ対数パワー及び16次Δケプストラム係数を含む34次元の特徴パラメータを抽出する方法などが挙げられる。抽出された特徴パラメータの時系列はバッファメモリ(BM)200Bを介して単語照合部200Cに入力される。
単語照合部200Cは、ワン−パス・ビタビ復号化法を用いて、バッファメモリ200Bを介して入力される特徴パラメータのデータに基づいて、音声認識辞書記憶部700に記憶された音素HMMと単語辞書とを用いて単語仮説を検出し、尤度を計算して出力する。ここで、単語照合部200Cは、各時刻の各HMMの状態毎に、単語内の尤度と発声開始からの尤度を計算する。尤度は、単語の識別番号、単語の開始時刻、先行単語の違い毎に個別にもつ。また、計算処理量の削減のために、音素HMM及び単語辞書とに基づいて計算される総尤度のうちの低い尤度のグリッド仮説を削減するようにしてもよい。単語照合部200Cは、検出した単語仮説とその尤度の情報を発声開始時刻からの時間情報(具体的には、例えばフレーム番号)とともにバッファメモリ200Dを介して候補決定部200E及び単語仮説絞込部200Fに出力する。
候補決定部200Eは、会話制御部300を参照して、検出した単語仮説と所定の談話空間内の話題特定情報とを比較し、検出した単語仮説の内、所定の談話空間内の話題特定情報と一致するものがあるか否かを判定し、一致するものがある場合は、その一致する単語仮説を認識結果として出力し、一方一致するものがない場合は、単語仮説絞込部200Fに単語仮説の絞込を行うよう要求する。
候補決定部200Eの動作例を説明する。今、単語照合部200Cが複数の単語仮説「カンタク」「カタク」「カントク」およびその尤度(認識率)を出力し、所定の談話空間は「映画」に関するものでありその話題特定情報には「カントク(監督)」は含まれているが、「カンタク(干拓)」及び「カタク(仮託)」は含まれていないとする。また「カンタク」「カタク」「カントク」の尤度(認識率)は「カンタク」が最も高く「カントク」は最も低く、「カタク」は両者の中間であったとする。
上記の状況において、候補決定部200Eは、検出した単語仮説と所定の談話空間内の話題特定情報とを比較して、単語仮説「カントク」が、所定の談話空間内の話題特定情報と一致するものであると判定し、単語仮説「カントク」を認識結果として出力し、会話制御部に渡す。このように処理することにより、現在扱われている話題「映画」に関連した「カントク(監督)」が、より上位の尤度(認識率)を有する単語仮説「カンタク」「カタク」に優先されて選択され、その結果会話の文脈に即した音声認識結果を出力することが可能となる。
一方、一致するものがない場合は、候補決定部200Eからの単語仮説の絞込を行う要求に応じて単語仮説絞込部200Fが認識結果を出力するよう動作する。単語仮説絞込部200Fは、単語照合部200Cからバッファメモリ200Dを介して出力される複数個の単語仮説に基づいて、音声認識辞書記憶部700に記憶された統計的言語モデルを参照して、終了時刻が等しく開始時刻が異なる同一の単語の単語仮説に対して、当該単語の先頭音素環境毎に、発声開始時刻から当該単語の終了時刻に至る計算された総尤度のうちの最も高い尤度を有する1つの単語仮説で代表させるように単語仮説の絞り込みを行った後、絞り込み後のすべての単語仮説の単語列のうち、最大の総尤度を有する仮説の単語列を認識結果として出力する。本実施形態においては、好ましくは、処理すべき当該単語の先頭音素環境とは、当該単語より先行する単語仮説の最終音素と、当該単語の単語仮説の最初の2つの音素とを含む3つの音素並びをいう。
単語仮説絞込部200Fによる単語絞込処理の例を図3を参照しながら説明する。図4は、単語仮説絞込部200Fの処理の一例を示すタイミングチャートである。
例えば(i−1)番目の単語Wi-1の次に、音素列a1,a2,…,anからなるi番目の単語Wiがくるときに、単語Wi-1の単語仮説として6つの仮説Wa,Wb,Wc,Wd,We,Wfが存在しているとする。ここで、前者3つの単語仮説Wa,Wb,Wcの最終音素は/x/であるとし、後者3つの単語仮説Wd,We,Wfの最終音素は/y/であるとする。終了時刻teにおいて単語仮説Wa,Wb,Wcを前提とする3つの仮説と、単語仮説Wd,We,Wfを前提とする1の仮説が残っているものとすると、先頭音素環境が等しい前者3つ仮説のうち、総尤度が最も高い仮説一つを残し、その他を削除する。
なお、単語仮説Wd,We,Wfを前提とする仮説は先頭音素環境が他の3つの仮説と違うため、すなわち、先行する単語仮説の最終音素がxではなくyであるため、この単語仮説Wd,We,Wfを前提とする仮説は削除しない。すなわち、先行する単語仮説の最終音素毎に1つのみ仮説を残す。
以上の実施形態においては、当該単語の先頭音素環境とは、当該単語より先行する単語仮説の最終音素と、当該単語の単語仮説の最初の2つの音素とを含む3つの音素並びとして定義されているが、本発明はこれに限らず、先行する単語仮説の最終音素と、最終音素と連続する先行する単語仮説の少なくとも1つの音素とを含む先行単語仮説の音素列と、当該単語の単語仮説の最初の音素を含む音素列とを含む音素並びとしてもよい。
以上の実施の形態において、特徴抽出部200Aと、単語照合部200Cと、候補決定部200Eと、単語仮説絞込部200Fとは、例えば、デジタル電子計算機などのコンピュータで構成され、バッファメモリ200B,200Dと、音声認識辞書記憶部700とは、例えばハードデイスクメモリなどの記憶装置で構成される。
以上実施形態においては、単語照合部200C、単語仮説絞込部200Fとを用いて音声認識を行っているが、本発明はこれに限らず、例えば、音素HMMを参照する音素照合部と、例えばOne
Pass DPアルゴリズムを用いて統計的言語モデルを参照して単語の音声認識を行う音声認識部とで構成してもよい。
また、本実施の形態では、音声認識部200は会話制御装置1の一部分として説明するが、音声認識部200、音声認識辞書記憶部700、及び会話データベース500より構成される、独立した音声認識装置とすることも可能である。
[音声認識部の動作例]
つぎに図5を参照しながら音声認識部200の動作について説明する。図5は、音声認識部200の動作例を示すフロー図である。入力部100より音声信号を受け取ると、音声認識部200は入力された音声の特徴分析を行い、特徴パラメータを生成する(ステップS501)。次に、この特徴パラメータと音声認識辞書記憶部700に記憶された音素HMM及び言語モデルとを比較して、所定個数の単語仮説及びその尤度を取得する(ステップS502)。次に、音声認識部200は、取得した所定個数の単語仮説と検出した単語仮説と所定の談話空間内の話題特定情報とを比較し、検出した単語仮説の内、所定の談話空間内の話題特定情報と一致するものがあるか否かを判定する(ステップS503、S504)。一致するものがある場合は、音声認識部200はその一致する単語仮説を認識結果として出力する(ステップS505)。一方、一致するものがない場合は、音声認識部200は取得した単語仮説の尤度に従って、最大尤度を有する単語仮説を認識結果として出力する(ステップS506)。
[音声認識辞書記憶部]
再び、図2に戻って、会話制御装置1の構成例の説明を続ける。
音声認識辞書記憶部700は、標準的な音声信号に対応する文字列を格納するものである。この照合をした音声認識部200は、その音声信号に対応する単語仮説に対応する文字列を特定し、その特定した文字列を文字列信号として会話制御部300に出力する。
[文解析部]
次に、図6を参照しながら文解析部400の構成例について説明する。図6は、会話制御装置1の部分拡大ブロック図であって、会話制御部300及び文解析部400の具体的構成例を示すブロック図である。なお、図6においては、会話制御部300、文解析部400、および会話データベース500のみ図示しており、その他の構成要素は表示を省略している。
前記文解析部400は、入力部100又は音声認識部200で特定された文字列を解析するものである。この文解析部400は、本実施の形態では、図6に示すように、文字列特定部410と、形態素抽出部420と、形態素データベース430と、入力種類判定部440と、発話種類データベース450とを有している。文字列特定部410は、入力部100及び音声認識部200で特定された一連の文字列を一文節毎に区切るものである。この一文節とは、文法の意味を崩さない程度に文字列をできるだけ細かく区切った一区切り文を意味する。具体的に、文字列特定部410は、一連の文字列の中に、ある一定以上の時間間隔があるときは、その部分で文字列を区切る。文字列特定部410は、その区切った各文字列を形態素抽出部420及び入力種類判定部440に出力する。尚、以下で説明する「文字列」は、一文節毎の文字列を意味するものとする。
[形態素抽出部]
形態素抽出部420は、文字列特定部410で区切られた一文節の文字列に基づいて、その一文節の文字列の中から、文字列の最小単位を構成する各形態素を第一形態素情報として抽出するものである。ここで、形態素とは、本実施の形態では、文字列に現された語構成の最小単位を意味するものとする。この語構成の最小単位としては、例えば、名詞、形容詞、動詞などの品詞が挙げられる。
各形態素は、図7に示すように、本実施の形態ではm1、m2、m3…、と表現することができる。図7は、文字列とこの文字列から抽出される形態素との関係を示す図である。図7に示すように、文字列特定部410から文字列が入力された形態素抽出部420は、入力された文字列と、形態素データベース430に予め格納されている形態素群(この形態素群は、それぞれの品詞分類に属する各形態素についてその形態素の見出し語・読み・品詞・活用形などを記述した形態素辞書として用意されている)とを照合する。その照合をした形態素抽出部420は、その文字列の中から、予め記憶された形態素群のいずれかと一致する各形態素(m1、m2、…)を抽出する。この抽出された各形態素を除いた要素(n1、n2、n3…)は、例えば助動詞等が挙げられる。
この形態素抽出部420は、抽出した各形態素を第一形態素情報として話題特定情報検索蔀320に出力する。なお、第一形態素情報は構造化されている必要はない。ここで「構造化」とは、文字列の中に含まれる形態素を品詞等に基づいて分類し配列することをいい、たとえば発話文である文字列を、「主語+目的語+述語」などの様に、所定の順番で形態素を配列してなるデータに変換することを言う。もちろん、構造化した第一形態素情報を用いたとしても、それが本実施の形態を実現をさまたげることはない。
[入力種類判定部]
入力種類判定部440は、文字列特定部410で特定された文字列に基づいて、発話内容の種類(発話種類)を判定するものである。この発話種類は、発話内容の種類を特定する情報であって、本実施の形態では、例えば図8に示す「発話文のタイプ」を意味する。図8は、「発話文のタイプ」と、その発話文のタイプを表す二文字のアルファベット、及びその発話文のタイプに該当する発話文の例を示す図である。
ここで、「発話文のタイプ」は、本実施の形態では、図8に示すように、陳述文(D ; Declaration)、時間文(T ; Time)、場所文(L ; Location)、反発文(N ; Negation)などから構成される。この各タイプから構成される文は、肯定文又は質問文で構成される。「陳述文」とは、利用者の意見又は考えを示す文を意味するものである。この陳述文は本実施の形態では、図8に示すように、例えば"私は佐藤が好きです"などの文が挙げられる。「場所文」とは、場所的な概念を伴う文を意味するものである。「時間文」とは、時間的な概念を伴う文を意味するものである。「反発文」とは、陳述文を否定するときの文を意味する。「発話文のタイプ」についての例文は図7に示す通りである。
入力種類判定部440が「発話文のタイプ」を判定するには、入力種類判定部440は、本実施の形態では、図9に示すように、陳述文であることを判定するための定義表現辞書、反発文であることを判定するための反発表現辞書等を用いる。具体的に、文字列特定部410から文字列が入力された入力種類判定部440は、入力された文字列に基づいて、その文字列と発話種類データベース450に格納されている各辞書とを照合する。その照合をした入力種類判定部440は、その文字列の中から、各辞書に関係する要素を抽出する。
この入力種類判定部440は、抽出した要素に基づいて、「発話文のタイプ」を判定する。例えば、入力種類判定部440は、ある事象について陳述している要素が文字列の中に含まれる場合には、その要素が含まれている文字列を陳述文として判定する。入力種類判定部440は、判定した「発話文のタイプ」を回答取得部350に出力する。
[会話データベース]
次に、会話データベース500が記憶するデータのデータ構成例について図10を参照しながら説明する。図10は、会話データベース500が記憶するデータの構成例を示す概念図である。
前記会話データベース500は、図10に示すように、話題を特定するための話題特定情報810を予め複数記憶する。又、それぞれの話題特定情報810は、他の話題特定情報810と関連づけられていてもよく、例えば、図10に示す例では、話題特定情報C(810)が特定されると、この話題特定情報C(810)に関連づけられている他の話題特定情報A(810)、話題特定情報B(810),話題特定情報D(810)が定まるように記憶されている。
具体的には、話題特定情報810は、本実施の形態では、利用者から入力されると予想される入力内容又は利用者への回答文に関連性のある「キーワード」を意味する。
話題特定情報810には、一又は複数の話題タイトル820が対応付けられて記憶されている。話題タイトル820は、一つの文字、複数の文字列又はこれらの組み合わせからなる形態素により構成されている。各話題タイトル820には、利用者への回答文830が対応付けられて記憶されている。また、回答文830の種類を示す複数の回答種類は、回答文830に対応付けられている。
さらに、回答文830にはイベント情報フラグ840が対応付けて記憶されている。イベント情報フラグ840は、会話制御装置1が外部を認識して得た環境認知情報に基づいて生成される情報であって、例えば話者の感情を推定した情報、話者の性別を推定した情報、話者の年齢、年代を推定した情報、話者の接近を検知した情報、現在発話している話者を識別する情報などで構成される。
回答文830はイベント情報フラグ840ごとに用意されており、例えば「怒って」いる「男性」「30代」を示すイベント情報フラグ840に対応する回答文830と、「笑って」いる「女性」「20代」を示すイベント情報フラグ840に対応する回答文830とは、それぞれ異なる文が用意されるようになっている。
次に、ある話題特定情報810と他の話題特定情報810との関連づけについて説明する。図11は、ある話題特定情報810Aと他の話題特定情報810B、810C〜810C、810D〜810D…との関連付けを示す図である。なお、以下の説明において「関連づけされて記憶される」とは、ある情報Xを読み取るとその情報Xに関連づけられている情報Yを読み取りできることをいい、例えば、情報Xのデータの中に情報Yを読み出すための情報(例えば、情報Yの格納先アドレスを示すポインタ、情報Yの格納先物理メモリアドレス、論理アドレスなど)が格納されている状態を、「情報Yが情報Xに『関連づけされて記憶され』ている」というものとする。
図11に示す例では、話題特定情報は他の話題特定情報との間で上位概念、下位概念、同義語、対義語(本図の例では省略)が関連づけされて記憶させることができる。本図に示す例では、話題特定情報810A(=「映画」)に対する上位概念の話題特定情報として話題特定情報810B(=「娯楽」)が話題特定情報810Aに関連づけされて記憶されており、たとえば話題特定情報(「映画」)に対して上の階層に記憶される。
また、話題特定情報810A(=「映画」)に対する下位概念の話題特定情報810C(=「監督」)、話題特定情報810C(=「主演」)、話題特定情報810C(=「配給会社」)、話題特定情報810C(=「上映時間」)、および話題特定情報810D(=「七人の侍」)、話題特定情報810D(=「乱」)、話題特定情報810D(=「用心棒」)、…、が話題特定情報810Aに関連づけされて記憶されている。
又、話題特定情報810Aには、同義語900が関連付けられている。この例では、話題特定情報810Aであるキーワード「映画」の同義語として「作品」、「内容」、「シネマ」が記憶されている様子を示している。このような同意語を定めることにより、発話にはキーワード「映画」は含まれていないが「作品」、「内容」、「シネマ」が発話文等に含まれている場合に、話題特定情報810Aが発話文等に含まれているものとして取り扱うことを可能とする。
本実施の形態にかかる会話制御装置1は、会話データベース500の記憶内容を参照することにより、ある話題特定情報810を特定するとその話題特定情報810に関連づけられて記憶されている他の話題特定情報810及びその話題特定情報810の話題タイトル820、回答文830などを高速で検索・抽出することが可能となる。
次に、話題タイトル820(「第二形態素情報」ともいう)のデータ構成例について、図12を参照しながら説明する。図12は、話題タイトル820のデータ構成例を示す図である。
話題特定情報810D、810D、810D、…はそれぞれ複数の異なる話題タイトル820、820、…、話題タイトル820、820、…、話題タイトル820、820、…を有している。本実施の形態では、図12に示すように、それぞれの話題タイトル820は、第一特定情報1001と、第二特定情報1002と、第三特定情報1003によって構成される情報である。ここで、第一特定情報1001は、本実施の形態では、話題を構成する主要な形態素を意味するものである。第一特定情報1001の例としては、例えば文を構成する主語が挙げられる。また、第二特定情報1002は、本実施の形態では、第一特定情報1001と密接な関連性を有する形態素を意味するものである。この第二特定情報1002は、例えば目的語が挙げられる。更に、第三特定情報1003は、本実施の形態では、ある対象についての動きを示す形態素、又は名詞等を修飾する形態素を意味するものである。この第三特定情報1003は、例えば動詞、副詞又は形容詞が挙げられる。なお、第一特定情報1001、第二特定情報1002、第三特定情報1003それぞれの意味は上述の内容に限定される必要はなく、別の意味(別の品詞)を第一特定情報1001、第二特定情報1002、第三特定情報1003に与えても、これらから文の内容を把握可能な限り、本実施の形態は成立する。
例えば、主語が「七人の侍」、形容詞が「面白い」である場合には、図12に示すように、話題タイトル(第二形態素情報)820は、第一特定情報1001である形態素「七人の侍」と、第三特定情報1003である形態素「面白い」とから構成されることになる。なお、この話題タイトル820には第二特定情報1002に該当する形態素は含まれておらず、該当する形態素がないことを示すための記号「*」が第二特定情報1002として格納されている。
なお、この話題タイトル820(七人の侍;*;面白い)は、「七人の侍は面白い」の意味を有する。この話題タイトル820を構成する括弧内は、以下では左から第一特定情報1001、第二特定情報1002、第三特定情報1003の順番となっている。また、話題タイトル820のうち、第一から第三特定情報に含まれる形態素がない場合には、その部分については、「*」を示すことにする。
なお、上記話題タイトル820を構成する特定情報は、上記のような第一から第三特定情報のように三つに限定されるものではなく、例えば更に他の特定情報(第四特定情報、およびそれ以上)を有するようにしてもよい。
次に、回答文830について説明する。回答文830は、図13に示すように、本実施の形態では、利用者から発話された発話文のタイプに対応した回答をするために、陳述(D ; Declaration)、時間(T ; Time)、場所(L ; Location)、否定(N ; Negation)などのタイプ(回答種類)に分類されて、各タイプごとに用意されている。また肯定文は「A」とし、質問文は「Q」とする。
図14に、ある話題特定情報810「和食」に対応付けされた話題タイトル820,回答文830、イベント情報フラグ840の具体例を示す。
話題特定情報810「和食」には、複数の話題タイトル(820)1−1、1−2、…が対応付けされている。それぞれの話題タイトル(820)1−1,1−2,…には回答文(830)1−1,1−2、…が対応付けされて記憶されている。各回答文830は、回答種類、イベント情報フラグ840ごとに用意された複数の文で構成されている。
例えば、話題タイトル(820)1−1が(和食;*;好き){これは、「和食が好きです」に含まれる形態素を抽出したもの}である場合には、その話題タイトル(820)1-1に対応する回答文(830)1−1には、回答種類がDA(陳述肯定文)の場合について、「おいしい和食をいろいろ用意しています。」(イベント情報フラグ840が話者推定感情が「幸福」、話者推定性別が「男」を示している場合の回答)、「とてもヘルシーな和食を用意してますよ。」(イベント情報フラグ840が話者推定感情が「幸福」、話者推定性別が「女」を示している場合の回答)、…などが用意されており、また、回答種類がTA(時間肯定文)の場合について「すぐにお出しできる和食も用意しています。」(イベント情報フラグ840が話者推定感情が「幸福」、話者推定性別が「男」を示している場合の回答)、「すぐにお出しできるとてもヘルシーな和食を用意してますよ。」(イベント情報フラグ840が話者推定感情が「幸福」、話者推定性別が「女」を示している場合の回答)、…などが用意されている。さらに、他の会話種類についてもイベント情報フラグ840に応じて複数の回答が用意されている。後述する回答取得部350は、回答種類、イベント情報フラグ840に応じて、その話題タイトル820に対応付けられた一の回答文830を取得する。
[会話制御部]
ここで図6に戻り、会話制御部300の構成例を説明する。
会話制御部300は、会話制御装置1内の各構成要素(音声認識部200,文解析部400、会話データベース500,出力部600,音声認識辞書記憶部700、環境認知部800、ユーザインタフェース制御部900)間のデータの受け渡しを制御するとともに、発話に応答する回答文の決定、出力を行う機能を有する。
前記会話制御部300は、本実施の形態では、図6に示すように、管理部310と、話題特定情報検索部320と、省略文補完部330と、話題検索部340と、回答取得部350とを有している。前記管理部310は、会話制御部300の全体を制御するものである。また、管理部310は談話履歴を記憶し、且つ必要に応じて更新する機能を有する。管理部310は話題特定情報検索部320と、省略文補完部330と、話題検索部340と、回答取得部350からの要求に応じて、記憶している談話履歴の全部又は一部をこれら各部に渡す機能を有する。
「談話履歴」とは、ユーザと会話制御装置1間の会話の話題や主題を特定する情報であって、談話履歴は後述する「着目話題特定情報」「着目話題タイトル」「利用者入力文話題特定情報」「回答文話題特定情報」の少なくともいずれか一つを含む情報である。また、談話履歴に含まれる「着目話題特定情報」「着目話題タイトル」「回答文話題特定情報」は直前の会話によって定められたものに限定されず、過去の所定期間の間に着目話題特定情報」「着目話題タイトル」「回答文話題特定情報」となったもの、若しくはそれらの累積的記録であってもよい。
以下、会話制御部300を構成するこれら各部について説明する。
[話題特定情報検索部]
話題特定情報検索部320は、形態素抽出部420で抽出された第一形態素情報と各話題特定情報とを照合し、各話題特定情報の中から、第一形態素情報を構成する形態素と一致する話題特定情報810を検索するものである。具体的に、話題特定情報検索部320は、形態素抽出部420から入力された第一形態素情報が「和食」及び「好き」の二つの形態素で構成される場合には、入力された第一形態素情報と話題特定情報群とを照合する。
この照合をした話題特定情報検索部320は、着目話題タイトル820focus(前回までに検索された話題タイトル)に第一形態素情報を構成する形態素(例えば「和食」)が含まれているときは、その着目話題タイトル820focusを回答取得部350に出力する。一方、着目話題タイトル820focusに第一形態素情報を構成する形態素が含まれていないときは、話題特定情報検索部320は、第一形態素情報に基づいて利用者入力文話題特定情報を決定し、入力された第一形態素情報及び利用者入力文話題特定情報を省略文補完部330に出力する。なお、「利用者入力文話題特定情報」は、第一形態素情報に含まれる形態素の内、利用者が話題としている内容に該当する形態素に相当する話題特定情報810、若しくは第一形態素情報に含まれる形態素の内、利用者が話題としている内容に該当する可能性がある形態素に相当する話題特定情報810をいう。
[省略文補完部]
省略文補完部330は、前記第一形態素情報を、前回までに検索された話題特定情報810(以下、「着目話題特定情報」)及び前回の回答文に含まれる話題特定情報810(以下、「回答文話題特定情報」という)を利用して、補完することにより複数種類の補完された第一形態素情報を生成する。例えば発話文が「好きだ」という文であった場合、省略文補完部330は、着目話題特定情報「和食」を、第一形態素情報「好き」に含めて、補完された第一形態素情報「和食、好き」を生成する。
すなわち、第一形態素情報を「W」、着目話題特定情報や回答文話題特定情報の集合を「D」とすると、省略文補完部330は、第一形態素情報「W」に集合「D」の要素を含めて、補完された第一形態素情報を生成する。
これにより、第一形態素情報を用いて構成される文が、省略文であって日本語として明解でない場合などにおいて、省略文補完部330は、集合「D」を用いて、その集合「D」の要素(例えば、"和食")を第一形態素情報「W」に含めることができる。この結果、省略文補完部330は、第一形態素情報「好き」を補完された第一形態素情報「和食、好き」にすることができる。なお、補完された第一形態素情報「和食、好き」は、「和食が好きだ」という発話内容に対応する。
すなわち、省略文補完部330は、利用者の発話内容が省略文である場合などであっても、集合「D」を用いて省略文を補完することができる。この結果、省略文補完部330は、第一形態素情報から構成される文が省略文であっても、その文が適正な日本語となるようにすることができる。
また、省略文補完部330が、前記集合「D」に基づいて、補完後の第一形態素情報に一致する話題タイトル820を検索する。補完後の第一形態素情報に一致する話題タイトル820を発見した場合は、省略文補完部330はこの話題タイトル820を回答取得部350に出力する。回答取得部350は、省略文補完部330で検索された適切な話題タイトル820に基づいて、利用者の発話内容に最も適した回答文830を出力することができる。
尚、省略文補完部330は、集合「D」の要素を第一形態素情報に含めるだけに限定されるものではない。この省略文補完部330は、着目話題タイトルに基づいて、その話題タイトルを構成する第一特定情報、第二特定情報又は第三特定情報のいずれかに含まれる形態素を、抽出された第一形態素情報に含めても良い。
[話題検索部]
話題検索部340は、省略文補完部330で話題タイトル820が決まらなかったとき、第一形態素情報と、利用者入力文話題特定情報に対応する各話題タイトル820とを照合し、各話題タイトル820の中から、第一形態素情報に最も適する話題タイトル810を検索するものである。
具体的に、省略文補完部330から検索命令信号が入力された話題検索部340は、入力された検索命令信号に含まれる利用者入力文話題特定情報及び第一形態素情報に基づいて、その利用者入力文話題特定情報に対応付けられた各話題タイトルの中から、その第一形態素情報に最も適した話題タイトル820を検索する。話題検索部340は、その検索した話題タイトル820を検索結果信号として回答取得部350に出力する。
図14は、ある話題特定情報810(=「佐藤」)に対応付けされた話題タイトル820,回答文830、イベント情報フラグ840の具体例を示す図である。図14に示すように、例えば、話題検索部340は、入力された第一形態素情報「和食、好き」に話題特定情報810(=「和食」)が含まれるので、その話題特定情報810(=「和食」)を特定し、次に、その話題特定情報810(=「和食」)に対応付けられた各話題タイトル(820)1-1、1-2、…と入力された第一形態素情報「和食、好き」とを照合する。
話題検索部340は、その照合結果に基づいて、各話題タイトル(820)1-1〜1-2の中から、入力された第一形態素情報「和食、好き」と一致する話題タイトル(820)1-1(和食;*;好き)を特定する。話題検索部340は、検索した話題タイトル(820)1-1(和食;*;好き)を検索結果信号として回答取得部350に出力する。
[回答取得部]
回答取得部350は、話題検索部340で検索された話題タイトル820に基づいて、その話題タイトル820に対応付けられた回答文830を取得する。また、回答取得部350は、話題検索部340で検索された話題タイトル820に基づいて、その話題タイトル820に対応付けられた各回答種類と入力種類判定部440で判定された発話種類とを照合し、かつ環境認知部800が出力したイベント情報と回答文830に対応付けられたイベント情報フラグ840とを照合して、発話種類及びイベント情報に合致する回答種類及びイベント情報フラグ840に対応する回答文の一つを選択する。
図14に示すように、例えば、回答取得部350は、話題検索部340で検索された話題タイトル820が話題タイトル1-1(話題;*;好き)である場合には、その話題タイトル1-1に対応付けられている回答文1-1(DA、TAなど)の中から、入力種類判定部440で判定された「発話文のタイプ」(例えばDA)と一致する回答種類(DA)を特定し、かつ環境認知部800が出力したイベント情報と一致するイベント情報フラグ840(例えば、「幸福」、男)を特定する。この回答種類(DA)、イベント情報フラグ840を特定した回答取得部350は、特定した回答種類(DA)、イベントフラグ情報850(例えば、「幸福」、男)に基づいて、その回答種類(DA)、イベント情報フラグ840(例えば、「幸福」、男)に対応付けられた回答文1-1(「おいしい和食をいろいろ用意しています。」)を取得する。
ここで、上記"DA"、"TA"等のうち、"A"は、肯定形式を意味する。従って、発話種類及び回答種類に"A"が含まれているときは、ある事柄について肯定することを示している。また、発話種類及び回答種類には、"DQ"、"TQ"等の種類を含めることもできる。この"DQ"、"TQ"等のうち"Q"は、ある事柄についての質問を意味する。
回答種類が上記質問形式(Q)からなるときは、この回答種類に対応付けられる回答文は、肯定形式(A)で構成される。この肯定形式(A)で作成された回答文としては、質問事項に対して回答する文等が挙げられる。例えば、発話文が「何かお勧めの料理はありますか?」である場合には、この発話文についての発話種類は、質問形式(Q)となる。この質問形式(Q)に対応付けられる回答文は、例えば「ハイ!お勧めの肉料理がございます」(肯定形式(A))が挙げられる。
一方、発話種類が肯定形式(A)からなるときは、この回答種類に対応付けられる回答文は、質問形式(Q)で構成される。この質問形式(Q)で作成された回答文としては、発話内容に対して聞き返す質問文、又は特定の事柄を聞き出す質問文等が挙げられる。例えば、発話文が「私は魚料理が好みです」である場合には、この発話文についての発話種類は、肯定形式(A)となる。この肯定形式(A)に対応付けられる回答文は、例えば「お魚はどのような料理方法がよいですか?」(特定の事柄を聞き出す質問文(Q))が挙げられる。
回答取得部350は、取得した回答文830を回答文信号として管理部310に出力する。回答取得部350から回答文信号が入力された管理部310は、入力された回答文信号を出力部600に出力する。
出力部600は、回答取得部350で取得された回答文を出力するものである。この出力部600は、例えば、スピーカ15L,15Rである。具体的に、管理部310から回答文が入力された出力部600は、入力された回答文に基づいて、音声をもってその回答文、例えば、「おいしい和食をいろいろ用意しています」を出力する。
[イベント情報フラグ]
図15に、図14に示すイベント情報フラグ840とは別の、イベント情報フラグ840の構成例を示す。図示のイベント情報フラグ840は、感情推定情報1501と、性別推定情報1502と、年齢(年代)推定情報1503と、話者推定情報1504とを有している。感情推定情報1501は、話者の顔の画像データ、音声データなどから推定により得られる話者の勘定を示す情報であり、性別推定情報1502は、話者の画像データ、音声データなどから推定により得られる話者の性別を示す情報であり、年齢(年代)推定情報1503は話者の画像データ、音声データなどから推定により得られる話者の年齢(年代)を示すデータで得あり、話者推定情報1504は、複数の話者がいる場合に、現在話している話者を特定する情報である。
[環境認知部]
図2に戻り、会話制御装置1の構成例の説明を続ける。
会話制御装置1は、環境認知部800を有している。図16に、環境認知部800の構成例を示す。図示の環境認知部800は、外部の情報である環境認知情報を取得するセンス部1601と、センス部1601から環境認知情報受け取り、これを分析・解析・解釈などの所定処理をすることによりイベント情報を生成し、出力するイベント管理部1602とを有している。
センス部1601は、CCDカメラ1603と、赤外線センサ1604と、マイク1605とを有している。CCDカメラ1603は、会話制御装置1外部から可視光を取り込んで、環境認知情報の一つである画像データに変換し出力する。赤外線センサ1604は、会話制御装置1外部から赤外光を取り込んで、赤外光の検出結果を環境認知情報の一つとして出力する。マイク1605は、会話制御装置1外部から音波(音声)を取り込んで音声信号を環境認知情報の一つとして出力する。また、マイク1605は、環境認知情報の一つとして、その指向性を利用して音源の位置若しくは方向を特定できるものであってもよい。
イベント管理部1602は、センス部1601が出力する環境認知情報に基づいて、イベント情報を出力する機能を有する。イベント情報は、前述のイベント情報フラグ840に対応する情報であって、例えば、感情推定情報、性別推定情報、年齢(年代)推定情報、話者推定情報1504などである。
イベント管理部1602は、感情推定モジュール1606,性別推定モジュール1607,声紋認識モジュール1608、話者位置認識モジュール1609、話者近接認識モジュール1610を有している。
感情推定モジュール1606は、センス部1601が出力する話者の画像から話者の感情を推定し、推定した感情をイベント情報として出力するように機能する。図17は、感情推定モジュール1601が行う感情推定処理の例を示すフローチャートである。
センス部1601から出力された話者の画像データを受け取ると、感情推定モジュール1606は、話者の画像データに基づいて、話者の顔器官(目、眉、口など)上に設定した特徴点から算出できる特徴量を抽出する特徴量抽出処理を行う(ステップS1701)。「特徴点」は、表情変化を十分に表せ、基本的な表情(怒り、嫌悪、恐怖、幸福、悲しみ、驚き、など)を識別できる、顔器官上に設定された点であって、例えば、眉の両端点及び中央点、左右の目の両端点、上下端点、唇の両端点、上下端点などである。「特徴量」はこれら特徴点から算出される量(たとえば距離)であって、眉の端点と目の端点の距離、唇の端点と目の高さとの距離などである。
次に、感情推定モジュール1606は、抽出した特徴量に基づいて、話者の表情を認識する表情認識処理を行う(ステップS1702)。表情認識処理は、たとえば以下のように行われる。まず、顔の上部(左右の眉を含む領域)、中央部(左右の目を含む領域)、下部(鼻及び口を含む領域)について、基本的な表情(怒り、嫌悪、恐怖、幸福、、悲しみ、驚き、など)及び中立の表情における特徴的な表情動作を特徴量の変化として予め記憶しておく。例えば、「驚き」の表情では、顔の上部に特徴的な表情動作として、眉が引き上げられ、湾曲し盛り上がるという表情動作が現れる。この表情動作を特徴量の変化として捉えると、眉間の距離である特徴量Aは変化しないが、目の高さと眉の端点、中心点との距離である特徴量B,C,Dは増加するという特徴量の変化となる。同様に各表情について表情変化を特徴量の変化として記憶しておく。
感情推定モジュール1606は、ステップS1701で抽出した特徴量から特徴量の変化を算出して、上記予め記憶した特徴量の変化と表情変化との関係から、特徴量の変化に対応した表情変化を特定して、現在(最新)の話者の表情を推定し、推定結果を出力する感情推定処理(ステップS1703)を行う。推定結果は、イベント情報として出力されることとなる。
次に、性別推定モジュール1607について説明する。性別推定モジュール1607は、センス部1601が出力する話者の画像から話者の性別を推定し、推定した性別をイベント情報として出力するように機能する。話者の画像から性別を推定する処理は、たとえば以下のように行う。話者の顔画像データから、特徴点を自動抽出し特徴量を算出する。次に、予め学習させておいたクラス(例えば、男性、女性)の特徴量と算出した特徴量とを比較しいずれのクラスに近似するかを判定して性別を判定する。性別推定モジュール1607は上記のような性別推定処理の推定結果をイベント情報として出力する。
次に、声紋認識モジュール1608について説明する。声紋認識モジュール1608はマイク1605から出力される音声信号から声紋情報を取得し、この声紋情報により話者の特定を行う機能を有する。話者の特定は、過去の利用者の中から今現在の話者を特定し、過去の話題特定情報などを得るようにしてもよいし、或いは複数の話者が同時に会話制御装置1を利用する場合(例えば、グループで来店したユーザがテーブル上に配置された一つの会話制御装置を利用する場合)に、それぞれの話者を特定するように、声紋情報を取得し、比較を行う。声紋認識モジュール1608はこの話者を特定する情報をイベント情報として出力する。
次に、話者位置認識モジュール1609について説明する。話者位置認識モジュール1609は、センス部1601のマイク1605の指向性を利用して、発話者の位置(或いは会話制御装置に対しての角度など)を求め、これにより話者を特定する機能を有する。話者位置認識モジュール1609は、複数の話者が同時に会話制御装置1を利用する場合(例えば、グループで来店したユーザがテーブル上に配置された一つの会話制御装置を利用する場合)に、それぞれの話者を特定し、話者を特定する情報をイベント情報として出力する。これにより、会話制御部300は、発話1(話者A)、発話2(話者B),発話3(話者A),発話4(話者C)がなされた場合、それぞれの話者(話者A,B,C)について談話履歴を管理し、それぞれの談話履歴に基づいて回答文の出力を行う。
次に、話者近接認識モジュール1610について説明する。話者近接認識モジュール1610は、センス部1601の赤外線センサ1604の検知可能領域を利用して、ある発話者が会話制御装置1に対して会話可能な距離に近づいたか否かを判定し、、これにより話者が会話を行うとしていることを推定する機能を有する。話者が赤外線センサ1604の検知可能領域にはいると、赤外線センサ1604(センス部1601)は、近接検知信号を環境認知情報として出力する。この環境認知情報である近接認知情報を受け取った話者近接認識モジュール1610は、イベント情報として話者近接通知情報を出力する。話者近接通知情報を受け取った会話制御部300は、話者との会話のきっかけとなるよう、例えば「いらっしゃいませ。」とか「ご注文はお決まりですか?」などの回答文の出力を行う。
[2.会話制御方法]
上記構成を有する会話制御装置1は、以下のように動作することにより会話制御方法を実行する。図18は、本実施の形態に係る会話制御方法の手順を示すフロー図である。
先ず、入力部100が、利用者からの発話内容を取得するステップを行う(ステップS1801)。具体的には、入力部100は、利用者の発話内容を構成する音声を取得する。入力部100は、取得した音声を音声信号として音声認識部200に出力する。なお、入力部100は、利用者からの音声ではなく、利用者から入力された文字列(例えば、テキスト形式で入力された文字データ)を取得してもよい。この場合、入力部100はマイクではなく、キーボードやタッチパネルなどの文字入力装置となる。
次いで、音声認識部200が、入力部100で取得した発話内容に基づいて、発話内容に対応する文字列を特定するステップを行う(ステップS1802)。具体的には、入力部100から音声信号が入力された音声認識部200は、入力された音声信号に基づいて、その音声信号に対応する単語仮説(候補)を特定する。音声認識部200は、特定した単語仮説(候補)に対応付けられた文字列を取得し、取得した文字列を文字列信号として会話制御部300に出力する。
そして、文字列特定部410が、音声認識部200で特定された一連の文字列を一文毎に区切るステップを行う(ステップS1803)。具体的には、管理部310から文字列信号(あるいは形態素信号)が入力された文字列特定部410は、その入力された一連の文字列の中に、ある一定以上の時間間隔があるときは、その部分で文字列を区切る。文字列特定部410は、その区切った各文字列を形態素抽出部420及び入力種類判定部440に出力する。なお、文字列特定部410は、入力された文字列がキーボードから入力された文字列である場合には、句読点又はスペース等のある部分で文字列を区切るのが好ましい。
その後、形態素抽出部420が、文字列特定部410で特定された文字列に基づいて、文字列の最小単位を構成する各形態素を第一形態素情報として抽出するステップを行う(ステップS1804)。具体的に、文字列特定部410から文字列が入力された形態素抽出部420は、入力された文字列と、形態素データベース430に予め格納されている形態素群とを照合する。なお、その形態素群は、本実施の形態では、それぞれの品詞分類に属する各形態素について、その形態素の見出し語・読み・品詞・活用形などを記述した形態素辞書として準備されている。
この照合をした形態素抽出部420は、入力された文字列の中から、予め記憶された形態素群に含まれる各形態素と一致する各形態素(m1、m2、…)を抽出する。形態素抽出部420は、抽出した各形態素を第一形態素情報として話題特定情報検索部320に出力する。
次いで、入力種類判定部440が、文字列特定部410で特定された一文を構成する各形態素に基づいて、「発話文のタイプ」を判定するステップを行う(ステップS1805)。具体的には、文字列特定部410から文字列が入力された入力種類判定部440は、入力された文字列に基づいて、その文字列と発話種類データベース450に格納されている各辞書とを照合し、その文字列の中から、各辞書に関係する要素を抽出する。この要素を抽出した入力種類判定部440は、抽出した要素に基づいて、その要素がどの「発話文のタイプ」に属するのかを判定する。入力種類判定部440は、判定した「発話文のタイプ」(発話種類)を回答取得部350に出力する。
そして、話題特定情報検索部320が、形態素抽出部420で抽出された第一形態素情報と着目話題タイトル820focusとを比較するステップを行う(ステップS1806)。
第一形態素情報を構成する形態素と着目話題タイトル820focusとが一致する場合、話題特定情報検索部320は、その話題タイトル820を回答取得部350に出力する。一方、話題特定情報検索部320は、第一形態素情報を構成する形態素と話題タイトル820とが一致しなかった場合には、入力された第一形態素情報及び利用者入力文話題特定情報を検索命令信号として省略文補完部330に出力する。
その後、省略文補完部330が、話題特定情報検索部320から入力された第一形態素情報に基づいて、着目話題特定情報及び回答文話題特定情報を、入力された第一形態素情報に含めるステップを行う(ステップS1807)。具体的には、第一形態素情報を「W」、着目話題特定情報及び回答文話題特定情報の集合を「D」とすると、省略文補完部330は、第一形態素情報「W」に話題特定情報「D」の要素を含めて、補完された第一形態素情報を生成し、この補完された第一形態素情報と集合「D」に関連づけされたすべての話題タイトル820とを照合し、補完された第一形態素情報と一致する話題タイトル820があるか検索する。補完された第一形態素情報と一致する話題タイトル820がある場合は、省略文補完部330は、その話題タイトル820を回答取得部350に出力する。一方、補完された第一形態素情報と一致する話題タイトル820を発見しなかった場合は、省略文補完部330は、第一形態素情報と利用者入力文話題特定情報とを話題検索部340に渡す。
次いで、話題検索部340は、第一形態素情報と、利用者入力文話題特定情報とを照合し、各話題タイトル820の中から、第一形態素情報に適した話題タイトル820を検索するステップを行う(ステップS1808)。具体的には、省略文補完部330から検索命令信号が入力された話題検索部340は、入力された検索命令信号に含まれる利用者入力文話題特定情報及び第一形態素情報に基づいて、その利用者入力文話題特定情報に対応付けられた各話題タイトル820の中から、その第一形態素情報に適した話題タイトル820を検索する。話題検索部340は、その検索の結果得られた話題タイトル820を検索結果信号として回答取得部350に出力する。
次いで、回答取得部350が、話題特定情報検索部320、省略文補完部330,あるいは話題検索部340で検索された話題タイトル820に基づいて、文解析部400により判定された利用者の発話種類と、話題タイトル820に対応付けられた各回答種類とを照合し、回答文の選択の準備をする(ステップS1809)。
具体的に、話題検索部340から検索結果信号と、入力種類判定部440から「発話文のタイプ」とが入力された回答取得部350は、入力された検索結果信号に対応する「話題タイトル」と、入力された「発話文のタイプ」とに基づいて、その「話題タイトル」に対応付けられている回答種類群の中から、「発話文のタイプ」(DAなど)と一致する回答種類を特定する。
一方、回答取得部350は、環境認知部800から出力されたイベント情報を参照し(ステップS1810)、回答文830の取得に備える。
次に、回答取得部350は、会話データベース500から、ステップS1809で特定した回答種類に対応する回答文830であって、かつステップS1810において参照したイベント情報と合致するイベント情報フラグ840に対応付けられた回答文830を取得する(ステップS1811)。
続いて、回答取得部350は、管理部310を介して、ステップS1811において取得した回答文830を出力部600に出力する。管理部310から回答文を受け取った出力部600は、入力された回答文830を出力する(ステップS1812)。
上記のような会話制御処理により、会話内容に合致しているとともに環境認知情報が反映された回答文を出力することが可能となる。
[3.利点]
本実施の形態にかかる会話制御装置1及び会話制御方法は、ユーザの発話の内容だけでなく、環境認知部800から得られる情報(例えば、顔認識、感情推定、性別認識、年代認識、声紋認識、話者位置認識、など)に基づいて会話制御を行うので、会話がなされている状況に応じた回答を出力することが可能となり、また会話内容に幅が出来る。
[4.第2の実施の形態]
次に、本発明の第2の実施の形態にかかる会話制御装置および会話制御方法について述べる。
第2の実施の形態にかかる会話制御装置および会話制御方法は、第2の実施の形態の特徴に加えて、会話制御装置が演じるキャラクタの感情及び/又は話者の感情を回答文に反映させることを特徴とする。
図19は、第2の実施の形態にかかる会話制御装置の構成例を示す機能ブロック図である。
第2の実施の形態にかかる会話制御装置1’は、第1の実施の形態にかかる会話制御装置1と以下の点を除いて同様であるので、異なる点のみ説明し、同様な点については説明を省略する。
会話制御装置1’は、会話制御装置が演じるキャラクタの感情及び/又は話者の感情を示す感情状態情報を管理する感情状態情報管理部1900をさらに有している。
感情状態情報管理部1900は、会話制御部300から出力される、感情フラグを受け取り、感情フラグをキャラクタの感情を示す感情状態情報(「キャラクタ感情状態情報」という)に反映させる処理を行うとともに、会話制御部300に現状のキャラクタ感情状態情報を返し、キャラクタ感情状態情報に応じた回答文830の出力をさせる。また、感情状態情報管理部1900は、環境認知部800から話者の感情に関するイベント情報を受け取り、これに基づいて話者の感情を示す感情状態情報(「話者感情状態情報」という)を生成し、記憶し、更新し、この話者感情状態情報を会話制御部300に返し、話者感情状態情報に応じた回答文830の出力をさせる。
キャラクタの感情は、キャラクタ感情状態情報によって記述されている。キャラクタ感情状態情報は、感情を示す情報を累積的に記憶できる情報であればどのようなものでもよく、たとえば感情フラグの累積値をキャラクタ感情状態情報として用いることができる。
感情フラグは感情を区別できる情報であればどのようなデータを用いてもよく、例えば、「平常」の感情を示す感情フラグとして文字データ「A」を割り当て、「激怒」の感情を示す感情フラグとして文字データ「B」を割り当て、「怒り」の感情を示す感情フラグとして文字データ「C」を割り当て、「喜び」の感情を示す感情フラグとして文字データ「D」を割り当てるなどのようにする。本実施の形態にかかる会話制御部300は、この感情フラグに基づいて記憶されるキャラクタ感情状態情報を参照して、会話制御装置1’が提供するキャラクタ(疑似人格、仮想人格)の感情を制御することとなる。
図20(A)に、感情状態情報管理部1900が記憶するキャラクタ感情状態情報のデータ構成例を示し、図20(B)に感情状態情報管理部1900が記憶する話者感情状態情報のデータ構成例を示す。
キャラクタ感情状態情報2000は、感情フラグ種類2001ごとに、累積値2002を有している。累積値2002は、各感情フラグごとに増減が可能である。例えば、感情状態情報管理部1900が「喜び」を示す感情フラグを受け取るごとに、感情フラグ種類「喜び」に対応する累積値2002の値がインクリメントされる。
話者感情状態情報2003は、複数の話者のそれぞれについて感情を記述できるよう、話者ごとに一つのレコード2005A、2005B、2005C、…を有しており、レコード2005A、2005B、2005C、…のそれぞれは、話者の6種類の基本感情に対応するよう、「怒り」フィールド2004A,「嫌悪」フィールド2004B,「恐怖」フィールド2004C,「幸福」フィールド2004D,「悲しみ」フィールド2004E,「驚き」フィールド2004Fを有している。各フィールド2004A〜2004Fには「0」又は「1」のデータが格納され、「0」は話者に対応する基本感情がないことを示し、「1」は話者に対応する基本感情があることを示している。例えば、環境認知部800より話者の推定感情を示すイベント情報であって、「幸福」「驚き」を示すイベント情報が出力された場合、感情状態情報管理部1900は、その話者のレコードの「幸福」フィールド2004D及び「驚き」フィールド2004Fに「1」を格納し、他のフィールド2004A,2004B、2004C、2004Eに「0」を格納する。
このようにイベント情報に従って話者感情状態情報を更新することにより、話者の(推定により)感情を逐次記憶することが可能となる。なお、図20(B)において、話者3におけるフィールド2004A〜2004Fに「9」が格納されているがこれは話者3が存在しておらず、このレコードは未利用であることを示す。
また、感情状態情報管理部1900は、感情状態情報をユーザインターフェイス制御部900に渡し、ユーザインターフェイス制御部900は感情状態情報に基づいて、液晶表示部11にキャラクタの表情、動作などを表示する。これにより回答文830の内容に合致したキャラクタの表情、動作などが表示されるので、会話制御装置1’の利用者は、会話制御装置1’が演じるキャラクタ(疑似人格)が実際の人間に近い自然な反応を示しているように感ずる。
次に、本実施の形態における会話データベース500’の記憶内容について説明する。図21は、本実施の形態における会話データベース500’の記憶内容の例を示す図である。本実施の形態における会話データベース500’の記憶内容は、図10に示す記憶内容とほぼ同じであるが、話題タイトル820に対応付けされた感情条件パラメータ850および感情フラグ860をさらに有している点で異なっている。
各回答文830には、感情条件パラメータ850が対応付けられている。感情条件パラメータ850は、感情状態情報の条件を示す情報である。例えば、感情状態情報が「怒り」の感情フラグの累積値「10」を示しているとき、ある回答文Aの感情条件パラメータ850が「怒り」の感情フラグの累積値5以下であることを記述しており、一方別の回答文Bの感情条件パラメータ850が「怒り」の感情フラグの累積値8以上であることを記述している場合は、回答文Aは選択されず、回答文Bが会話制御装置1’がユーザへの回答として選択されることとなる。
更に、回答文830には会話制御装置1’が提供するキャラクタ(疑似人格)の感情を示すデータである感情フラグ860が対応付けされて記憶されている。感情フラグ860は感情を区別できる情報であればどのようなデータを用いてもよく、例えば、「平常」の感情を示す感情フラグとして文字データ「A」を割り当て、「激怒」の感情を示す感情フラグとして文字データ「B」を割り当て、「怒り」の感情を示す感情フラグとして文字データ「C」を割り当て、「喜び」の感情を示す感情フラグとして文字データ「D」を割り当てるなどのようにする。本実施の形態にかかる会話制御装置1’は、感情状態情報管理部1900に記憶されている感情状態情報とこの感情フラグ860とを比較して、記憶されている感情状態情報に一致する感情フラグ860を有する回答文を選択して、会話制御装置1’が提供するキャラクタ(疑似人格)の感情を制御することとなる。
なお、本実施の形態では、イベント情報フラグ840,感情条件パラメータ850、感情フラグ860は回答文830に対応付けられているが、話題タイトル820、話題特定情報810に対応付けられていても、本発明は成立する。
図22に、本実施の形態におけるある話題特定情報810「和食」に対応付けされた話題タイトル820,回答文830、イベント情報フラグ840、イベント情報フラグ840、感情フラグ860の具体例を示す。
話題特定情報810「和食」には、複数の話題タイトル(820)1−1、1−2、…が対応付けされている。それぞれの話題タイトル(820)1−1,1−2,…には回答文(830)1−1,1−2、…が対応付けされて記憶されている。各回答文830は、回答種類、イベント情報フラグ840、感情条件パラメータ850、感情フラグ860ごとに用意された複数の文で構成されている。
例えば、話題タイトル(820)1−1が(和食;*;好き){これは、「和食が好きです」に含まれる形態素を抽出したもの}である場合には、その話題タイトル(820)1-1に対応する回答文(830)1−1には、回答種類がDA(陳述肯定文)の場合について、「おいしい和食をいろいろ用意しています。」(イベント情報フラグ840が示す話者推定感情が「幸福」、話者推定性別が「男」を示し、感情条件パラメータ850が「すべて2以下」、感情フラグ850が「A」である場合の回答)、「とてもヘルシーな和食を用意してますよ。」(イベント情報フラグ840が話者推定感情が「幸福」、話者推定性別が「女」を示し、感情条件パラメータ850が「すべて2以下」、感情フラグ860が「A」である場合の回答)、…などが用意されており、また、回答種類がTA(時間肯定文)の場合について「すぐにお出しできる和食も用意しています。」(イベント情報フラグ840が話者推定感情が「幸福」、話者推定性別が「男」を示し、感情条件パラメータ850が「すべて2以下」、感情フラグ860が「A」である場合の回答)、「すぐにお出しできるとてもヘルシーな和食を用意してますよ。」(イベント情報フラグ840が話者推定感情が「幸福」、話者推定性別が「女」を示し、感情条件パラメータ850が「すべて2以下」、感情フラグ860が「A」である場合の回答)、…などが用意されている。さらに、他の会話種類についてもイベント情報フラグ840に応じて複数の回答が用意されている。後述する回答取得部350は、回答種類、イベント情報フラグ840、感情条件パラメータ850、感情フラグ860に応じて、その話題タイトル820に対応付けられた一の回答文830を取得する。
[5.会話制御装置の動作(会話制御方法)]
次に、本実施の形態にかかる会話制御装置1’の動作例を図23を参照しながら説明する。図23は、会話制御装置1’の動作によって行われる会話制御方法のフローチャートである。
図23に示す動作において、発話内容を取得する処理(ステップS2301)からイベント情報フラグを参照する処理(ステップS2309)までは、第1の実施の形態の動作例(図18;ステップS1801からステップS1809)と同様の処理である。上記ステップS2301からステップS2309までの各ステップの説明は省略する。
イベント情報フラグを参照する処理(ステップS2309)の終了後、会話制御装置1’は、感情状態情報の更新を行う(ステップS2310)。ここでは、主にイベント情報(話者の推定感情を示すイベント情報)に基づいて話者感情状態情報2003を更新する処理が行われる。更新された感情状態情報は感情状態情報管理部1900に記憶される。
続いて、会話制御装置1’は、環境認知部800から出力された最新のイベント情報及び感情状態情報管理部1900に記憶されている感情状態情報、並びにステップS2308において検索された話題タイトルに基づいて、これらに合致する回答文830を会話データベース500より取得する(ステップS2311)。
次に、会話制御装置1’は取得した回答文830を出力する(ステップS2312)。回答文830は、スピーカ15L、15Rから音声として出力されてもよいし、液晶表示部11に文字情報として表示されてもよい。回答文830の内容は、会話制御装置1’周辺の環境により生成されたイベント情報並びにキャラクタ及び/又は話者の感情に対応した内容となっているため、会話がなされている状況に即した適切な回答を出力することが可能となる。
次に、会話制御装置1’はステップS2312において取得した回答に応じてキャラクタの表示制御を含むユーザインターフェイス制御を行う(ステップS2313)。この実施の形態では回答文830に対応する感情フラグ860を参照して、その感情フラグ860に対応するキャラクタデータ(キャラクタの表情や動作などキャラクタの感情を表現するための画像/音声データ)を選択し、液晶表示部11に表示させることにより、ユーザインターフェイス制御を行うが、感情状態情報管理部1900に記憶されたキャラクタ感情状態情報を参照してユーザインターフェイス制御を行うようにしても、本実施の形態は成立する。
以上で、ユーザ(利用者)の発話から会話制御装置1’の回答の出力までの一連の処理が終了する。会話制御装置1’はユーザの発話を受けるごとに上記ステップS2301からステップS2313を実行し、ユーザと会話制御装置1’間の会話(情報のやり取り)を行う。
[6.利点]
本実施の形態にかかる会話制御装置1’および会話制御方法は、キャラクタの感情変化を反映させつつ、会話がなされている状況に即した適切な回答を出力することを可能とする、という利点を有する。
[7.その他]
(1) 会話制御装置1、会話制御装置1’の音声認識部200、会話制御部300、文解析部400の構成及び動作は、第1の実施の形態において説明したものに限られず、会話データベース手段を利用して利用者の発話内容に応じた回答を返すものであれば、第1の実施の形態において説明したもの以外のどのような音声認識部200、会話制御部300、文解析部400であっても、本発明に係る会話制御装置1、会話制御装置1’の構成要素として使用可能である。
(2) 上記実施の形態の説明では、会話制御装置1、会話制御装置1’への発話の入力は音声によるものとして説明したが、会話制御装置1, 会話制御装置1’への発話の入力は音声に限られるものではなく、キーボード、タッチパネル、ポインティングデバイスなどの文字入力手段による文字列データとして会話制御装置1、会話制御装置1’へ発話を入力し、会話制御装置1、会話制御装置1’がこの文字列データとして入力された発話に対して会話データベース500を用いて回答文を出力する構成としても本発明は成立する。
会話制御装置の一例を示す外観斜視図 会話制御装置の構成例を示す機能ブロック図 音声認識部の構成例を示す機能ブロック図 単語仮説絞込部の処理を示すタイミングチャート 音声認識部の動作例を示すフロー図 会話制御装置の部分拡大ブロック図 文字列とこの文字列から抽出される形態素との関係を示す図 「発話文のタイプ」と、その発話文のタイプを表す二文字のアルファベット、及びその発話文のタイプに該当する発話文の例を示す図 文のタイプとそのタイプを判定するための辞書の関係を示す図 会話データベースが記憶するデータのデータ構成の一例を示す概念図 ある話題特定情報と他の話題特定情報との関連付けを示す図 話題タイトルのデータ構成例を示す図 回答文のタイプと内容例を説明するための図 ある話題特定情報に対応付けされた話題タイトル,回答文、イベント情報フラグの具体例を示す図 イベント情報フラグの別のデータ構成例を示す図 環境認知部の構成例を示す機能ブロック図 感情推定モジュールの動作例を示すフロー図 会話制御方法の手順を示すフロー図 第2の実施の形態にかかる会話制御装置の構成例を示す機能ブロック図 感情状態情報管理部の記憶内容例を示す図 第2の実施の形態にかかる会話データベースの記憶内容の例を示す図 ある話題特定情報に対応付けされた話題タイトル,回答文、イベント情報フラグ、感情条件パラメータ、感情フラグの具体例を示す図 第2の実施の形態にかかる会話制御方法の手順を示すフロー図
符号の説明
1、1’ … 会話制御装置
11 … 液晶表示部
12A〜D … 3D指向マイク
13 … CCDカメラ
14 … 赤外線センサ
15L,R … スピーカ
100 … 入力部
200 … 音声認識部
300 … 会話制御部
400 … 文解析部
500 … 会話データベース
600 … 出力部
700 … 音声認識辞書記憶部
800 … 環境認知部
900 … ユーザインターフェイス制御部
1900 … 感情状態情報管理部

Claims (4)

  1. ユーザからの発話に応答する回答を出力する会話制御装置において、
    複数の話題特定情報を記憶する会話データベース手段と、従前の会話及び従前の回答により定まる談話履歴を記憶し、この談話履歴により定まる話題特定情報と発話情報とを用いて回答文を選択する会話制御手段と、環境認知情報を取得する環境認知手段とを有し、
    前記環境認知手段は、取得した環境認知情報に基づきイベント情報を生成し、
    前記会話制御手段は、イベント情報に基づいて回答文を選択する
    ことを特徴とする会話制御装置。
  2. ユーザからの発話に応答する回答を出力する会話制御装置において、
    複数の話題特定情報を記憶する会話データベース手段と、
    従前の会話及び従前の回答により定まる談話履歴を記憶し、この談話履歴により定まる話題特定情報と発話情報とを用いて回答文を選択する会話制御手段と、
    環境認知情報を取得する環境認知手段と、
    会話制御装置の演ずるキャラクタ及び話者の少なくとも一方の感情を示す感情状態情報を記憶し、更新する感情状態情報管理手段と
    を有し、
    前記環境認知手段は、取得した環境認知情報に基づきイベント情報を生成し、
    前記感情状態情報管理手段は、イベント情報に応じて感情状態情報を更新し、
    前記会話制御手段は、感情状態情報に基づいて回答文を選択する
    ことを特徴とする会話制御装置。
  3. ユーザからの発話に応答する回答を出力する会話制御方法において、
    複数の話題特定情報と、各話題特定情報について定められた1又は複数の話題タイトルと、各話題タイトルについて定められた一又は複数の回答文と、回答文に対応して定められたイベント情報フラグとを予め記憶させるステップと、
    外部の環境から環境認知情報を取得し、環境認知情報からイベント情報を生成するステップと
    従前の会話及び従前の回答文により定まる談話履歴により定まる話題特定情報と発話情報とを照合して、当該話題特定情報のいずれかについて定められた話題タイトルのいずれかを取得し、その話題タイトルに対応する複数の回答文から前記イベント情報に応じたイベント情報フラグに対応する回答文を選択するステップと
    を有することを特徴とする会話制御方法。
  4. ユーザからの発話に応答する回答を出力する会話制御方法において、
    複数の話題特定情報と、各話題特定情報について定められた1又は複数の話題タイトルと、各話題タイトルについて定められた一又は複数の回答文とを予め記憶させるステップと、
    外部の環境から環境認知情報を取得し、環境認知情報からイベント情報を生成するステップと、
    キャラクタ及び話者の少なくとも一方の感情を示す感情状態情報を前記イベント情報に応じて更新するステップと、
    従前の会話及び従前の回答文により定まる談話履歴により定まる話題特定情報と発話情報とを照合して、当該話題特定情報のいずれかについて定められた話題タイトルのいずれかを取得し、その話題タイトルに対応する複数の回答文から前記イベント情報及び感情状態情報に応じた回答文を選択するステップと
    を有することを特徴とする会話制御方法。
JP2003391305A 2003-11-20 2003-11-20 会話制御装置及び会話制御方法 Pending JP2005157494A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2003391305A JP2005157494A (ja) 2003-11-20 2003-11-20 会話制御装置及び会話制御方法
AU2004229094A AU2004229094A1 (en) 2003-11-20 2004-11-15 Conversation control apparatus, and conversation control method
EP04027344A EP1533788A1 (en) 2003-11-20 2004-11-17 Conversation control apparatus, and conversation control method
US10/993,884 US7676369B2 (en) 2003-11-20 2004-11-19 Conversation control apparatus, conversation control method, and programs therefor
ZA200409338A ZA200409338B (en) 2003-11-20 2004-11-19 Conversation control apparatus, and conversation control method
CN200410091336XA CN1637740B (zh) 2003-11-20 2004-11-19 对话控制设备和对话控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003391305A JP2005157494A (ja) 2003-11-20 2003-11-20 会話制御装置及び会話制御方法

Publications (1)

Publication Number Publication Date
JP2005157494A true JP2005157494A (ja) 2005-06-16

Family

ID=34431611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003391305A Pending JP2005157494A (ja) 2003-11-20 2003-11-20 会話制御装置及び会話制御方法

Country Status (6)

Country Link
US (1) US7676369B2 (ja)
EP (1) EP1533788A1 (ja)
JP (1) JP2005157494A (ja)
CN (1) CN1637740B (ja)
AU (1) AU2004229094A1 (ja)
ZA (1) ZA200409338B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073613A1 (ja) * 2012-11-08 2014-05-15 日本電気株式会社 会話文生成装置、会話文生成方法及び会話文生成プログラム
JP2015014834A (ja) * 2013-07-03 2015-01-22 株式会社Lassic 機械対話による感情推定システム及びそのプログラム
CN110445826A (zh) * 2018-05-04 2019-11-12 阿里巴巴集团控股有限公司 一种会话信息获取方法、装置及服务器
JP2020149369A (ja) * 2019-03-13 2020-09-17 株式会社東芝 対話制御システム、対話制御方法及びプログラム
WO2023181827A1 (ja) * 2022-03-22 2023-09-28 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8126713B2 (en) * 2002-04-11 2012-02-28 Shengyang Huang Conversation control system and conversation control method
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7693720B2 (en) * 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
CN1842787B (zh) * 2004-10-08 2011-12-07 松下电器产业株式会社 对话支援装置
US20060143080A1 (en) * 2004-12-29 2006-06-29 Ashutosh Garg Generating and/or serving dynamic promotional offers such as coupons and advertisements
KR20060110787A (ko) * 2005-04-20 2006-10-25 가부시키가이샤 소니 컴퓨터 엔터테인먼트 회화 지원 장치
US7640160B2 (en) 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7620549B2 (en) 2005-08-10 2009-11-17 Voicebox Technologies, Inc. System and method of supporting adaptive misrecognition in conversational speech
US7949529B2 (en) 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
EP1934971A4 (en) 2005-08-31 2010-10-27 Voicebox Technologies Inc DYNAMIC LANGUAGE SCRIPTURE
JP4849662B2 (ja) * 2005-10-21 2012-01-11 株式会社ユニバーサルエンターテインメント 会話制御装置
JP4849663B2 (ja) * 2005-10-21 2012-01-11 株式会社ユニバーサルエンターテインメント 会話制御装置
JP4846336B2 (ja) * 2005-10-21 2011-12-28 株式会社ユニバーサルエンターテインメント 会話制御装置
JP2007114621A (ja) * 2005-10-21 2007-05-10 Aruze Corp 会話制御装置
JP4635891B2 (ja) * 2006-02-08 2011-02-23 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
US8965762B2 (en) * 2007-02-16 2015-02-24 Industrial Technology Research Institute Bimodal emotion recognition method and system utilizing a support vector machine
JP2008203559A (ja) * 2007-02-20 2008-09-04 Toshiba Corp 対話装置及び方法
CN101266793B (zh) * 2007-03-14 2011-02-02 财团法人工业技术研究院 通过对话回合间上下文关系来减少辨识错误的装置与方法
CN101071418B (zh) * 2007-03-29 2010-06-23 腾讯科技(深圳)有限公司 聊天方法与系统
US8370145B2 (en) * 2007-03-29 2013-02-05 Panasonic Corporation Device for extracting keywords in a conversation
WO2009039867A1 (de) 2007-09-20 2009-04-02 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren und kommunikationsanordnung zum betreiben einer kommunikationsverbindung
US8140335B2 (en) 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
WO2009122779A1 (ja) * 2008-04-03 2009-10-08 日本電気株式会社 テキストデータ処理装置、方法、プログラムが格納された記録媒体
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8589161B2 (en) 2008-05-27 2013-11-19 Voicebox Technologies, Inc. System and method for an integrated, multi-modal, multi-device natural language voice services environment
FR2935855B1 (fr) * 2008-09-11 2010-09-17 Alcatel Lucent Procede et systeme de communication pour la determination d'une sequence de services lies a une conversation.
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
EP2299440B1 (en) * 2009-09-11 2012-10-31 Vodafone Holding GmbH Method and Device for automatic recognition of given keywords and/or terms within voice data
US9171541B2 (en) 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment
WO2011059997A1 (en) 2009-11-10 2011-05-19 Voicebox Technologies, Inc. System and method for providing a natural language content dedication service
US8635066B2 (en) * 2010-04-14 2014-01-21 T-Mobile Usa, Inc. Camera-assisted noise cancellation and speech recognition
US20110276327A1 (en) * 2010-05-06 2011-11-10 Sony Ericsson Mobile Communications Ab Voice-to-expressive text
JP5867410B2 (ja) * 2010-11-22 2016-02-24 日本電気株式会社 対話テキスト解析装置、方法およびプログラム
JP5250066B2 (ja) * 2011-03-04 2013-07-31 東芝テック株式会社 情報処理装置およびプログラム
CN102737631A (zh) * 2011-04-15 2012-10-17 富泰华工业(深圳)有限公司 互功式语音识别电子装置及方法
KR101878488B1 (ko) * 2011-12-20 2018-08-20 한국전자통신연구원 대화 연관 컨텐츠 제공 방법 및 장치
US9144008B2 (en) 2012-01-15 2015-09-22 Google Inc. Providing hotspots to user devices within server-controlled zones
CN103456301B (zh) * 2012-05-28 2019-02-12 中兴通讯股份有限公司 一种基于环境声音的场景识别方法及装置及移动终端
US9037481B2 (en) * 2012-06-11 2015-05-19 Hartford Fire Insurance Company System and method for intelligent customer data analytics
US9263044B1 (en) * 2012-06-27 2016-02-16 Amazon Technologies, Inc. Noise reduction based on mouth area movement recognition
US9691088B2 (en) 2012-08-24 2017-06-27 Google Inc. Ordering ahead with a mobile device
US8484017B1 (en) * 2012-09-10 2013-07-09 Google Inc. Identifying media content
US20140074466A1 (en) 2012-09-10 2014-03-13 Google Inc. Answering questions using environmental context
US9104838B2 (en) 2012-11-14 2015-08-11 Google Inc. Client token storage for cross-site request forgery protection
US10176252B2 (en) * 2012-12-04 2019-01-08 Ntt Docomo, Inc. Information-processing device, server device, interaction system, and program
KR20140079092A (ko) * 2012-12-18 2014-06-26 한국전자통신연구원 음향그룹의 전이확률을 활용한 문맥독립 성별인식 방법 및 장치
KR102050897B1 (ko) * 2013-02-07 2019-12-02 삼성전자주식회사 음성 대화 기능을 구비한 휴대 단말기 및 이의 음성 대화 방법
US9341479B2 (en) 2013-03-05 2016-05-17 Google Inc. Configurable point of interest alerts
US20140278403A1 (en) * 2013-03-14 2014-09-18 Toytalk, Inc. Systems and methods for interactive synthetic character dialogue
US9728184B2 (en) 2013-06-18 2017-08-08 Microsoft Technology Licensing, Llc Restructuring deep neural network acoustic models
US9589565B2 (en) * 2013-06-21 2017-03-07 Microsoft Technology Licensing, Llc Environmentally aware dialog policies and response generation
US9311298B2 (en) 2013-06-21 2016-04-12 Microsoft Technology Licensing, Llc Building conversational understanding systems using a toolset
US8755824B1 (en) 2013-06-28 2014-06-17 Google Inc. Clustering geofence-based alerts for mobile devices
KR20150031896A (ko) * 2013-09-17 2015-03-25 한국전자통신연구원 음성인식장치 및 그 동작방법
CN105723360A (zh) * 2013-09-25 2016-06-29 英特尔公司 利用情感调节改进自然语言交互
CN103544953B (zh) * 2013-10-24 2016-01-20 哈尔滨师范大学 一种基于背景噪声最小统计量特征的声音环境识别方法
CN103577198B (zh) * 2013-11-22 2017-05-31 中国联合网络通信集团有限公司 一种面向用户的物联网服务平台及远程控制方法
US9986375B2 (en) 2014-02-12 2018-05-29 Google Llc Energy-efficient location determination
US9529794B2 (en) 2014-03-27 2016-12-27 Microsoft Technology Licensing, Llc Flexible schema for language model customization
US10318123B2 (en) 2014-03-31 2019-06-11 Elwha Llc Quantified-self machines, circuits and interfaces reflexively related to food fabricator machines and circuits
US20150277397A1 (en) * 2014-03-31 2015-10-01 Elwha LLC, a limited liability company of the State of Delaware Quantified-Self Machines and Circuits Reflexively Related to Food Fabricator Machines and Circuits
US10127361B2 (en) 2014-03-31 2018-11-13 Elwha Llc Quantified-self machines and circuits reflexively related to kiosk systems and associated food-and-nutrition machines and circuits
US9922307B2 (en) 2014-03-31 2018-03-20 Elwha Llc Quantified-self machines, circuits and interfaces reflexively related to food
US20150279177A1 (en) * 2014-03-31 2015-10-01 Elwha LLC, a limited liability company of the State of Delaware Quantified-self machines and circuits reflexively related to fabricator, big-data analytics and user interfaces, and supply machines and circuits
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
US9520127B2 (en) 2014-04-29 2016-12-13 Microsoft Technology Licensing, Llc Shared hidden layer combination for speech recognition systems
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
US10037202B2 (en) 2014-06-03 2018-07-31 Microsoft Technology Licensing, Llc Techniques to isolating a portion of an online computing service
US9870500B2 (en) 2014-06-11 2018-01-16 At&T Intellectual Property I, L.P. Sensor enhanced speech recognition
US9717006B2 (en) 2014-06-23 2017-07-25 Microsoft Technology Licensing, Llc Device quarantine in a wireless network
WO2016044321A1 (en) 2014-09-16 2016-03-24 Min Tang Integration of domain information into state transitions of a finite state transducer for natural language processing
EP3195145A4 (en) 2014-09-16 2018-01-24 VoiceBox Technologies Corporation Voice commerce
US9747896B2 (en) 2014-10-15 2017-08-29 Voicebox Technologies Corporation System and method for providing follow-up responses to prior natural language inputs of a user
US20160128617A1 (en) * 2014-11-10 2016-05-12 Intel Corporation Social cuing based on in-context observation
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US10614799B2 (en) 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
KR101583181B1 (ko) * 2015-01-19 2016-01-06 주식회사 엔씨소프트 응답 스티커 추천방법 및 컴퓨터 프로그램
EP3264258A4 (en) * 2015-02-27 2018-08-15 Sony Corporation Information processing device, information processing method, and program
CN105159979A (zh) * 2015-08-27 2015-12-16 广东小天才科技有限公司 好友推荐方法及装置
CN106649405A (zh) * 2015-11-04 2017-05-10 陈包容 一种获取聊天发起句的回复提示内容的方法及装置
CN106658441A (zh) * 2015-11-04 2017-05-10 陈包容 一种快捷回复未读信息的方法及装置
CN106844378A (zh) * 2015-12-04 2017-06-13 中国移动通信集团公司 一种应答方式确定方法和装置
CN105843382B (zh) * 2016-03-18 2018-10-26 北京光年无限科技有限公司 一种人机交互方法及装置
US20170286755A1 (en) * 2016-03-30 2017-10-05 Microsoft Technology Licensing, Llc Facebot
US10573048B2 (en) * 2016-07-25 2020-02-25 Oath Inc. Emotional reaction sharing
US10331784B2 (en) 2016-07-29 2019-06-25 Voicebox Technologies Corporation System and method of disambiguating natural language processing requests
CN106250533B (zh) * 2016-08-05 2020-06-02 北京光年无限科技有限公司 一种面向智能机器人的富媒体播放数据处理方法和装置
CN106297789B (zh) * 2016-08-19 2020-01-14 北京光年无限科技有限公司 智能机器人的个性化交互方法及交互系统
JP6774018B2 (ja) * 2016-09-15 2020-10-21 富士ゼロックス株式会社 対話装置
JP6715943B2 (ja) * 2016-10-06 2020-07-01 シャープ株式会社 対話装置、対話装置の制御方法、および制御プログラム
CN107861961A (zh) * 2016-11-14 2018-03-30 平安科技(深圳)有限公司 对话信息生成方法和装置
CN106599124A (zh) * 2016-11-30 2017-04-26 竹间智能科技(上海)有限公司 主动引导用户持续对话的系统及方法
CN106776926A (zh) * 2016-12-01 2017-05-31 竹间智能科技(上海)有限公司 改善机器人对话时的应答能力的方法及系统
US10558701B2 (en) * 2017-02-08 2020-02-11 International Business Machines Corporation Method and system to recommend images in a social application
KR102363794B1 (ko) * 2017-03-31 2022-02-16 삼성전자주식회사 정보 제공 방법 및 이를 지원하는 전자 장치
CN110121706B (zh) * 2017-10-13 2022-05-03 微软技术许可有限责任公司 提供会话中的响应
KR102348124B1 (ko) * 2017-11-07 2022-01-07 현대자동차주식회사 차량의 기능 추천 장치 및 방법
CN110136719B (zh) * 2018-02-02 2022-01-28 上海流利说信息技术有限公司 一种实现智能语音对话的方法、装置及系统
US10685358B2 (en) * 2018-03-02 2020-06-16 Capital One Services, Llc Thoughtful gesture generation systems and methods
US10678851B2 (en) 2018-04-25 2020-06-09 International Business Machines Corporation Cognitive content display device
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
JP2021529382A (ja) 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
JP6964558B2 (ja) * 2018-06-22 2021-11-10 株式会社日立製作所 音声対話システムとモデル作成装置およびその方法
CN108986805B (zh) * 2018-06-29 2019-11-08 百度在线网络技术(北京)有限公司 用于发送信息的方法和装置
CN109388699A (zh) * 2018-10-24 2019-02-26 北京小米移动软件有限公司 输入方法、装置、设备及存储介质
CN109616116B (zh) * 2019-01-10 2023-02-03 上海言通网络科技有限公司 通话系统及其通话方法
US20210402611A1 (en) * 2019-02-25 2021-12-30 Qbit Robotics Corporation Information processing system and information processing method
CN111930884A (zh) * 2020-07-03 2020-11-13 华为技术有限公司 一种确定回复语句的方法、设备和人机对话系统
CN113761146A (zh) * 2021-01-05 2021-12-07 北京沃东天骏信息技术有限公司 识别顾客情绪波动的方法和装置
CN113436625A (zh) * 2021-06-25 2021-09-24 安徽淘云科技股份有限公司 一种人机交互方法及其相关设备
CN116484004B (zh) * 2023-05-26 2024-06-07 大连理工大学 一种对话情绪识别分类方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231225A (ja) * 1996-02-26 1997-09-05 Fuji Xerox Co Ltd 言語情報処理装置
US5991726A (en) * 1997-05-09 1999-11-23 Immarco; Peter Speech recognition devices
JPH11119791A (ja) 1997-10-20 1999-04-30 Hitachi Ltd 音声感情認識システムおよび方法
US6185534B1 (en) * 1998-03-23 2001-02-06 Microsoft Corporation Modeling emotion and personality in a computer user interface
US6144938A (en) * 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
JP3514372B2 (ja) * 1999-06-04 2004-03-31 日本電気株式会社 マルチモーダル対話装置
JP2001100781A (ja) * 1999-09-30 2001-04-13 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
US6622119B1 (en) * 1999-10-30 2003-09-16 International Business Machines Corporation Adaptive command predictor and method for a natural language dialog system
JP3994368B2 (ja) * 2000-01-25 2007-10-17 ソニー株式会社 情報処理装置および情報処理方法、並びに記録媒体
JP3857047B2 (ja) * 2000-12-28 2006-12-13 富士通株式会社 音声対話システム及び音声対話方法
US7257537B2 (en) * 2001-01-12 2007-08-14 International Business Machines Corporation Method and apparatus for performing dialog management in a computer conversational interface
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
JP2002304188A (ja) * 2001-04-05 2002-10-18 Sony Corp 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
EP1282113B1 (en) * 2001-08-02 2005-01-12 Sony International (Europe) GmbH Method for detecting emotions from speech using speaker identification
US20030110038A1 (en) * 2001-10-16 2003-06-12 Rajeev Sharma Multi-modal gender classification using support vector machines (SVMs)
GB2388209C (en) * 2001-12-20 2005-08-23 Canon Kk Control apparatus
EP1326445B1 (en) * 2001-12-20 2008-01-23 Matsushita Electric Industrial Co., Ltd. Virtual television phone apparatus
US20040098265A1 (en) * 2002-11-05 2004-05-20 Sean Kelly Dialog management system
US7590941B2 (en) * 2003-10-09 2009-09-15 Hewlett-Packard Development Company, L.P. Communication and collaboration system using rich media environments
JP4562402B2 (ja) * 2004-02-20 2010-10-13 アルパイン株式会社 音声データの非同期通信システムおよびその通信方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073613A1 (ja) * 2012-11-08 2014-05-15 日本電気株式会社 会話文生成装置、会話文生成方法及び会話文生成プログラム
US9679553B2 (en) 2012-11-08 2017-06-13 Nec Corporation Conversation-sentence generation device, conversation-sentence generation method, and conversation-sentence generation program
JP2015014834A (ja) * 2013-07-03 2015-01-22 株式会社Lassic 機械対話による感情推定システム及びそのプログラム
CN110445826A (zh) * 2018-05-04 2019-11-12 阿里巴巴集团控股有限公司 一种会话信息获取方法、装置及服务器
JP2020149369A (ja) * 2019-03-13 2020-09-17 株式会社東芝 対話制御システム、対話制御方法及びプログラム
JP7055764B2 (ja) 2019-03-13 2022-04-18 株式会社東芝 対話制御システム、対話制御方法及びプログラム
WO2023181827A1 (ja) * 2022-03-22 2023-09-28 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
AU2004229094A1 (en) 2005-06-09
ZA200409338B (en) 2006-09-27
EP1533788A1 (en) 2005-05-25
US7676369B2 (en) 2010-03-09
CN1637740B (zh) 2012-03-28
CN1637740A (zh) 2005-07-13
US20050144013A1 (en) 2005-06-30

Similar Documents

Publication Publication Date Title
JP2005157494A (ja) 会話制御装置及び会話制御方法
US11545142B2 (en) Using context information with end-to-end models for speech recognition
US7949530B2 (en) Conversation controller
EP1489598B1 (en) Speech recognition
US7949531B2 (en) Conversation controller
US7949532B2 (en) Conversation controller
US9934785B1 (en) Identification of taste attributes from an audio signal
US11769488B2 (en) Meaning inference from speech audio
US10878808B1 (en) Speech processing dialog management
US8935163B2 (en) Automatic conversation system and conversation scenario editing device
JP2007114621A (ja) 会話制御装置
Furui Recent progress in corpus-based spontaneous speech recognition
US20240095987A1 (en) Content generation
US11582174B1 (en) Messaging content data storage
JP4475628B2 (ja) 会話制御装置、会話制御方法並びにこれらのプログラム
JP5196114B2 (ja) 音声認識装置およびプログラム
JP2005122549A (ja) 会話制御装置及び会話制御方法
JP4204043B2 (ja) ゲーム機、ゲームの実行方法、並びにプログラム
Wiggers Modelling context in automatic speech recognition
JP4204042B2 (ja) ゲーム機、ゲームの実行方法、並びにプログラム
JP4204041B2 (ja) ゲーム機、ゲームの実行方法、並びにプログラム
WO2024064522A1 (en) Content generation
JP2005099604A (ja) 会話制御装置、会話制御方法、およびゲームシステム
JP2005118371A (ja) ゲーム機

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080401