JP2005157494A - 会話制御装置及び会話制御方法 - Google Patents
会話制御装置及び会話制御方法 Download PDFInfo
- Publication number
- JP2005157494A JP2005157494A JP2003391305A JP2003391305A JP2005157494A JP 2005157494 A JP2005157494 A JP 2005157494A JP 2003391305 A JP2003391305 A JP 2003391305A JP 2003391305 A JP2003391305 A JP 2003391305A JP 2005157494 A JP2005157494 A JP 2005157494A
- Authority
- JP
- Japan
- Prior art keywords
- information
- topic
- conversation
- unit
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 43
- 230000004044 response Effects 0.000 claims abstract description 31
- 230000008451 emotion Effects 0.000 claims description 155
- 230000002996 emotional effect Effects 0.000 claims description 26
- 230000007613 environmental effect Effects 0.000 claims description 14
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000006243 chemical reaction Methods 0.000 abstract description 4
- 238000007726 management method Methods 0.000 description 30
- 235000013305 food Nutrition 0.000 description 29
- 238000003860 storage Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 230000008921 facial expression Effects 0.000 description 19
- 238000000605 extraction Methods 0.000 description 18
- 238000004458 analytical method Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 8
- 230000000295 complement effect Effects 0.000 description 7
- 230000001186 cumulative effect Effects 0.000 description 7
- 210000004709 eyebrow Anatomy 0.000 description 7
- 239000004973 liquid crystal related substance Substances 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 230000010365 information processing Effects 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 235000012054 meals Nutrition 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 241000251468 Actinopterygii Species 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 235000013372 meat Nutrition 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
【解決手段】 この会話制御装置は、複数の話題特定情報を記憶する会話データベースと、従前の会話及び従前の回答により定まる談話履歴を記憶し、この談話履歴により定まる話題特定情報と発話情報とを用いて回答文を選択する会話制御部と、環境認知情報を取得する環境認知部とを有しており、環境認知部は、取得した環境認知情報に基づきイベント情報を生成し、会話制御部は、イベント情報に基づいて回答文を選択する。
【選択図】 図1
Description
本発明の第1の態様は、ユーザからの発話に応答する回答を出力する会話制御装置として提案される。
この会話制御装置は、複数の話題特定情報を記憶する会話データベース手段(会話データベース)と、従前の会話及び従前の回答により定まる談話履歴を記憶し、この談話履歴により定まる話題特定情報と発話情報とを用いて回答文を選択する会話制御手段(会話制御部)と、環境認知情報を取得する環境認知手段(環境認知部)と、会話制御装置の演ずるキャラクタ及び話者の少なくとも一方の感情を示す感情状態情報を記憶し、更新する感情状態情報管理手段(感情状態情報管理部)とを有しており、環境認知手段は取得した環境認知情報に基づきイベント情報を生成し、感情状態情報管理手段はイベント情報に応じて感情状態情報を更新し、会話制御手段は、感情状態情報に基づいて回答文を選択する。
この会話制御方法は、複数の話題特定情報と、各話題特定情報について定められた1又は複数の話題タイトルと、各話題タイトルについて定められた一又は複数の回答文と、回答文に対応して定められたイベント情報フラグとを予め記憶させるステップと、会話制御装置外部の環境から環境認知情報を取得し、環境認知情報からイベント情報を生成するステップと、従前の会話及び従前の回答文により定まる談話履歴により定まる話題特定情報と発話情報とを照合して、当該話題特定情報のいずれかについて定められた話題タイトルのいずれかを取得し、その話題タイトルに対応する複数の回答文から前記イベント情報に応じたイベント情報フラグに対応する回答文を選択するステップとを有している。
この会話制御方法は、複数の話題特定情報と、各話題特定情報について定められた1又は複数の話題タイトルと、各話題タイトルについて定められた一又は複数の回答文とを予め記憶させるステップと、外部の環境から環境認知情報を取得し、環境認知情報からイベント情報を生成するステップと、キャラクタ及び話者の少なくとも一方の感情を示す感情状態情報を前記イベント情報に応じて更新するステップと、従前の会話及び従前の回答文により定まる談話履歴により定まる話題特定情報と発話情報とを照合して、当該話題特定情報のいずれかについて定められた話題タイトルのいずれかを取得し、その話題タイトルに対応する複数の回答文から前記イベント情報及び感情状態情報に応じた回答文を選択するステップとを有することを特徴とする。
図1に、本実施の形態にかかる会話制御装置の外観を示す斜視図である。
図示の会話制御装置1は、レストランなどのテーブル上に設置され、客(ユーザ)の質問や注文などに応答しつつ、客からのオーダーを取るレストラン向けテーブルオーダー端末装置である。
次に、会話制御装置1の内部構成について説明する。
[全体構成]
図2は、本実施の形態に係る会話制御装置1の構成例を示す機能ブロック図である。
入力部100は、3D指向マイク12A〜12Dに相当し、利用者から入力された入力情報を取得するものである。入力部100は、取得した発話内容に対応する音声を音声信号として音声認識部200に出力する。なお、入力部100が3D指向マイク12A〜12Dである場合には、入力部100は環境認知部800としても機能する。
音声認識部200は、入力部100で取得した発話内容に基づいて、発話内容に対応する文字列を特定するものである。具体的には、入力部100から音声信号が入力された音声認識部200は、入力された音声信号に基づいて、この音声信号を、音声認識辞書記憶部700に格納されている辞書および会話データベース500と照合して、音声信号から推測される音声認識結果を出力する。なお、図3に示す構成例では、音声認識部200は、会話制御部300に会話データベース500の記憶内容の取得を要求し、会話制御部300が要求に応じて取得した会話データベース500の記憶内容を受け取るようになっているが、音声認識部200が直接会話データベース500の記憶内容を取得して音声信号との比較を行う構成であってもかまわない。
図3に、音声認識部200の構成例を示す機能ブロック図を示す。音声認識部200は、特徴抽出部200Aと、バッファメモリ(BM)200Bと、単語照合部200Cと、バッファメモリ(BM)200Dと、候補決定部200Eと、単語仮説絞込部200Fを有している。単語照合部200C及び単語仮説絞込部200Fは音声認識辞書記憶部700に接続されており、候補決定部200Eは会話データベース500に接続されている。
例えば(i−1)番目の単語Wi-1の次に、音素列a1,a2,…,anからなるi番目の単語Wiがくるときに、単語Wi-1の単語仮説として6つの仮説Wa,Wb,Wc,Wd,We,Wfが存在しているとする。ここで、前者3つの単語仮説Wa,Wb,Wcの最終音素は/x/であるとし、後者3つの単語仮説Wd,We,Wfの最終音素は/y/であるとする。終了時刻teにおいて単語仮説Wa,Wb,Wcを前提とする3つの仮説と、単語仮説Wd,We,Wfを前提とする1の仮説が残っているものとすると、先頭音素環境が等しい前者3つ仮説のうち、総尤度が最も高い仮説一つを残し、その他を削除する。
以上の実施の形態において、特徴抽出部200Aと、単語照合部200Cと、候補決定部200Eと、単語仮説絞込部200Fとは、例えば、デジタル電子計算機などのコンピュータで構成され、バッファメモリ200B,200Dと、音声認識辞書記憶部700とは、例えばハードデイスクメモリなどの記憶装置で構成される。
Pass DPアルゴリズムを用いて統計的言語モデルを参照して単語の音声認識を行う音声認識部とで構成してもよい。
また、本実施の形態では、音声認識部200は会話制御装置1の一部分として説明するが、音声認識部200、音声認識辞書記憶部700、及び会話データベース500より構成される、独立した音声認識装置とすることも可能である。
つぎに図5を参照しながら音声認識部200の動作について説明する。図5は、音声認識部200の動作例を示すフロー図である。入力部100より音声信号を受け取ると、音声認識部200は入力された音声の特徴分析を行い、特徴パラメータを生成する(ステップS501)。次に、この特徴パラメータと音声認識辞書記憶部700に記憶された音素HMM及び言語モデルとを比較して、所定個数の単語仮説及びその尤度を取得する(ステップS502)。次に、音声認識部200は、取得した所定個数の単語仮説と検出した単語仮説と所定の談話空間内の話題特定情報とを比較し、検出した単語仮説の内、所定の談話空間内の話題特定情報と一致するものがあるか否かを判定する(ステップS503、S504)。一致するものがある場合は、音声認識部200はその一致する単語仮説を認識結果として出力する(ステップS505)。一方、一致するものがない場合は、音声認識部200は取得した単語仮説の尤度に従って、最大尤度を有する単語仮説を認識結果として出力する(ステップS506)。
再び、図2に戻って、会話制御装置1の構成例の説明を続ける。
音声認識辞書記憶部700は、標準的な音声信号に対応する文字列を格納するものである。この照合をした音声認識部200は、その音声信号に対応する単語仮説に対応する文字列を特定し、その特定した文字列を文字列信号として会話制御部300に出力する。
次に、図6を参照しながら文解析部400の構成例について説明する。図6は、会話制御装置1の部分拡大ブロック図であって、会話制御部300及び文解析部400の具体的構成例を示すブロック図である。なお、図6においては、会話制御部300、文解析部400、および会話データベース500のみ図示しており、その他の構成要素は表示を省略している。
形態素抽出部420は、文字列特定部410で区切られた一文節の文字列に基づいて、その一文節の文字列の中から、文字列の最小単位を構成する各形態素を第一形態素情報として抽出するものである。ここで、形態素とは、本実施の形態では、文字列に現された語構成の最小単位を意味するものとする。この語構成の最小単位としては、例えば、名詞、形容詞、動詞などの品詞が挙げられる。
入力種類判定部440は、文字列特定部410で特定された文字列に基づいて、発話内容の種類(発話種類)を判定するものである。この発話種類は、発話内容の種類を特定する情報であって、本実施の形態では、例えば図8に示す「発話文のタイプ」を意味する。図8は、「発話文のタイプ」と、その発話文のタイプを表す二文字のアルファベット、及びその発話文のタイプに該当する発話文の例を示す図である。
次に、会話データベース500が記憶するデータのデータ構成例について図10を参照しながら説明する。図10は、会話データベース500が記憶するデータの構成例を示す概念図である。
話題特定情報810「和食」には、複数の話題タイトル(820)1−1、1−2、…が対応付けされている。それぞれの話題タイトル(820)1−1,1−2,…には回答文(830)1−1,1−2、…が対応付けされて記憶されている。各回答文830は、回答種類、イベント情報フラグ840ごとに用意された複数の文で構成されている。
ここで図6に戻り、会話制御部300の構成例を説明する。
会話制御部300は、会話制御装置1内の各構成要素(音声認識部200,文解析部400、会話データベース500,出力部600,音声認識辞書記憶部700、環境認知部800、ユーザインタフェース制御部900)間のデータの受け渡しを制御するとともに、発話に応答する回答文の決定、出力を行う機能を有する。
[話題特定情報検索部]
話題特定情報検索部320は、形態素抽出部420で抽出された第一形態素情報と各話題特定情報とを照合し、各話題特定情報の中から、第一形態素情報を構成する形態素と一致する話題特定情報810を検索するものである。具体的に、話題特定情報検索部320は、形態素抽出部420から入力された第一形態素情報が「和食」及び「好き」の二つの形態素で構成される場合には、入力された第一形態素情報と話題特定情報群とを照合する。
省略文補完部330は、前記第一形態素情報を、前回までに検索された話題特定情報810(以下、「着目話題特定情報」)及び前回の回答文に含まれる話題特定情報810(以下、「回答文話題特定情報」という)を利用して、補完することにより複数種類の補完された第一形態素情報を生成する。例えば発話文が「好きだ」という文であった場合、省略文補完部330は、着目話題特定情報「和食」を、第一形態素情報「好き」に含めて、補完された第一形態素情報「和食、好き」を生成する。
話題検索部340は、省略文補完部330で話題タイトル820が決まらなかったとき、第一形態素情報と、利用者入力文話題特定情報に対応する各話題タイトル820とを照合し、各話題タイトル820の中から、第一形態素情報に最も適する話題タイトル810を検索するものである。
回答取得部350は、話題検索部340で検索された話題タイトル820に基づいて、その話題タイトル820に対応付けられた回答文830を取得する。また、回答取得部350は、話題検索部340で検索された話題タイトル820に基づいて、その話題タイトル820に対応付けられた各回答種類と入力種類判定部440で判定された発話種類とを照合し、かつ環境認知部800が出力したイベント情報と回答文830に対応付けられたイベント情報フラグ840とを照合して、発話種類及びイベント情報に合致する回答種類及びイベント情報フラグ840に対応する回答文の一つを選択する。
ここで、上記"DA"、"TA"等のうち、"A"は、肯定形式を意味する。従って、発話種類及び回答種類に"A"が含まれているときは、ある事柄について肯定することを示している。また、発話種類及び回答種類には、"DQ"、"TQ"等の種類を含めることもできる。この"DQ"、"TQ"等のうち"Q"は、ある事柄についての質問を意味する。
出力部600は、回答取得部350で取得された回答文を出力するものである。この出力部600は、例えば、スピーカ15L,15Rである。具体的に、管理部310から回答文が入力された出力部600は、入力された回答文に基づいて、音声をもってその回答文、例えば、「おいしい和食をいろいろ用意しています」を出力する。
図15に、図14に示すイベント情報フラグ840とは別の、イベント情報フラグ840の構成例を示す。図示のイベント情報フラグ840は、感情推定情報1501と、性別推定情報1502と、年齢(年代)推定情報1503と、話者推定情報1504とを有している。感情推定情報1501は、話者の顔の画像データ、音声データなどから推定により得られる話者の勘定を示す情報であり、性別推定情報1502は、話者の画像データ、音声データなどから推定により得られる話者の性別を示す情報であり、年齢(年代)推定情報1503は話者の画像データ、音声データなどから推定により得られる話者の年齢(年代)を示すデータで得あり、話者推定情報1504は、複数の話者がいる場合に、現在話している話者を特定する情報である。
図2に戻り、会話制御装置1の構成例の説明を続ける。
会話制御装置1は、環境認知部800を有している。図16に、環境認知部800の構成例を示す。図示の環境認知部800は、外部の情報である環境認知情報を取得するセンス部1601と、センス部1601から環境認知情報受け取り、これを分析・解析・解釈などの所定処理をすることによりイベント情報を生成し、出力するイベント管理部1602とを有している。
センス部1601から出力された話者の画像データを受け取ると、感情推定モジュール1606は、話者の画像データに基づいて、話者の顔器官(目、眉、口など)上に設定した特徴点から算出できる特徴量を抽出する特徴量抽出処理を行う(ステップS1701)。「特徴点」は、表情変化を十分に表せ、基本的な表情(怒り、嫌悪、恐怖、幸福、悲しみ、驚き、など)を識別できる、顔器官上に設定された点であって、例えば、眉の両端点及び中央点、左右の目の両端点、上下端点、唇の両端点、上下端点などである。「特徴量」はこれら特徴点から算出される量(たとえば距離)であって、眉の端点と目の端点の距離、唇の端点と目の高さとの距離などである。
次に、話者近接認識モジュール1610について説明する。話者近接認識モジュール1610は、センス部1601の赤外線センサ1604の検知可能領域を利用して、ある発話者が会話制御装置1に対して会話可能な距離に近づいたか否かを判定し、、これにより話者が会話を行うとしていることを推定する機能を有する。話者が赤外線センサ1604の検知可能領域にはいると、赤外線センサ1604(センス部1601)は、近接検知信号を環境認知情報として出力する。この環境認知情報である近接認知情報を受け取った話者近接認識モジュール1610は、イベント情報として話者近接通知情報を出力する。話者近接通知情報を受け取った会話制御部300は、話者との会話のきっかけとなるよう、例えば「いらっしゃいませ。」とか「ご注文はお決まりですか?」などの回答文の出力を行う。
上記構成を有する会話制御装置1は、以下のように動作することにより会話制御方法を実行する。図18は、本実施の形態に係る会話制御方法の手順を示すフロー図である。
先ず、入力部100が、利用者からの発話内容を取得するステップを行う(ステップS1801)。具体的には、入力部100は、利用者の発話内容を構成する音声を取得する。入力部100は、取得した音声を音声信号として音声認識部200に出力する。なお、入力部100は、利用者からの音声ではなく、利用者から入力された文字列(例えば、テキスト形式で入力された文字データ)を取得してもよい。この場合、入力部100はマイクではなく、キーボードやタッチパネルなどの文字入力装置となる。
この照合をした形態素抽出部420は、入力された文字列の中から、予め記憶された形態素群に含まれる各形態素と一致する各形態素(m1、m2、…)を抽出する。形態素抽出部420は、抽出した各形態素を第一形態素情報として話題特定情報検索部320に出力する。
第一形態素情報を構成する形態素と着目話題タイトル820focusとが一致する場合、話題特定情報検索部320は、その話題タイトル820を回答取得部350に出力する。一方、話題特定情報検索部320は、第一形態素情報を構成する形態素と話題タイトル820とが一致しなかった場合には、入力された第一形態素情報及び利用者入力文話題特定情報を検索命令信号として省略文補完部330に出力する。
次に、回答取得部350は、会話データベース500から、ステップS1809で特定した回答種類に対応する回答文830であって、かつステップS1810において参照したイベント情報と合致するイベント情報フラグ840に対応付けられた回答文830を取得する(ステップS1811)。
本実施の形態にかかる会話制御装置1及び会話制御方法は、ユーザの発話の内容だけでなく、環境認知部800から得られる情報(例えば、顔認識、感情推定、性別認識、年代認識、声紋認識、話者位置認識、など)に基づいて会話制御を行うので、会話がなされている状況に応じた回答を出力することが可能となり、また会話内容に幅が出来る。
次に、本発明の第2の実施の形態にかかる会話制御装置および会話制御方法について述べる。
第2の実施の形態にかかる会話制御装置および会話制御方法は、第2の実施の形態の特徴に加えて、会話制御装置が演じるキャラクタの感情及び/又は話者の感情を回答文に反映させることを特徴とする。
第2の実施の形態にかかる会話制御装置1’は、第1の実施の形態にかかる会話制御装置1と以下の点を除いて同様であるので、異なる点のみ説明し、同様な点については説明を省略する。
キャラクタ感情状態情報2000は、感情フラグ種類2001ごとに、累積値2002を有している。累積値2002は、各感情フラグごとに増減が可能である。例えば、感情状態情報管理部1900が「喜び」を示す感情フラグを受け取るごとに、感情フラグ種類「喜び」に対応する累積値2002の値がインクリメントされる。
話題特定情報810「和食」には、複数の話題タイトル(820)1−1、1−2、…が対応付けされている。それぞれの話題タイトル(820)1−1,1−2,…には回答文(830)1−1,1−2、…が対応付けされて記憶されている。各回答文830は、回答種類、イベント情報フラグ840、感情条件パラメータ850、感情フラグ860ごとに用意された複数の文で構成されている。
次に、本実施の形態にかかる会話制御装置1’の動作例を図23を参照しながら説明する。図23は、会話制御装置1’の動作によって行われる会話制御方法のフローチャートである。
本実施の形態にかかる会話制御装置1’および会話制御方法は、キャラクタの感情変化を反映させつつ、会話がなされている状況に即した適切な回答を出力することを可能とする、という利点を有する。
(1) 会話制御装置1、会話制御装置1’の音声認識部200、会話制御部300、文解析部400の構成及び動作は、第1の実施の形態において説明したものに限られず、会話データベース手段を利用して利用者の発話内容に応じた回答を返すものであれば、第1の実施の形態において説明したもの以外のどのような音声認識部200、会話制御部300、文解析部400であっても、本発明に係る会話制御装置1、会話制御装置1’の構成要素として使用可能である。
11 … 液晶表示部
12A〜D … 3D指向マイク
13 … CCDカメラ
14 … 赤外線センサ
15L,R … スピーカ
100 … 入力部
200 … 音声認識部
300 … 会話制御部
400 … 文解析部
500 … 会話データベース
600 … 出力部
700 … 音声認識辞書記憶部
800 … 環境認知部
900 … ユーザインターフェイス制御部
1900 … 感情状態情報管理部
Claims (4)
- ユーザからの発話に応答する回答を出力する会話制御装置において、
複数の話題特定情報を記憶する会話データベース手段と、従前の会話及び従前の回答により定まる談話履歴を記憶し、この談話履歴により定まる話題特定情報と発話情報とを用いて回答文を選択する会話制御手段と、環境認知情報を取得する環境認知手段とを有し、
前記環境認知手段は、取得した環境認知情報に基づきイベント情報を生成し、
前記会話制御手段は、イベント情報に基づいて回答文を選択する
ことを特徴とする会話制御装置。 - ユーザからの発話に応答する回答を出力する会話制御装置において、
複数の話題特定情報を記憶する会話データベース手段と、
従前の会話及び従前の回答により定まる談話履歴を記憶し、この談話履歴により定まる話題特定情報と発話情報とを用いて回答文を選択する会話制御手段と、
環境認知情報を取得する環境認知手段と、
会話制御装置の演ずるキャラクタ及び話者の少なくとも一方の感情を示す感情状態情報を記憶し、更新する感情状態情報管理手段と
を有し、
前記環境認知手段は、取得した環境認知情報に基づきイベント情報を生成し、
前記感情状態情報管理手段は、イベント情報に応じて感情状態情報を更新し、
前記会話制御手段は、感情状態情報に基づいて回答文を選択する
ことを特徴とする会話制御装置。 - ユーザからの発話に応答する回答を出力する会話制御方法において、
複数の話題特定情報と、各話題特定情報について定められた1又は複数の話題タイトルと、各話題タイトルについて定められた一又は複数の回答文と、回答文に対応して定められたイベント情報フラグとを予め記憶させるステップと、
外部の環境から環境認知情報を取得し、環境認知情報からイベント情報を生成するステップと
従前の会話及び従前の回答文により定まる談話履歴により定まる話題特定情報と発話情報とを照合して、当該話題特定情報のいずれかについて定められた話題タイトルのいずれかを取得し、その話題タイトルに対応する複数の回答文から前記イベント情報に応じたイベント情報フラグに対応する回答文を選択するステップと
を有することを特徴とする会話制御方法。 - ユーザからの発話に応答する回答を出力する会話制御方法において、
複数の話題特定情報と、各話題特定情報について定められた1又は複数の話題タイトルと、各話題タイトルについて定められた一又は複数の回答文とを予め記憶させるステップと、
外部の環境から環境認知情報を取得し、環境認知情報からイベント情報を生成するステップと、
キャラクタ及び話者の少なくとも一方の感情を示す感情状態情報を前記イベント情報に応じて更新するステップと、
従前の会話及び従前の回答文により定まる談話履歴により定まる話題特定情報と発話情報とを照合して、当該話題特定情報のいずれかについて定められた話題タイトルのいずれかを取得し、その話題タイトルに対応する複数の回答文から前記イベント情報及び感情状態情報に応じた回答文を選択するステップと
を有することを特徴とする会話制御方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003391305A JP2005157494A (ja) | 2003-11-20 | 2003-11-20 | 会話制御装置及び会話制御方法 |
AU2004229094A AU2004229094A1 (en) | 2003-11-20 | 2004-11-15 | Conversation control apparatus, and conversation control method |
EP04027344A EP1533788A1 (en) | 2003-11-20 | 2004-11-17 | Conversation control apparatus, and conversation control method |
US10/993,884 US7676369B2 (en) | 2003-11-20 | 2004-11-19 | Conversation control apparatus, conversation control method, and programs therefor |
ZA200409338A ZA200409338B (en) | 2003-11-20 | 2004-11-19 | Conversation control apparatus, and conversation control method |
CN200410091336XA CN1637740B (zh) | 2003-11-20 | 2004-11-19 | 对话控制设备和对话控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003391305A JP2005157494A (ja) | 2003-11-20 | 2003-11-20 | 会話制御装置及び会話制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005157494A true JP2005157494A (ja) | 2005-06-16 |
Family
ID=34431611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003391305A Pending JP2005157494A (ja) | 2003-11-20 | 2003-11-20 | 会話制御装置及び会話制御方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7676369B2 (ja) |
EP (1) | EP1533788A1 (ja) |
JP (1) | JP2005157494A (ja) |
CN (1) | CN1637740B (ja) |
AU (1) | AU2004229094A1 (ja) |
ZA (1) | ZA200409338B (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014073613A1 (ja) * | 2012-11-08 | 2014-05-15 | 日本電気株式会社 | 会話文生成装置、会話文生成方法及び会話文生成プログラム |
JP2015014834A (ja) * | 2013-07-03 | 2015-01-22 | 株式会社Lassic | 機械対話による感情推定システム及びそのプログラム |
CN110445826A (zh) * | 2018-05-04 | 2019-11-12 | 阿里巴巴集团控股有限公司 | 一种会话信息获取方法、装置及服务器 |
JP2020149369A (ja) * | 2019-03-13 | 2020-09-17 | 株式会社東芝 | 対話制御システム、対話制御方法及びプログラム |
WO2023181827A1 (ja) * | 2022-03-22 | 2023-09-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Families Citing this family (114)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8126713B2 (en) * | 2002-04-11 | 2012-02-28 | Shengyang Huang | Conversation control system and conversation control method |
US7398209B2 (en) * | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7693720B2 (en) * | 2002-07-15 | 2010-04-06 | Voicebox Technologies, Inc. | Mobile systems and methods for responding to natural language speech utterance |
CN1842787B (zh) * | 2004-10-08 | 2011-12-07 | 松下电器产业株式会社 | 对话支援装置 |
US20060143080A1 (en) * | 2004-12-29 | 2006-06-29 | Ashutosh Garg | Generating and/or serving dynamic promotional offers such as coupons and advertisements |
KR20060110787A (ko) * | 2005-04-20 | 2006-10-25 | 가부시키가이샤 소니 컴퓨터 엔터테인먼트 | 회화 지원 장치 |
US7640160B2 (en) | 2005-08-05 | 2009-12-29 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7620549B2 (en) | 2005-08-10 | 2009-11-17 | Voicebox Technologies, Inc. | System and method of supporting adaptive misrecognition in conversational speech |
US7949529B2 (en) | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
EP1934971A4 (en) | 2005-08-31 | 2010-10-27 | Voicebox Technologies Inc | DYNAMIC LANGUAGE SCRIPTURE |
JP4849662B2 (ja) * | 2005-10-21 | 2012-01-11 | 株式会社ユニバーサルエンターテインメント | 会話制御装置 |
JP4849663B2 (ja) * | 2005-10-21 | 2012-01-11 | 株式会社ユニバーサルエンターテインメント | 会話制御装置 |
JP4846336B2 (ja) * | 2005-10-21 | 2011-12-28 | 株式会社ユニバーサルエンターテインメント | 会話制御装置 |
JP2007114621A (ja) * | 2005-10-21 | 2007-05-10 | Aruze Corp | 会話制御装置 |
JP4635891B2 (ja) * | 2006-02-08 | 2011-02-23 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US8073681B2 (en) | 2006-10-16 | 2011-12-06 | Voicebox Technologies, Inc. | System and method for a cooperative conversational voice user interface |
US7818176B2 (en) | 2007-02-06 | 2010-10-19 | Voicebox Technologies, Inc. | System and method for selecting and presenting advertisements based on natural language processing of voice-based input |
US8965762B2 (en) * | 2007-02-16 | 2015-02-24 | Industrial Technology Research Institute | Bimodal emotion recognition method and system utilizing a support vector machine |
JP2008203559A (ja) * | 2007-02-20 | 2008-09-04 | Toshiba Corp | 対話装置及び方法 |
CN101266793B (zh) * | 2007-03-14 | 2011-02-02 | 财团法人工业技术研究院 | 通过对话回合间上下文关系来减少辨识错误的装置与方法 |
CN101071418B (zh) * | 2007-03-29 | 2010-06-23 | 腾讯科技(深圳)有限公司 | 聊天方法与系统 |
US8370145B2 (en) * | 2007-03-29 | 2013-02-05 | Panasonic Corporation | Device for extracting keywords in a conversation |
WO2009039867A1 (de) | 2007-09-20 | 2009-04-02 | Siemens Enterprise Communications Gmbh & Co. Kg | Verfahren und kommunikationsanordnung zum betreiben einer kommunikationsverbindung |
US8140335B2 (en) | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
WO2009122779A1 (ja) * | 2008-04-03 | 2009-10-08 | 日本電気株式会社 | テキストデータ処理装置、方法、プログラムが格納された記録媒体 |
US9305548B2 (en) | 2008-05-27 | 2016-04-05 | Voicebox Technologies Corporation | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
US8589161B2 (en) | 2008-05-27 | 2013-11-19 | Voicebox Technologies, Inc. | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
FR2935855B1 (fr) * | 2008-09-11 | 2010-09-17 | Alcatel Lucent | Procede et systeme de communication pour la determination d'une sequence de services lies a une conversation. |
US8326637B2 (en) | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
EP2299440B1 (en) * | 2009-09-11 | 2012-10-31 | Vodafone Holding GmbH | Method and Device for automatic recognition of given keywords and/or terms within voice data |
US9171541B2 (en) | 2009-11-10 | 2015-10-27 | Voicebox Technologies Corporation | System and method for hybrid processing in a natural language voice services environment |
WO2011059997A1 (en) | 2009-11-10 | 2011-05-19 | Voicebox Technologies, Inc. | System and method for providing a natural language content dedication service |
US8635066B2 (en) * | 2010-04-14 | 2014-01-21 | T-Mobile Usa, Inc. | Camera-assisted noise cancellation and speech recognition |
US20110276327A1 (en) * | 2010-05-06 | 2011-11-10 | Sony Ericsson Mobile Communications Ab | Voice-to-expressive text |
JP5867410B2 (ja) * | 2010-11-22 | 2016-02-24 | 日本電気株式会社 | 対話テキスト解析装置、方法およびプログラム |
JP5250066B2 (ja) * | 2011-03-04 | 2013-07-31 | 東芝テック株式会社 | 情報処理装置およびプログラム |
CN102737631A (zh) * | 2011-04-15 | 2012-10-17 | 富泰华工业(深圳)有限公司 | 互功式语音识别电子装置及方法 |
KR101878488B1 (ko) * | 2011-12-20 | 2018-08-20 | 한국전자통신연구원 | 대화 연관 컨텐츠 제공 방법 및 장치 |
US9144008B2 (en) | 2012-01-15 | 2015-09-22 | Google Inc. | Providing hotspots to user devices within server-controlled zones |
CN103456301B (zh) * | 2012-05-28 | 2019-02-12 | 中兴通讯股份有限公司 | 一种基于环境声音的场景识别方法及装置及移动终端 |
US9037481B2 (en) * | 2012-06-11 | 2015-05-19 | Hartford Fire Insurance Company | System and method for intelligent customer data analytics |
US9263044B1 (en) * | 2012-06-27 | 2016-02-16 | Amazon Technologies, Inc. | Noise reduction based on mouth area movement recognition |
US9691088B2 (en) | 2012-08-24 | 2017-06-27 | Google Inc. | Ordering ahead with a mobile device |
US8484017B1 (en) * | 2012-09-10 | 2013-07-09 | Google Inc. | Identifying media content |
US20140074466A1 (en) | 2012-09-10 | 2014-03-13 | Google Inc. | Answering questions using environmental context |
US9104838B2 (en) | 2012-11-14 | 2015-08-11 | Google Inc. | Client token storage for cross-site request forgery protection |
US10176252B2 (en) * | 2012-12-04 | 2019-01-08 | Ntt Docomo, Inc. | Information-processing device, server device, interaction system, and program |
KR20140079092A (ko) * | 2012-12-18 | 2014-06-26 | 한국전자통신연구원 | 음향그룹의 전이확률을 활용한 문맥독립 성별인식 방법 및 장치 |
KR102050897B1 (ko) * | 2013-02-07 | 2019-12-02 | 삼성전자주식회사 | 음성 대화 기능을 구비한 휴대 단말기 및 이의 음성 대화 방법 |
US9341479B2 (en) | 2013-03-05 | 2016-05-17 | Google Inc. | Configurable point of interest alerts |
US20140278403A1 (en) * | 2013-03-14 | 2014-09-18 | Toytalk, Inc. | Systems and methods for interactive synthetic character dialogue |
US9728184B2 (en) | 2013-06-18 | 2017-08-08 | Microsoft Technology Licensing, Llc | Restructuring deep neural network acoustic models |
US9589565B2 (en) * | 2013-06-21 | 2017-03-07 | Microsoft Technology Licensing, Llc | Environmentally aware dialog policies and response generation |
US9311298B2 (en) | 2013-06-21 | 2016-04-12 | Microsoft Technology Licensing, Llc | Building conversational understanding systems using a toolset |
US8755824B1 (en) | 2013-06-28 | 2014-06-17 | Google Inc. | Clustering geofence-based alerts for mobile devices |
KR20150031896A (ko) * | 2013-09-17 | 2015-03-25 | 한국전자통신연구원 | 음성인식장치 및 그 동작방법 |
CN105723360A (zh) * | 2013-09-25 | 2016-06-29 | 英特尔公司 | 利用情感调节改进自然语言交互 |
CN103544953B (zh) * | 2013-10-24 | 2016-01-20 | 哈尔滨师范大学 | 一种基于背景噪声最小统计量特征的声音环境识别方法 |
CN103577198B (zh) * | 2013-11-22 | 2017-05-31 | 中国联合网络通信集团有限公司 | 一种面向用户的物联网服务平台及远程控制方法 |
US9986375B2 (en) | 2014-02-12 | 2018-05-29 | Google Llc | Energy-efficient location determination |
US9529794B2 (en) | 2014-03-27 | 2016-12-27 | Microsoft Technology Licensing, Llc | Flexible schema for language model customization |
US10318123B2 (en) | 2014-03-31 | 2019-06-11 | Elwha Llc | Quantified-self machines, circuits and interfaces reflexively related to food fabricator machines and circuits |
US20150277397A1 (en) * | 2014-03-31 | 2015-10-01 | Elwha LLC, a limited liability company of the State of Delaware | Quantified-Self Machines and Circuits Reflexively Related to Food Fabricator Machines and Circuits |
US10127361B2 (en) | 2014-03-31 | 2018-11-13 | Elwha Llc | Quantified-self machines and circuits reflexively related to kiosk systems and associated food-and-nutrition machines and circuits |
US9922307B2 (en) | 2014-03-31 | 2018-03-20 | Elwha Llc | Quantified-self machines, circuits and interfaces reflexively related to food |
US20150279177A1 (en) * | 2014-03-31 | 2015-10-01 | Elwha LLC, a limited liability company of the State of Delaware | Quantified-self machines and circuits reflexively related to fabricator, big-data analytics and user interfaces, and supply machines and circuits |
US9614724B2 (en) | 2014-04-21 | 2017-04-04 | Microsoft Technology Licensing, Llc | Session-based device configuration |
US9520127B2 (en) | 2014-04-29 | 2016-12-13 | Microsoft Technology Licensing, Llc | Shared hidden layer combination for speech recognition systems |
US10111099B2 (en) | 2014-05-12 | 2018-10-23 | Microsoft Technology Licensing, Llc | Distributing content in managed wireless distribution networks |
US9874914B2 (en) | 2014-05-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Power management contracts for accessory devices |
US10037202B2 (en) | 2014-06-03 | 2018-07-31 | Microsoft Technology Licensing, Llc | Techniques to isolating a portion of an online computing service |
US9870500B2 (en) | 2014-06-11 | 2018-01-16 | At&T Intellectual Property I, L.P. | Sensor enhanced speech recognition |
US9717006B2 (en) | 2014-06-23 | 2017-07-25 | Microsoft Technology Licensing, Llc | Device quarantine in a wireless network |
WO2016044321A1 (en) | 2014-09-16 | 2016-03-24 | Min Tang | Integration of domain information into state transitions of a finite state transducer for natural language processing |
EP3195145A4 (en) | 2014-09-16 | 2018-01-24 | VoiceBox Technologies Corporation | Voice commerce |
US9747896B2 (en) | 2014-10-15 | 2017-08-29 | Voicebox Technologies Corporation | System and method for providing follow-up responses to prior natural language inputs of a user |
US20160128617A1 (en) * | 2014-11-10 | 2016-05-12 | Intel Corporation | Social cuing based on in-context observation |
US10431214B2 (en) | 2014-11-26 | 2019-10-01 | Voicebox Technologies Corporation | System and method of determining a domain and/or an action related to a natural language input |
US10614799B2 (en) | 2014-11-26 | 2020-04-07 | Voicebox Technologies Corporation | System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance |
KR101583181B1 (ko) * | 2015-01-19 | 2016-01-06 | 주식회사 엔씨소프트 | 응답 스티커 추천방법 및 컴퓨터 프로그램 |
EP3264258A4 (en) * | 2015-02-27 | 2018-08-15 | Sony Corporation | Information processing device, information processing method, and program |
CN105159979A (zh) * | 2015-08-27 | 2015-12-16 | 广东小天才科技有限公司 | 好友推荐方法及装置 |
CN106649405A (zh) * | 2015-11-04 | 2017-05-10 | 陈包容 | 一种获取聊天发起句的回复提示内容的方法及装置 |
CN106658441A (zh) * | 2015-11-04 | 2017-05-10 | 陈包容 | 一种快捷回复未读信息的方法及装置 |
CN106844378A (zh) * | 2015-12-04 | 2017-06-13 | 中国移动通信集团公司 | 一种应答方式确定方法和装置 |
CN105843382B (zh) * | 2016-03-18 | 2018-10-26 | 北京光年无限科技有限公司 | 一种人机交互方法及装置 |
US20170286755A1 (en) * | 2016-03-30 | 2017-10-05 | Microsoft Technology Licensing, Llc | Facebot |
US10573048B2 (en) * | 2016-07-25 | 2020-02-25 | Oath Inc. | Emotional reaction sharing |
US10331784B2 (en) | 2016-07-29 | 2019-06-25 | Voicebox Technologies Corporation | System and method of disambiguating natural language processing requests |
CN106250533B (zh) * | 2016-08-05 | 2020-06-02 | 北京光年无限科技有限公司 | 一种面向智能机器人的富媒体播放数据处理方法和装置 |
CN106297789B (zh) * | 2016-08-19 | 2020-01-14 | 北京光年无限科技有限公司 | 智能机器人的个性化交互方法及交互系统 |
JP6774018B2 (ja) * | 2016-09-15 | 2020-10-21 | 富士ゼロックス株式会社 | 対話装置 |
JP6715943B2 (ja) * | 2016-10-06 | 2020-07-01 | シャープ株式会社 | 対話装置、対話装置の制御方法、および制御プログラム |
CN107861961A (zh) * | 2016-11-14 | 2018-03-30 | 平安科技(深圳)有限公司 | 对话信息生成方法和装置 |
CN106599124A (zh) * | 2016-11-30 | 2017-04-26 | 竹间智能科技(上海)有限公司 | 主动引导用户持续对话的系统及方法 |
CN106776926A (zh) * | 2016-12-01 | 2017-05-31 | 竹间智能科技(上海)有限公司 | 改善机器人对话时的应答能力的方法及系统 |
US10558701B2 (en) * | 2017-02-08 | 2020-02-11 | International Business Machines Corporation | Method and system to recommend images in a social application |
KR102363794B1 (ko) * | 2017-03-31 | 2022-02-16 | 삼성전자주식회사 | 정보 제공 방법 및 이를 지원하는 전자 장치 |
CN110121706B (zh) * | 2017-10-13 | 2022-05-03 | 微软技术许可有限责任公司 | 提供会话中的响应 |
KR102348124B1 (ko) * | 2017-11-07 | 2022-01-07 | 현대자동차주식회사 | 차량의 기능 추천 장치 및 방법 |
CN110136719B (zh) * | 2018-02-02 | 2022-01-28 | 上海流利说信息技术有限公司 | 一种实现智能语音对话的方法、装置及系统 |
US10685358B2 (en) * | 2018-03-02 | 2020-06-16 | Capital One Services, Llc | Thoughtful gesture generation systems and methods |
US10678851B2 (en) | 2018-04-25 | 2020-06-09 | International Business Machines Corporation | Cognitive content display device |
US20190385711A1 (en) | 2018-06-19 | 2019-12-19 | Ellipsis Health, Inc. | Systems and methods for mental health assessment |
JP2021529382A (ja) | 2018-06-19 | 2021-10-28 | エリプシス・ヘルス・インコーポレイテッド | 精神的健康評価のためのシステム及び方法 |
JP6964558B2 (ja) * | 2018-06-22 | 2021-11-10 | 株式会社日立製作所 | 音声対話システムとモデル作成装置およびその方法 |
CN108986805B (zh) * | 2018-06-29 | 2019-11-08 | 百度在线网络技术(北京)有限公司 | 用于发送信息的方法和装置 |
CN109388699A (zh) * | 2018-10-24 | 2019-02-26 | 北京小米移动软件有限公司 | 输入方法、装置、设备及存储介质 |
CN109616116B (zh) * | 2019-01-10 | 2023-02-03 | 上海言通网络科技有限公司 | 通话系统及其通话方法 |
US20210402611A1 (en) * | 2019-02-25 | 2021-12-30 | Qbit Robotics Corporation | Information processing system and information processing method |
CN111930884A (zh) * | 2020-07-03 | 2020-11-13 | 华为技术有限公司 | 一种确定回复语句的方法、设备和人机对话系统 |
CN113761146A (zh) * | 2021-01-05 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 识别顾客情绪波动的方法和装置 |
CN113436625A (zh) * | 2021-06-25 | 2021-09-24 | 安徽淘云科技股份有限公司 | 一种人机交互方法及其相关设备 |
CN116484004B (zh) * | 2023-05-26 | 2024-06-07 | 大连理工大学 | 一种对话情绪识别分类方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09231225A (ja) * | 1996-02-26 | 1997-09-05 | Fuji Xerox Co Ltd | 言語情報処理装置 |
US5991726A (en) * | 1997-05-09 | 1999-11-23 | Immarco; Peter | Speech recognition devices |
JPH11119791A (ja) | 1997-10-20 | 1999-04-30 | Hitachi Ltd | 音声感情認識システムおよび方法 |
US6185534B1 (en) * | 1998-03-23 | 2001-02-06 | Microsoft Corporation | Modeling emotion and personality in a computer user interface |
US6144938A (en) * | 1998-05-01 | 2000-11-07 | Sun Microsystems, Inc. | Voice user interface with personality |
JP3514372B2 (ja) * | 1999-06-04 | 2004-03-31 | 日本電気株式会社 | マルチモーダル対話装置 |
JP2001100781A (ja) * | 1999-09-30 | 2001-04-13 | Sony Corp | 音声処理装置および音声処理方法、並びに記録媒体 |
US6622119B1 (en) * | 1999-10-30 | 2003-09-16 | International Business Machines Corporation | Adaptive command predictor and method for a natural language dialog system |
JP3994368B2 (ja) * | 2000-01-25 | 2007-10-17 | ソニー株式会社 | 情報処理装置および情報処理方法、並びに記録媒体 |
JP3857047B2 (ja) * | 2000-12-28 | 2006-12-13 | 富士通株式会社 | 音声対話システム及び音声対話方法 |
US7257537B2 (en) * | 2001-01-12 | 2007-08-14 | International Business Machines Corporation | Method and apparatus for performing dialog management in a computer conversational interface |
US6964023B2 (en) * | 2001-02-05 | 2005-11-08 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
JP2002304188A (ja) * | 2001-04-05 | 2002-10-18 | Sony Corp | 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体 |
EP1282113B1 (en) * | 2001-08-02 | 2005-01-12 | Sony International (Europe) GmbH | Method for detecting emotions from speech using speaker identification |
US20030110038A1 (en) * | 2001-10-16 | 2003-06-12 | Rajeev Sharma | Multi-modal gender classification using support vector machines (SVMs) |
GB2388209C (en) * | 2001-12-20 | 2005-08-23 | Canon Kk | Control apparatus |
EP1326445B1 (en) * | 2001-12-20 | 2008-01-23 | Matsushita Electric Industrial Co., Ltd. | Virtual television phone apparatus |
US20040098265A1 (en) * | 2002-11-05 | 2004-05-20 | Sean Kelly | Dialog management system |
US7590941B2 (en) * | 2003-10-09 | 2009-09-15 | Hewlett-Packard Development Company, L.P. | Communication and collaboration system using rich media environments |
JP4562402B2 (ja) * | 2004-02-20 | 2010-10-13 | アルパイン株式会社 | 音声データの非同期通信システムおよびその通信方法 |
-
2003
- 2003-11-20 JP JP2003391305A patent/JP2005157494A/ja active Pending
-
2004
- 2004-11-15 AU AU2004229094A patent/AU2004229094A1/en not_active Abandoned
- 2004-11-17 EP EP04027344A patent/EP1533788A1/en not_active Ceased
- 2004-11-19 CN CN200410091336XA patent/CN1637740B/zh active Active
- 2004-11-19 ZA ZA200409338A patent/ZA200409338B/xx unknown
- 2004-11-19 US US10/993,884 patent/US7676369B2/en active Active
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014073613A1 (ja) * | 2012-11-08 | 2014-05-15 | 日本電気株式会社 | 会話文生成装置、会話文生成方法及び会話文生成プログラム |
US9679553B2 (en) | 2012-11-08 | 2017-06-13 | Nec Corporation | Conversation-sentence generation device, conversation-sentence generation method, and conversation-sentence generation program |
JP2015014834A (ja) * | 2013-07-03 | 2015-01-22 | 株式会社Lassic | 機械対話による感情推定システム及びそのプログラム |
CN110445826A (zh) * | 2018-05-04 | 2019-11-12 | 阿里巴巴集团控股有限公司 | 一种会话信息获取方法、装置及服务器 |
JP2020149369A (ja) * | 2019-03-13 | 2020-09-17 | 株式会社東芝 | 対話制御システム、対話制御方法及びプログラム |
JP7055764B2 (ja) | 2019-03-13 | 2022-04-18 | 株式会社東芝 | 対話制御システム、対話制御方法及びプログラム |
WO2023181827A1 (ja) * | 2022-03-22 | 2023-09-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
AU2004229094A1 (en) | 2005-06-09 |
ZA200409338B (en) | 2006-09-27 |
EP1533788A1 (en) | 2005-05-25 |
US7676369B2 (en) | 2010-03-09 |
CN1637740B (zh) | 2012-03-28 |
CN1637740A (zh) | 2005-07-13 |
US20050144013A1 (en) | 2005-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005157494A (ja) | 会話制御装置及び会話制御方法 | |
US11545142B2 (en) | Using context information with end-to-end models for speech recognition | |
US7949530B2 (en) | Conversation controller | |
EP1489598B1 (en) | Speech recognition | |
US7949531B2 (en) | Conversation controller | |
US7949532B2 (en) | Conversation controller | |
US9934785B1 (en) | Identification of taste attributes from an audio signal | |
US11769488B2 (en) | Meaning inference from speech audio | |
US10878808B1 (en) | Speech processing dialog management | |
US8935163B2 (en) | Automatic conversation system and conversation scenario editing device | |
JP2007114621A (ja) | 会話制御装置 | |
Furui | Recent progress in corpus-based spontaneous speech recognition | |
US20240095987A1 (en) | Content generation | |
US11582174B1 (en) | Messaging content data storage | |
JP4475628B2 (ja) | 会話制御装置、会話制御方法並びにこれらのプログラム | |
JP5196114B2 (ja) | 音声認識装置およびプログラム | |
JP2005122549A (ja) | 会話制御装置及び会話制御方法 | |
JP4204043B2 (ja) | ゲーム機、ゲームの実行方法、並びにプログラム | |
Wiggers | Modelling context in automatic speech recognition | |
JP4204042B2 (ja) | ゲーム機、ゲームの実行方法、並びにプログラム | |
JP4204041B2 (ja) | ゲーム機、ゲームの実行方法、並びにプログラム | |
WO2024064522A1 (en) | Content generation | |
JP2005099604A (ja) | 会話制御装置、会話制御方法、およびゲームシステム | |
JP2005118371A (ja) | ゲーム機 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060821 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080314 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080401 |