JP2001273473A - 会話用エージェントおよびそれを用いる会話システム - Google Patents

会話用エージェントおよびそれを用いる会話システム

Info

Publication number
JP2001273473A
JP2001273473A JP2000083986A JP2000083986A JP2001273473A JP 2001273473 A JP2001273473 A JP 2001273473A JP 2000083986 A JP2000083986 A JP 2000083986A JP 2000083986 A JP2000083986 A JP 2000083986A JP 2001273473 A JP2001273473 A JP 2001273473A
Authority
JP
Japan
Prior art keywords
conversation
word
agent
spoken
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000083986A
Other languages
English (en)
Inventor
Michio Okada
美智男 岡田
Noriko Suzuki
紀子 鈴木
Shoji Sakamoto
彰司 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Media Integration and Communication Research Laboratories
Original Assignee
ATR Media Integration and Communication Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Media Integration and Communication Research Laboratories filed Critical ATR Media Integration and Communication Research Laboratories
Priority to JP2000083986A priority Critical patent/JP2001273473A/ja
Publication of JP2001273473A publication Critical patent/JP2001273473A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【構成】 エージェント制御装置10は、コンピュータ
12を含み、コンピュータ12のCPU14はエージェ
ントを制御するためのプログラムを実行する。たとえ
ば、ディスプレイ32にはエージェントを表すCGキャ
ラクタが表示される。また、CPU14の指示に従って
所定のルールで記述された複数の言葉からエージェント
が発話すべき言葉が選択され、エージェントの声でスピ
ーカ32から出力される。たとえば、CPU14は、エ
ージェントが発話した言葉の投機的要素とその発話に対
してマイク28を介して入力された他者の言葉のグラウ
ンディング要素とに基づいて次に発話する言葉を選択す
る。次に発話する言葉は、相手が発話した言葉の要素を
含むため、連鎖的に会話を続けることができる。 【効果】 雑談的に連鎖する会話を実現できる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は会話用エージェントに
関し、特にたとえば自由会話可能な会話システムなどに
適用できる、会話用エージェントおよびそれを用いる会
話システムに関する。
【0002】ここで、エージェントとは、コンピュータ
グラフィックスの手法によりディスプレイなどの表示装
置に表示されるキャラクタ(クリーチャ)またはロボッ
トをいう。
【0003】
【従来の技術】従来のエージェントを用いた会話システ
ムとしては、システムとオペレータとが1対1で会話を
進行させるものが存在していた。基本的には、システム
とオペレータとが交互に発話し、たとえば、システムの
質問に対してオペレータが応え、逆にオペレータの質問
に対してシステムが応えていた。つまり、この会話シス
テムでは、質問と応答とによって、オペレータに対して
所定の情報を提供することが可能であった。
【0004】
【発明が解決しようとする課題】しかし、この従来技術
では、オペレータはシステムに対して質問し、またシス
テムの質問に対して返答する必要があり、つまり常に会
話に参加しなければならず、他の作業と同時進行するこ
とが困難であった。また、質問や応答などの発話をやり
取りするため、オペレータの問題解決を実行するような
非対称な会話であり、したがって雑談のように連鎖的に
発話するような枠組みではなかった。つまり、面白みに
欠けていた。さらに、オペレータおよびシステムのそれ
ぞれが発話する言葉は、それぞれ意味が完結しており、
発話する言葉の意味を相手に委ねることができなかっ
た。言い換えると、発話する言葉が一方的に相手に与え
られていた。さらにまた、この従来技術では、1対1の
会話を前提としているため、複数人の参加を許容できな
いものであった。
【0005】それゆえに、この発明の主たる目的は、連
鎖的な会話を実現でき、しかも多人数での会話を実現で
きる、新規な会話用エージェントを提供することであ
る。
【0006】この発明の他の目的は、そのような会話用
エージェントを用いる、自由会話可能な会話システムを
提供することである。
【0007】
【課題を解決するための手段】この発明に従った会話用
エージェントは、発話すべき複数の言葉を保持する保持
手段、発話に対する他者の発話との関連性の有無を判別
する判別手段、判別結果に応じて現認知状況を更新する
更新手段、現認知状況に基づいて発すべき言葉を選択す
る選択手段、および選択手段で選択された言葉を出力す
る出力手段を備える。
【0008】この発明に従った会話システムは、複数の
このような会話用エージェントを用いる。
【0009】
【作用】この会話用エージェントは、たとえばクリーチ
ャやロボットなどのエージェントであり、それらが発す
べき複数の言葉が保持手段に保持される。判別手段は、
エージェントが発話した言葉に対して発話された他者の
言葉との関連性の有無を判別する。たとえば、エージェ
ントが投げかけた質問に対して同意や意見を示した場合
には、関連性があると判別し、また質問に対して全く関
係のない言葉を発話したり、無視した場合には、関連性
がないと判別する。更新手段は、判別手段の判別結果に
応じて現認知状況を更新する。ここで、認知状況とは、
自分が発した言葉に対して発話された相手の言葉から自
分が発話した言葉の意味や役割を認識し、次に発話する
言葉を確定するための可能性(条件)をいう。したがっ
て、選択手段では、現認知状況に基づいて、相手が発し
た言葉に対して連鎖する1つの言葉を複数の言葉から選
択することができる。選択された1つの言葉が、たとえ
ばスピーカのような出力手段から出力されるので、これ
に応じて人間や他の会話用エージェントが発話すること
ができる。つまり、複数のエージェントを用いれば、自
由会話可能な会話システムが構成できる。
【0010】たとえば、更新手段は、判別結果が相関性
ありを示すとき、現認知状況を更新し、判別結果が相関
性なしを示すとき、現認知状況を更新しない。このよう
に、関連性がある場合にのみ、認知状況を更新するの
で、1つの話題について会話を続けることができる。
【0011】また、現認知状況は、エージェントが発話
した言葉の投機的要素とその発話に対して発話された相
手の言葉のグラウンディング要素とに基づいて決定され
る。このようなルールに従って現認知状況を更新し、連
鎖的な会話を実現できる。
【0012】
【発明の効果】この発明によれば、現認知状況に基づい
て次に発すべき言葉を選択するので、雑談のような連鎖
的な会話を実現することができる。また、このような会
話用エージェントを複数集めれば、エージェント同士で
会話させることができ、しかもその会話の場にオペレー
タ等の人間が自由に出入りすることができる。つまり、
多人数での会話を実現できる。
【0013】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
【0014】
【実施例】図1を参照して、この実施例のエージェント
制御装置10は、パーソナルコンピュータやワークステ
ーションのようなコンピュータ12を含む。コンピュー
タ12にはCPU14が設けられ、CPU14は内部バ
ス(以下、単に「バス」という。)16を介して、音声
合成回路18、画像生成回路20、音声認識回路22、
RAM24およびハードディスク(HD)26に連なっ
ている。
【0015】なお、この明細書では、画面に表示される
後述のトーキングアイや知能ロボットだけでエージェン
トと呼ぶ場合があるが、それらとエージェント制御装置
10とをあわせたものをエージェントと呼ぶこともあ
る。
【0016】エージェント制御装置10はまた、マイク
28、ディスプレイ30およびスピーカ32を含む。マ
イク28は、インターフェイス(図示せず)を介して音
声認識回路22に接続される。また、ディスプレイ30
は、インターフェイス(図示せず)を介して画像生成回
路20に接続される。さらに、スピーカ32はインター
フェイス(図示せず)を介して音声合成回路18に接続
される。
【0017】音声合成回路18は、CPU14の指示に
従ってRAM24から読み出された音声合成データに基
づいて、エージェントが発する言葉をスピーカ32から
出力する。したがって、エージェントが発した言葉がエ
ージェント制御装置10の周辺に存在するオペレータ等
の人間(以下、単に「オペレータ等」という。)に聞こ
える。
【0018】ただし、スピーカ32からだけでなく、デ
ィスプレイ30に表示させる場合は、吹き出し(バルー
ン)で表示すればよい。
【0019】画像生成回路20は、CPU14の指示に
従ってRAM24から読み出されたエージェントのキャ
ラクタデータをコンピュータグラフィックス(CG)の
手法でディスプレイ30に表示するためのデータに変換
して出力する。したがって、エージェントのCGキャラ
クタ(クリーチャ)がディスプレイ30に表示される。
【0020】音声認識回路22は、マイク28を介して
入力されるオペレータ等の音声(言葉)を認識し、認識
した言葉をCPU14に知らせる。具体的には、音声認
識回路22は、RAM24に書き込まれた音声認識用の
辞書データ(音声認識データ)を参照して、入力された
言葉をたとえばDPマッチング法により特定する。な
お、HMM(Hidden Markov Model:隠れマルコフモデ
ル)による方法で、入力された言葉を認識するようにし
てもよい。
【0021】HD26は、メモリエリア26a〜26e
を含み、メモリエリア26aにはエージェントを制御す
るためのプログラムが記憶される。また、メモリエリア
26bには、画像ファイルおよび音声ファイルを含む。
画像ファイルは、エージェントのCGキャラクタをディ
スプレイ30に表示するための複数のキャラクタデータ
を含む。また、音声ファイルは、エージェントが発話す
る言葉に対応する複数の音声合成データを含む。
【0022】さらに、メモリエリア26cには、所定の
取り決め(ルール)で記述された複数の言葉に対応する
データの一覧が記憶される。なお、この複数の言葉は、
エージェントが発すべき言葉である。たとえば、このよ
うなデータの一覧は、図2のように示され、A、B、C
という条件下では、Zで定義される言葉が選択される。
また、B、C、Dという条件下では、Yで定義される言
葉が選択される。
【0023】なお、図2に示すデータの一覧は、例示し
たに過ぎず、これに限定されるものではない。つまり、
さらに多数の言葉を定義することができ、また異なるル
ールで言葉を定義することも可能である。また、このよ
うなデータの一覧はテーブルを用いて表示してもよく、
さらに所定の関数を用意しておき、上述のような条件を
当てはめて1つの言葉を決定(選択)できるようにして
もよい。
【0024】さらにまた、メモリエリア26dには上述
したような音声認識データが記憶される。なお、音声認
識データは、複数の老若男女が発する複数の言葉を予め
記録したものである。また、メモリエリア26eには、
エージェントの認知状況が記憶される。ここで、認知状
況とは、自分が発した言葉に対して発話された相手の言
葉から自分が発話した言葉の意味や役割を認識し、次に
発話する言葉を確定するための可能性(条件)をいう。
この認知状況は、プログラマによって初期設定されてお
り、エージェントがコミュニケーションする毎に更新さ
れる。したがって、1つの話題について連鎖的な会話が
可能である。
【0025】ここで、一般的な会話の形態について分か
り易く説明する。図3には、会話の形態が時系列に従っ
て模式的に示される。また、人物Aと人物Bとが会話
し、人物Aが先に発話した場合について示している。図
3では、人物Aおよび人物Bのそれぞれが発話した言葉
は、模式的にタグT1〜T4で示してある。タグT1〜
T4は、発話する直前の人物Aまたは人物Bの認知状況
N1〜N4に基づいて決定される。たとえば、人物Aは
現時点での認知状況N1に基づいてタグT1で示す言葉
を発する。これに応じて、人物Bが現時点での認知状況
N2に基づいてタグT2で示す言葉を発する。すると、
タグT1で示す言葉の意味や役割は、タグT2で示す言
葉が発せられて初めて確定される。
【0026】具体的には、発話された言葉(タグ)に
は、前向きの要素(投機的要素)および後ろ向きの要素
(グラウンディング要素)の2つの要素が含まれる。こ
こで、投機的な要素とは、自分の判断や依頼などを表明
する要素をいい、グラウンディング要素とは、他者の発
話に関連させて、他者の発話に対する了解や疑問などを
示す要素をいう。
【0027】つまり、人物Aの現時点での認知状況N3
は、タグT1の投機的要素、タグT2のグラウンディ
ング的要素およびタグT1を発話した時の認知状況N
1()で決定される。一方、人物Bの現時点での認知
状況N4は、タグT2の投機的要素、タグT3のグラ
ウンディング的要素およびタグT2を発話したときの
認知状況N2()で決定される。
【0028】この実施例では、図2に示したようなデー
タの一覧においては、矢印の左側の3つのアルファベッ
トが現時点での認知状況を示している。たとえば、認知
状況(A B C)について説明すると、アルファベッ
トAが自分が発した言葉の投機的要素に相当し、アルフ
ァベットBが自分が発した言葉に対する相手の言葉のグ
ラウンディング的要素に相当し、アルファベットCが自
分が言葉を発したときの認知状況すなわち更新前の認知
状況に相当する。つまり、このような3つの要素(条
件)が確定すると、現時点での認知状況が確定し、その
3つの条件に対応する(図2の矢印の右側の)アルファ
ベットZで定義される言葉が決定(選択)され、次の言
葉が発せられる。
【0029】なお、認知状況(A B C)についての
み説明したが、他の認知状況についても同様である。
【0030】つまり、このようなデータの一覧を用いて
エージェントが発話する言葉を選択すれば、エージェン
トとオペレータ等との間で連鎖的な会話を実行すること
ができる。
【0031】たとえば、図4に示すように、エージェン
ト制御装置10を配置し、主電源をオンすると、CPU
14がHD26のメモリエリア26aからエージェント
(この実施例では、トーキングアイ60)を制御するた
めのプログラムを読み出し、RAM24のワーキングエ
リア24aに書き込む。なお、トーキングアイ60は、
発明者が独自に考案したCGキャラクタ(クリーチャ)
のことである。このトーキングアイ60については、1
997年にシステム/制御/情報学会の学会誌Vol.41,N
o.8,pp.1-7で発表された「『マルチエージェント技術の
最近の展開』特集号」に詳細に示されている。そして、
プログラムが起動(ロード)されると、CPU14は図
5および図6に示すフロー図に従って処理する。
【0032】まず、ステップS1では、CPU14は、
HD26のメモリエリア26bに記憶されたトーキング
アイ60の画像ファイルおよび音声ファイルを読み出
し、RAM24のワーキングエリア24bに書き込む。
次に、ステップS3で、CPU14は、HD26のメモ
リエリア26cに記憶されたエージェントが発話する言
葉を決定するためのデータの一覧を読み出し、RAM2
4のワーキングエリア24cに書き込む。そして、CP
U14は、ステップS5で、HD26のメモリエリア2
6dに記憶された音声認識データを読み出し、RAM2
4のワーキングエリア24dに書き込む。さらに、ステ
ップS7では、CPU14は、HD26のメモリエリア
26eに記憶された認知状況を読み出し、RAM24の
ワーキングエリア24eに書き込む。
【0033】続いて、ステップS9で、CPU14は、
トーキングアイ60のキャラクタデータを例えば乱数で
選択し、選択したキャラクタデータをワーキングエリア
24bから読み出し、画像生成回路20に与える。した
がって、図4で示したようなトーキングアイ60がディ
スプレイ30に表示される。なお、これ以降の処理にお
いては、CPU14は、別のルーチンでトーキングアイ
60の表示を更新(制御)する。たとえば、所定時間毎
に乱数でキャラクタデータを選択するようにしてもよ
く、意図的に作成されたプログラムに従ってキャラクタ
データを選択するようにしてもよい。
【0034】ステップS11では、CPU14は他者の
発話があるかどうかを判断する。具体的には、マイク2
8を介してオペレータ等が音声を入力したかどうかを判
断する。ステップS11で“NO”であれば、つまり音
声が入力されなければ、そのまま同じステップS11に
戻る。一方、ステップS11で“YES”であれば、つ
まり音声が入力されれば、ステップS13で音声認識回
路22を制御して入力された言葉を認識する。つまり、
音声認識回路22がRAM24のワーキングエリア24
dに書き込まれた音声認識データを参照して、上述した
ようなDPマッチング法で入力された言葉を特定し、C
PU14に知らせる。
【0035】したがって、CPU14は、他者が発話し
た言葉を認識すると、その(先行する)他者の発話に対
する現時点での自分(トーキングアイ60)の関心度を
認知度に基づいて決定する。ここで、関心度とは、現在
行われている会話に対する関心度をいう。また、認知度
は、認知状況に基づいて特別のルールで決定される。そ
して、ステップS17では、決定された関心度に基づい
て会話に参加するかどうかを判断する。つまり、関心度
に基づいて先行する発話に対して返答するか無視するか
を判断する。ステップS17で“NO”であれば、つま
り関心度が低ければ、会話に参加せずに、そのままステ
ップS11に戻って、再度オペレータ等が発話するのを
待つ。
【0036】一方、ステップS17で“YES”であれ
ば、つまり関心度が高ければ、会話に参加し、ステップ
S19でRAM24のワーキングエリア24eに書き込
まれた現時点での認知状況に基づいて投機的要素および
グラウンディング要素を満たす言葉を選択する。具体的
には、現在の認知状況をワーキングエリア24eから検
出し、この認知状況と自分が発話した言葉の投機的要素
と自分が発話した言葉に対して相手が発話した言葉のグ
ラウンディング的要素との3つの情報(条件)を満たす
言葉をワーキングエリア24cに書き込まれたデータの
一覧から選択する。
【0037】発話する言葉を選択すると、CPU14
は、ステップS21でその言葉に対応する音声合成デー
タをワーキングエリア24bから読み出し、音声合成回
路18に与える。したがって、発話する言葉の音声信号
がスピーカ32から出力される。つまり、トーキングア
イ60の声で言葉が発せられる。
【0038】次にCPU14は、トーキングアイ60が
発話した言葉に対して返答があるかどうかを判断する。
ステップS23で" NO" であれば、つまり返答がなけ
れば、同じステップS23に戻る。一方、ステップS2
3で" YES" であれば、つまり返答があれば、ステッ
プS25で音声認識回路22を制御して、マイク28か
ら入力された言葉を認識(特定)する。続くステップS
27では、自分(トーキングアイ60)が発話した言葉
とオペレータ等が発話した言葉との関連性を検出する。
【0039】ステップS29では、検出した結果から関
連性があるかどうかを判断する。たとえば、自分が発話
した言葉に対して同意や意見を述べている場合には、関
連性があると言える。一方、全く異なる意見を述べた場
合や話題に対して無関心な言葉を述べた場合には、関連
性がないと言える。
【0040】したがって、ステップS29で" YES"
であれば、つまり関連性があれば、ステップS31でワ
ーキングエリア24e内の認知状況を更新してからステ
ップS15に戻るが、関連性がない場合には、認知状況
を更新せずに、そのままステップS15に戻る。
【0041】この実施例によれば、エージェントが発す
る言葉を投機的要素とグラウンディング要素とを含む現
在の認知状況に基づいて選択するので、人間との間で雑
談のような連鎖的な会話を実現することができる。
【0042】なお、この実施例では、単なる雑談的な会
話について説明したが、たとえば、エージェントと人間
とがコンビを組んで、ぼけやつっこみのような言葉を互
いに発することによって漫才を実現することも可能であ
る。
【0043】また、この実施例では、オペレータ等が発
話した言葉のみをグラウンディング要素としたが、オペ
レータ等の身振り、手振りおよび目線の動きなどもグラ
ウンディング要素とすることができる。
【0044】たとえば、エージェントが質問を投げかけ
た場合には、それに対してオペレータ等は首を縦に振っ
たり、横に振ったりして、同意や反対を示すことができ
る。また、目線の向きによって、質問に対しての注目度
すなわち無視しているかどうかを判断することもでき
る。このように、オペレータ等の身振り、手振りおよび
目線の動きなどをグラウンディング要素に追加する場合
には、さらにカラーカメラおよび動画像認識回路を設け
る必要がある。つまり、動画像認識回路がコンピュータ
12内に設けられ、インターフェイスを介してコンピュ
ータ12にカラーカメラが接続される。また、動画像認
識回路はバス16を介してCPU14に接続される。し
たがって、カラーカメラで撮影された映像信号が動画像
認識回路に取り込まれ、動画像認識回路が映像信号に基
づいてオペレータ等の身振り、手振りおよび目線の動き
を認識し、認識した結果がCPU14に知らされる。
【0045】また、トーキングアイ60についても同様
のことが言える。つまり、図2のデータの一覧におい
て、現時点での認知状況から選択される言葉に対応する
キャラクタデータを割り当てておけば、トーキングアイ
60が言葉を発するときに、その表示を更新することが
できる。つまり、トーキングアイ60の動きや目線を変
えることにより、その動きや目線をオペレータ等が発し
た言葉に対するグラウンディング要素に追加することが
できる。
【0046】図7に示す他の実施例のエージェント制御
装置10は、エージェントとしてのロボットを制御する
以外は図1実施例と同じであるため、重複した説明は省
略する。
【0047】このようなエージェントとしてのロボット
には、図8(A)および(B)に示すような知能ロボッ
ト70を適用することができる。なお、この知能ロボッ
ト70は、本願発明者等が先に出願した特願平11−3
08160号に詳細に開示されている。また、図8
(A)が知能ロボット70の正面図であり、図8(B)
が知能ロボット70の側面図である。この知能ロボット
70に図7に示すようなコンピュータ12を搭載すれ
ば、知能ロボット70はエージェントとして制御され
る。なお、図7に示すエージェント制御装置10では、
図1実施例で示した画像生成回路20が削除され、その
画像生成回路20に接続されるディスプレイ30も削除
される。
【0048】図7に示すように、知能ロボット70を制
御するためのエージェント制御装置10では、コンピュ
ータ12には、移動モータ駆動回路34、俯仰モータ駆
動回路36および旋回モータ駆動回路38が接続され
る。この移動モータ駆動回路34、俯仰モータ駆動回路
36および旋回モータ駆動回路38は、コンピュータ1
2すなわちCPU14の指示に従ってそれぞれに対応し
て設けられた移動モータ40、俯仰モータ42および旋
回モータ44を必要なタイミングで必要な駆動量(回転
方向および回転量を含む)で駆動する。なお、移動モー
タ40が駆動されると知能ロボット70自体が移動さ
れ、俯仰モータ42や旋回モータ44が駆動されると、
後述するカラーカメラ48が上下または左右に向きを変
えられる。
【0049】また、コンピュータ12には接触センサ4
6およびカラーカメラ48が接続される。接触センサ4
6はインターフェイス(図示せず)を介してバス16と
接続される。また、接触センサ46はたとえば知能ロボ
ット70の表面に設けられたリミットスイッチであり、
オペレータ等が知能ロボット70の表面を触ったことを
検知できる。その検知信号がインターフェイスおよびバ
ス16を介してCPU14に与えられ、CPU14は作
動したセンサを検知できる。カラーカメラ48は、イン
ターフェイス(図示せず)を介して動画像認識回路50
に接続され、動画像認識回路50はバス16を介してC
PU14と接続される。つまり、カラーカメラ48から
の映像信号がインターフェイスを介して動画像認識回路
50に取り込まれる。
【0050】なお、特願平11−308160号に示し
た知能ロボットでは、カラーカメラは、単に人物(オペ
レータ等)や風景を撮影するために設けられているが、
取り込んだ映像信号からオペレータ等の動きや目線を認
識することにより、これらの要素をグラウンディング要
素に加えることができる。逆に、知能ロボット70の動
きをオペレータ等が発話した言葉へのグラウンディング
要素として加えることができる。
【0051】また、HD26のメモリエリア26bに
は、エージェントの画像ファイルに変えてエージェント
(知能ロボット70)の動作を制御するための複数の制
御データを含む動作ファイルが記憶される。この動作フ
ァイルがRAM24のワーキングエリア24bに書き込
まれ、CPU14はワーキングエリア24bに書き込ま
れた動作ファイルから制御データを読み出し、制御デー
タを移動モータ駆動回路34、俯仰モータ駆動回路36
および旋回モータ駆動回路38に与える。したがって、
対応するモータが駆動され、自律ロボット60が動作す
る。
【0052】このような知能ロボット70を用いた場合
であっても、図5および図6に示すような処理を実行す
ることにより、人間と連鎖的な会話を実現することがで
きる。ただし、この知能ロボット70を制御する場合に
は、ステップS1 で、CPU14は、HD26のメモリ
エリア26bから動作ファイルおよび音声ファイルを読
み出し、RAM24のワーキングエリア24bに書き込
む。また、ステップS9の処理は削除される。なお、知
能ロボット70の動きについては、CPU14が別のル
ーチンで管理しており、たとえば、所定時間毎に乱数で
制御データを選択するようにしてもよく、意図的に作成
されたプログラムに従って制御データを選択するように
してもよい。また、知能ロボット70の動作をグラウン
ディング要素に加える場合には、トーキングアイ60の
場合と同様に、データの一覧で選択される言葉に対応し
て制御データを割り当てておけば、知能ロボット70が
発話する毎に動きが制御される。
【0053】このように、図1および図7実施例では、
エージェントと人間とが会話できるようにしているが、
少なくとも2つ以上のエージェント同士によって会話す
ることもでき、またその会話の場に人間が参加すること
も退避することも可能である。つまり、複数人による会
話を実現することが可能である。
【0054】たとえば、図9に示すような、その他の実
施例の会話システム80では、トーキングアイ60、6
2および64のそれぞれに対応して設けられたコンピュ
ータ82、84および86を含み、コンピュータ82、
84および86は、統括コンピュータ88に双方向で通
信可能に接続される。会話システム80はまた、ディス
プレイ90、スピーカ92およびマイク94を含み、デ
ィスプレイ90、スピーカ92およびマイク94は統括
コンピュータ88に接続される。なお、コンピュータ8
2、84および86は、図1実施例に示したコンピュー
タ12と同じ構成であり、コンピュータ82、84およ
び86のそれぞれは、異なるトーキングアイ60、62
および64を制御するための画像ファイルおよび音声フ
ァイルを有している。
【0055】統括コンピュータ88は、コンピュータ8
2、84および86と互いに通信可能であり、またそれ
ぞれのコンピュータ82、84および86を識別するこ
とができる。したがって、統括コンピュータ88、コン
ピュータ82、84および86から送信されてくるキャ
ラクタデータを識別し、対応するトーキングアイ60、
62または64の表示を制御する。また、統括コンピュ
ータ88は、コンピュータ82、84または86から送
信されてくる音声信号をスピーカ92から出力する。し
たがって、会話システム80の周辺に存在するオペレー
タ等にトーキングアイ60、62および64が発話した
言葉が聞こえる。さらに、統括コンピュータ88は、マ
イク94を介して入力されるオペレータ等の音声信号を
コンピュータ82、84および86のそれぞれに出力す
る。なお、トーキングアイ60、62または64が発話
する言葉は、統括コンピュータ88によって、発話して
いないトーキングアイ60、62または64に対応する
コンピュータ82、84または86のいずれか2つにそ
のまま出力される。つまり、トーキングアイ60、62
および64が発話する言葉は音声認識することなくそれ
ぞれに含まれるCPU14で知らされる。
【0056】この会話システム80では、コンピュータ
82、84および86のそれぞれが、図5および図6に
示すような処理を実行し、トーキングアイ60、62お
よび64での連鎖的な会話をすることができ、またその
会話の場にオペレータ等が出入りすることができる。
【0057】たとえば、オペレータ等とトーキングアイ
60、62および64の会話を模式的に示すと、図10
のように表すことができる。なお、上述の図3で示した
場合と同じように、それぞれの発話のタグは前向きの要
素と後ろ向きの要素を含んでおり、図10においては、
前向きの要素を点線で示し、後ろ向きの要素を実線で示
してある。
【0058】たとえば、オペレータ等が“さて、どこ行
く?”とマイク94を用いて入力すると、オペレータ等
の音声信号がマイク94を介して統括コンピュータ88
に入力され、統括コンピュータ88は、その音声信号を
コンピュータ82、84および86のそれぞれに入力す
る。すると、コンピュータ82のCPU14では、会話
に参加することが決定され、たとえば、現時点での認知
状況に基づいて" そんなん言われてもなぁ〜" という言
葉が選択される。
【0059】したがって、コンピュータ82のCPU1
4が“そんなん言われてもなぁ〜”に対応する音声合成
データを読み出し、音声合成回路18に与える。そし
て、“そんなん言われてもなぁ〜”の音声信号が統括コ
ンピュータ88に与えられる。したがって、“そんなん
言われてもなぁ〜”というトーキングアイ60の言葉が
スピーカ92から出力されとともに、統括コンピュータ
88から他のコンピュータ84および86に入力され
る。しかし、コンピュータ84および86では、会話に
参加しないことが決定され、オペレータ等の発話に対し
ては無視した状態となっている。
【0060】オペレータ等は、“そんなん言われてもな
ぁ〜”という返答を受けて、たとえば“どっかあれへん
?”と問いかける。なお、“そんなん言われてもなぁ
〜”の音声信号は、統括コンピュータ88を介してコン
ピュータ84および86にも与えられるが、その発話に
対しても無視した状態となっている。
【0061】オペレータ等が“どっかあれへん?”と問
いかけると、たとえば、コンピュータ84および86内
のCPU14が会話に参加することを決定し、コンピュ
ータ84のCPU14は、現在の認知状況に基づいて
“知らん”という言葉を選択し、コンピュータ86のC
PU14は、現在の認知状況に基づいて“まっすぐ行っ
たらええやん”という言葉を選択する。
【0062】したがって、コンピュータ84のCPU1
4が“知らん”に対応する音声合成データを読み出し、
音声合成回路18に与える。そして、“知らん”の音声
信号が統括コンピュータ88を介してスピーカ92から
出力される。また、コンピュータ86のCPU14が
“まっすぐ行ったらええやん”に対応する音声合成デー
タを読み出し、音声合成回路18に与える。したがっ
て、“まっすぐ行ったらええやん”に対応する音声信号
が統括コンピュータ88を介してスピーカ92から出力
される。
【0063】なお、スピーカ92からは、“知らん”お
よび“まっすぐ行ったらええやん”という音声信号が同
時に出力されることとなるが、トーキングアイ60,6
2および64のそれぞれの声の周波数を予め異なる値に
設定しておけば、オペレータ等は、それぞれの声を聞き
分けることができる。また、“知らん”の音声信号は、
統括コンピュータ88を介してコンピュータ82および
86に与えられる。しかし、コンピュータ82および8
6のCPU14は“知らん”を無視した状態となってい
る。さらに、“まっすぐ行ったらええやん”の音声信号
は、統括コンピュータ88を介してコンピュータ82お
よび84に与えられる。しかし、コンピュータ84のC
PU14およびオペレータ等は“まっすぐ行ったらええ
やん”を無視した状態となっている。
【0064】コンピュータ82のCPU14は、“まっ
すぐ行ったらええやん”に応答して、会話に参加するこ
とを決定し、“そうそう”という言葉を選択する。した
がって、コンピュータ82のCPU14は“そうそう”
に対応する音声合成データを読み出し、音声合成回路1
8に与える。したがって、“そうそう”の音声信号が統
括コンピュータ88を介してスピーカ92から出力され
るとともに、コンピュータ84および86に与えられえ
る。すると、オペレータ等が“そうそう”に応答して、
“そやなぁ〜”と発話する。なお、コンピュータ84お
よび86のCPU14は“そうそう”を無視した状態と
なっている。
【0065】その他の実施例によれば、複数のエージェ
ントおよび人間によって連鎖的な会話を実現することが
できる。すなわち、多人ー数の会話を実現することがで
きる。また、説明は省略してあるが、図3を用いて説明
したように、発話した言葉の投機的要素とその発話に対
する返答のグラウンディング要素に基づいてオペレータ
等やトーキングアイ60、62および64の認知状況は
更新される。ただし、相手の発話に対して無視したり、
自分の発話を無視されたような場合には、認知状況は更
新されない。
【0066】なお、その他の実施例において、オペレー
タ等に換えて他のトーキングアイを会話に参加させるよ
うにすれば、エージェントのみの多人数会話を実現する
ことができる。ただし、トーキングアイは少なくとも2
つ以上存在すれば、連鎖的な会話を実行することができ
る。この場合には、初期設定によって、いずれか1つの
トーキングアイの関心度を高く設定しておき、最初の言
葉を意図的に発話させる必要がある。また、最初の言葉
だけを人為的に入力するようにしてもよい。
【0067】また、オペレータ等以外の人物は2人以上
の複数であっても会話に参加することができる。
【0068】さらに、その他の実施例では、ディスプレ
イ、スピーカおよびマイクを共用し、また異なるトーキ
ングアイを1つの画面に表示するため、統括コンピュー
タを設けるようにしたが、図1実施例で示したエージェ
ント制御装置10を個々に設けるようにしてもよい。
【0069】さらにまた、コンピュータの処理能力が高
ければ、1台のコンピュータで会話システムを構築する
ことも可能である。
【0070】また、図8に示した知能ロボット70によ
って多人数会話を実現することも可能である。この場合
には、知能ロボット70は、それぞれが独立して存在す
るので、言い換えると、トーキングアイのように同一の
ディスプレイ上に表示することがないので、統括コンピ
ュータを設ける必要がない。
【0071】さらに、このような会話システムでは、ト
ーキングアイまたは知能ロボットのいずれか一方が2つ
以上存在するように記載してあるが、トーキングアイと
知能ロボットとが混在して、会話するようにしてもよ
い。すなわち、異なる種類のエージェント同士でも会話
が可能である。
【0072】このような多人数の会話が可能な会話シス
テム80は、単に雑談のような連鎖的な会話をすること
ができるだけでなく、他の様々な分野に応用することが
できる。
【0073】たとえば、図1実施例で説明したような漫
才をトーキングアイ同士やロボット同士で実現すること
ができ、またオペレータ等がぼけやつっこみを言って漫
才に参加することもできる。さらに、オペレータ等が話
題を提供することにより、漫才の流れを変えることもで
きる。ただし、漫才を実現するためのエージェントの数
は2つ以上であれば、複数であってもよい。
【0074】また、上述したようなトーキングアイまた
は知能ロボットに外国語の音声ファイルを保持させてお
けば、少なくとも2以上のトーキングアイまたは知能ロ
ボットが外国語で雑談のような連鎖的な会話ができ、ま
たその会話の場にオペレータ等が出入りすることによ
り、外国語を学ぶことができる。つまり、新しい教育支
援システムを提供することができる。
【0075】さらに、カーナビゲーションや携帯電話機
に図1実施例に示すようなコンピュータ12を少なくと
も1つ内蔵しておけば、1人で行動しているときであっ
ても雑談してインタラクティブに情報を提供することが
できる。また、2つ以上のコンピュータを内蔵しておけ
ば、多人数による会話を実現できる。特にカーナビゲー
ションに少なくとも1つのコンピュータ12を内蔵した
場合には、エージェントと1対1で会話したり、多人数
会話に出入りすることにより、居眠り運転を防止するよ
うな効果があると考えられる。
【0076】さらにまた、このようなカーナビゲーショ
ンや携帯電話機でインターネットのホームページにアク
セス可能なものであれば、たとえばWWW(World Wide
Web) から情報(コンテンツ)を入手し、それに従って
会話を進行させるようなことも考えられる。たとえば、
ニュースソースから1つのキーワード(コンテンツ)を
入手して、それに従って会話を進行させれば、雑談のよ
うな会話から最新のニュースを聞くこともできる。ま
た、オペレータ等がその会話に参加することにより、他
のニュースに話題を転換したり、詳細な内容を入手する
ことができる。ただし、このようにWWWなどから最新
情報を入手して会話を実現させるためには、新しいコン
テンツを入手するとともに、データの一覧および音声フ
ァイルを更新する必要がある。
【0077】また、この会話システムは街頭の大型スク
リーンでコマーシャルソースを提供するような装置に適
用することも可能である。つまり、雑談的にコマーシャ
ルソースを提供でき、またオペレータ等が会話に参加す
ることにより、所望のコマーシャルソールを入手するこ
とができ、またその詳細な情報をインタラクティブに要
求できる。すなわち、一方的なコマーシャルソースの提
供でなく、情報収集の自由度を高めることができる。
【図面の簡単な説明】
【図1】この発明の一実施例の構成を示す図解図であ
る。
【図2】図1実施例に示すHDに記憶されたデータの一
覧を示す図解図である。
【図3】一般的な会話を時系列に従って模式的に示した
模式図である。
【図4】図1実施例のエージェント制御装置を示す図解
図である。
【図5】図1実施例に示すエージェントの制御処理の一
部を示すフロー図である。
【図6】図1実施例に示すエージェントの制御処理の他
の一部を示すフロー図である。
【図7】この発明の他の実施例の構成を示す図解図であ
る。
【図8】図7実施例に示すエージェント制御装置で制御
される知能ロボットを示す図解図である。
【図9】この発明のその他の実施例を示す図解図であ
る。
【図10】図9実施例に示した会話システムで多人数会
話した場合の一例を模式的に示した模式図である。
【符号の説明】
10 …エージェント制御装置 12,82,84,86 …コンピュータ 14 …CPU 18 …音声合成回路 20 …画像生成回路 22 …音声認識回路 24 …RAM 26 …HD 28 …マイク 30 …ディスプレイ 32 …スピーカ 34 …移動モータ駆動回路 36 …俯仰モータ駆動回路 38 …旋回モータ駆動回路 46 …接触センサ 48 …カラーカメラ 50 …動画像認識回路 60,62,64 …トーキングアイ 70 …知能ロボット 80 …会話システム 88 …統括コンピュータ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/28 G10L 3/00 571U 15/22 (72)発明者 鈴木 紀子 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 (72)発明者 坂本 彰司 京都府相楽郡精華町大字乾谷小字三平谷5 番地 株式会社エイ・ティ・アール知能映 像通信研究所内 Fターム(参考) 5D015 AA01 AA05 BB01 HH07 HH13 KK04 LL07 5D045 AB01 9A001 DD13 HH17 HH18 HH19

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】発話すべき複数の言葉を保持する保持手
    段、 発話に対する他者の発話との関連性の有無を判別する判
    別手段、 前記判別結果に応じて現認知状況を更新する更新手段、 前記現認知状況に基づいて発すべき言葉を選択する選択
    手段、および前記選択手段で選択された前記言葉を出力
    する出力手段を備える、会話用エージェント。
  2. 【請求項2】前記更新手段は、前記判別結果が相関性あ
    りを示すとき、前記現認知状況を更新し、前記判別結果
    が相関性なしを示すとき、前記現認知状況を更新しな
    い、請求項1記載の会話用エージェント。
  3. 【請求項3】前記現認知状況は発話した言葉に含まれる
    投機的要素と前記発話した言葉に対して他者が発話した
    言葉に含まれるグラウンディング要素とに基づいて決定
    される、請求項1または2記載の会話用エージェント。
  4. 【請求項4】請求項1ないし3のいずれかに記載の複数
    の会話用エージェントを用いる、会話システム。
JP2000083986A 2000-03-24 2000-03-24 会話用エージェントおよびそれを用いる会話システム Pending JP2001273473A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000083986A JP2001273473A (ja) 2000-03-24 2000-03-24 会話用エージェントおよびそれを用いる会話システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000083986A JP2001273473A (ja) 2000-03-24 2000-03-24 会話用エージェントおよびそれを用いる会話システム

Publications (1)

Publication Number Publication Date
JP2001273473A true JP2001273473A (ja) 2001-10-05

Family

ID=18600531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000083986A Pending JP2001273473A (ja) 2000-03-24 2000-03-24 会話用エージェントおよびそれを用いる会話システム

Country Status (1)

Country Link
JP (1) JP2001273473A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202796A (ja) * 2000-12-28 2002-07-19 Fujitsu Ltd 音声対話型情報処理装置及び記録媒体
JP2005335053A (ja) * 2004-04-28 2005-12-08 Nec Corp ロボット、ロボット制御装置およびロボットの制御方法
JP2006268428A (ja) * 2005-03-24 2006-10-05 Kenwood Corp 情報呈示装置、情報呈示方法、および、情報呈示用プログラム
WO2009072567A1 (ja) * 2007-12-07 2009-06-11 Sony Corporation 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2014077969A (ja) * 2012-10-12 2014-05-01 Honda Motor Co Ltd 対話システム及び対話システム向け発話の判別方法
JP2016133557A (ja) * 2015-01-16 2016-07-25 国立大学法人大阪大学 エージェント対話システムおよびプログラム
WO2018134960A1 (ja) * 2017-01-20 2018-07-26 本田技研工業株式会社 会話処理サーバー、会話処理サーバーの制御方法、及び端末

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067047A (ja) * 1998-08-24 2000-03-03 Toshiba Corp 対話制御装置および対話制御方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067047A (ja) * 1998-08-24 2000-03-03 Toshiba Corp 対話制御装置および対話制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
桐越孝之 加糖誠巳: "3DCG会話ロボット"茶飲み友達"における会話の自然性改善に関する検討", 第60回全国大会講演論文集(4), CSNJ200000014001, 14 March 2000 (2000-03-14), JP, pages 33 - 4, ISSN: 0000719272 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202796A (ja) * 2000-12-28 2002-07-19 Fujitsu Ltd 音声対話型情報処理装置及び記録媒体
JP2005335053A (ja) * 2004-04-28 2005-12-08 Nec Corp ロボット、ロボット制御装置およびロボットの制御方法
JP4622384B2 (ja) * 2004-04-28 2011-02-02 日本電気株式会社 ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
JP2006268428A (ja) * 2005-03-24 2006-10-05 Kenwood Corp 情報呈示装置、情報呈示方法、および、情報呈示用プログラム
JP4508917B2 (ja) * 2005-03-24 2010-07-21 株式会社ケンウッド 情報呈示装置、情報呈示方法、および、情報呈示用プログラム
WO2009072567A1 (ja) * 2007-12-07 2009-06-11 Sony Corporation 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2014077969A (ja) * 2012-10-12 2014-05-01 Honda Motor Co Ltd 対話システム及び対話システム向け発話の判別方法
JP2016133557A (ja) * 2015-01-16 2016-07-25 国立大学法人大阪大学 エージェント対話システムおよびプログラム
WO2018134960A1 (ja) * 2017-01-20 2018-07-26 本田技研工業株式会社 会話処理サーバー、会話処理サーバーの制御方法、及び端末
JPWO2018134960A1 (ja) * 2017-01-20 2019-11-07 本田技研工業株式会社 会話処理サーバー、会話処理サーバーの制御方法、及び端末

Similar Documents

Publication Publication Date Title
WO2022048403A1 (zh) 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端
US6526395B1 (en) Application of personality models and interaction with synthetic characters in a computing system
JP4395687B2 (ja) 情報処理装置
JP4401155B2 (ja) ユーザとエージェント間の対話管理方法及び装置
CN113454708A (zh) 语言学风格匹配代理
JP2023525173A (ja) レンダリングされたグラフィカル出力を利用する会話型aiプラットフォーム
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
JP2001229392A (ja) 少ないメッセージ交信により会話式キャラクタを実施する合理的アーキテクチャ
KR20010113919A (ko) 소비자 전자 시스템과의 대화 방법
JP2003076389A (ja) タッチスクリーン又は音声認識を通じて動作制御される情報端末及びその命令実行方法
WO2018163645A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
CN107393529A (zh) 语音识别方法、装置、终端及计算机可读存储介质
CN112262024A (zh) 用于增强数字体验的动态机器人配置的系统和方法
US11354517B2 (en) Dialogue method, dialogue system, dialogue apparatus and program
WO2018043112A1 (ja) 情報提示装置、および情報提示方法
CN112204565A (zh) 用于基于视觉背景无关语法模型推断场景的系统和方法
JP2017079004A (ja) エージェント対話システム
JP2017064853A (ja) ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム
JP2001273473A (ja) 会話用エージェントおよびそれを用いる会話システム
JP2005313308A (ja) ロボット、ロボット制御方法、ロボット制御プログラム、ならびに思考装置
JP2007030050A (ja) ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法
JP7225642B2 (ja) コミュニケーションロボット、制御方法及び制御プログラム
WO2020027073A1 (ja) 情報処理装置および情報処理方法
JP2023120130A (ja) 抽出質問応答を利用する会話型aiプラットフォーム
JP2011033837A (ja) 対話支援装置、対話支援方法およびプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060307