JP2004234631A - ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法 - Google Patents

ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法 Download PDF

Info

Publication number
JP2004234631A
JP2004234631A JP2003383944A JP2003383944A JP2004234631A JP 2004234631 A JP2004234631 A JP 2004234631A JP 2003383944 A JP2003383944 A JP 2003383944A JP 2003383944 A JP2003383944 A JP 2003383944A JP 2004234631 A JP2004234631 A JP 2004234631A
Authority
JP
Japan
Prior art keywords
state
user
agent
conversation
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003383944A
Other languages
English (en)
Inventor
Candace L Sidner
キャンディス・エル・シドナー
Christopher H Lee
クリストファー・エイチ・リー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2004234631A publication Critical patent/JP2004234631A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Abstract

【課題】システムおよび方法は、ユーザと対話型実体エージェントとの間の対話を管理する。
【解決手段】関与管理状態機械は、アイドル、開始、維持、および終了の各状態を含む。会話マネージャは、これらの状態のそれぞれと対話する。エージェントコントローラは会話マネージャと対話し、対話型実体エージェントはエージェントコントローラと対話する。シーン内で検出された対話データに基づいて、対話型実体エージェントはアイドル状態から開始状態に移行する。このエージェントは、開始状態への移行の表示を出力し、この表示に応答して対話の証拠を検知する。証拠を検知すると、エージェントは開始状態から維持状態に移行する。対話の証拠はアジェンダに従って検証される。その後、エージェントは維持状態から終了状態に移行することもあるし、対話の証拠がアジェンダに従っていない場合にはアイドル状態に移行することもある。
【選択図】図1

Description

この発明は、包括的には、マンマシンインタフェースに関し、詳細には、ユーザと対話型実体エージェントとの間の対話を管理するアーキテクチャ、コンポーネント、および通信に関する。
従来技術では、エージェントという用語は、一般に、ユーザに代わって自律的なタスクを行うソフトウェアプロセスに対して使用されてきた。実体エージェントは、例えば2Dアバタ(avatar)および2Dアニメキャラクタならびに3D物理ロボットといった人間的な特徴を有するエージェントのことをいう。
製造および遠隔制御に使用されるようなロボットは、ほとんど、環境を検知して反応しながら、自律的に動作するか、または、予めプログラムされた方法で動作する。例えば、ほとんどのロボットは、環境において好ましくない状況を検知すると、通常動作を中止し、予防する動作を取る。これは、一般的には、ロボット工学の第3法則として知られている。これについては、Asimov著の「Foundation Trilogy」,1952を参照されたい。
対話型実体エージェントは、本発明で特に重要である。例えば、生物のように見て、話して、かつ行動するロボットである。対話型2Dエージェントおよび対話型3Dエージェントは、言語行為と、体のジェスチャ、顔の表情、および注視制御などの非言語行為とを通してユーザと通信を行う。「アイコンタクト」が、人間の効率的な対話を「管理する」上で極めて重要であることは周知であることから、注視を理解することは、特に重要である。対話型エージェントは、ユーザコマンドに従った行為における説明、訓練、案内、応答、および関与を行うために使用することができ、場合によっては、ユーザに行為を思い出させるために使用することができる。
対話型エージェントに関する1つの問題は、対話を「管理する」ことである。これについては、例えば、Tojo等著の「A Conversational Robot Utilizing Facial and Body Expression」IEEE International Conference on Systems, Man and Cybernetics, pp. 858-863, 2000を参照されたい。管理は、エージェントが発話し、かつ指摘することにより行われ得る。例えば、米国特許第6,384,829号において、Provost等は、システムが見たり聞いたりしたものに直接応答して「感情表現する」アニメ化されたグラフィックキャラクタについて記載している。
別の実体エージェントは、Traum等によって、「Embodied Agents for Multi-party Dialogue in Immersive Virtual Worlds, Proceedings of Autonomous Agents and Multi-Agent Systems」ACM Press, pp. 766-773, 2002に記載されている。そのシステムは、2Dエージェントの注意のモデル化を試みている。そのシステムは、注意を考慮するが、2人または3人以上の対話の参加者が、対話からの脱線をどのように認識するか、および、それについてどうするかといった、参加者の知覚されたつながりを確立し、維持し、終了する関与プロセスの長期間の変遷パターンまでは管理していない。また、彼らは、ユーザとの対話しか検討していない。
残念なことに、ほとんどの従来技術のシステムは、関与のモデルを欠いている。それらのシステムは、実際の人間の対話と必ずしも一貫性があるとは限らない場当たり的な方法で、会話および注視を行う傾向がある。したがって、それらのシステムは、非現実的であると受け取られる。その上、従来技術のシステムは、一般に、ジェスチャおよび発言を取り込んで追跡する短期間の手段しか持たない。それらのシステムは、話およびジェスチャのプロセスが、対話の参加者全員の間の知覚されたつながりによって決定されることを認識していない。これらの状況のすべてが、非現実的な注意の行動を招く。
したがって、関与プロセスを対話における最も重要なプロセスとすることによって、長期間のユーザ/エージェントの対話を現実的な方法で管理する2Dシステムおよびロボットシステムの方法が必要となる。
本発明は、ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび方法を提供する。関与管理状態機械は、アイドル状態、開始状態、維持状態、および終了状態を含む。会話マネージャは、これらの状態のそれぞれと対話するように構成される。エージェントコントローラは、会話マネージャと対話し、対話型実体エージェントは、エージェントコントローラと対話する。
序論
図1は、我々の発明によるユーザと対話型実体エージェントとの間の関与プロセスを管理するシステムおよび方法を示している。システム100は、部分的には、4つの関与状態101〜104と会話マネージャ105とを有する状態機械とみなすことができる。関与状態には、アイドル101、関与の開始102、関与の保持103、および関与の終了104が含まれる。各状態には、プロセスおよびデータが関連付けられている。プロセスのあるものは、コンピュータシステム内のソフトウェアとして実行され、他のものは、電子機械プロセスである。このシステムが、言語によるまたは言語によらないで対話を行う複数のユーザを同時に含むことができることは理解されるべきである。さらに、他の近くの無生物オブジェクトが、関与の一部となり得ることも理解されるべきである。
関与プロセスの状態101〜104は、ユーザまたはエージェントが対話において交代を行っているかどうかを判断する「順番」パラメータを保持する。これは、会話における順番と呼ばれる。このパラメータは、エージェントが会話において交代を行うたびに変更される。このパラメータは、会話マネージャ105の会話モデラ(DM(discourse modeler))300の対話制御によって決定される。
エージェント
エージェントは、2Dアバタであってもよいし、3Dロボットであってもよいが、ロボットの方が好ましい。どの実施の形態でも、エージェントは、見るための1つまたは2つ以上のカメラ、聞くための1つまたは2つ以上のマイクロホン、話すための1つまたは2つ以上のスピーカ、およびジェスチャを示すための1つまたは2つ以上の可動部を含むことができる。アプリケーションによっては、ロボットが、移動可能であり、人間や動物の特徴を有することが有利な場合がある。しかしながら、これは、必要条件ではない。我々のロボットMelは、ペンギン107のように見える。
会話マネージャ
会話マネージャ105は、会話モデラ(DM)300の会話状態を保持する。会話モデラは、Rich等によって、米国特許第5,819,243号の「System with collaborative interface agent」に記載されたアーキテクチャに基づいている。この米国特許は、参照によりその全体が本明細書に援用される。
会話マネージャ105は、会話モデラ300の会話状態データ320を保持する。このデータは、会話の状態のモデル化を援助する。会話の力を借りて、我々は、対話のあらゆる参加者によって行われた言語行為および非言語行為の双方のすべての行為を表す。また、会話マネージャは、エージェントコントローラ106からのデータ、例えばカメラおよびマイクロホンを介した環境およびユーザからの入力データも使用する。これについては、図2を参照されたい。これらのデータには、参加者を含むシーンの画像と、音響信号とが含まれる。
会話マネージャ105は、言語行為および非言語行為のアジェンダ(A)340ならびにセグメント化された履歴350も含む。履歴350については、図3を参照されたい。セグメント化は、会話状態によって決定される対話の目的に基づいている。この履歴は、ほとんどの従来技術とは大きく異なり、関与が行われる全体的な状況を提供する。
全体的にすることによって、我々は、対話の空間的特性および時間的特性を表し、対話において接近した時間に起こるジェスチャおよび発言からの空間的特性および時間的特性、ならびに、対話において関連はしているが、より時間的に隔たったジェスチャおよび発言からの空間的特性および時間的特性の双方を表す。例えば、関与が失われる可能性を示唆するジェスチャまたは発言は、たとえ修復されても、後のおぼつかない関与が、関与プロセスの失敗によって起こり得るという証拠を提供する。会話マネージャ105は、ロボットによって行われる例えばジェスチャコマンド、注視コマンド、およびポーズコマンドといったデータをエージェントコントローラ106に提供する。
システム状態
アイドル
アイドル関与状態101は、Mel107がどのユーザも見えず、どのユーザの声も聞こえないことをエージェントコントローラ106が報告した場合の初期状態である。これは、例えば画像処理および音響処理といった既知の技術によって行うことができる。画像処理は、顔の検出、顔の認識、性別の認識、オブジェクトの認識、オブジェクトの定位、オブジェクトの追跡などを含むことができる。これらの技法はすべて、周知である。音源の検出、認識、および定位についての類似技術も、同様に利用可能である。
1つまたは2つ以上の顔がシーンに存在することを示すデータであり、そのユーザが対話に関与したいことを示す発言または挨拶とその顔が関連付けられていることを示すデータを受信すると、アイドル状態101は、完了し、開始状態102に移行する。
開始
開始状態102は、ユーザとの対話がこれから開始することを決定する。エージェントは、「順番」を有し、この順番の間に、Mel107は、自身の体をユーザに向け、自身の頭を傾け、自身の目の焦点をユーザの顔に合わせ、自身が聞いたことに対する挨拶または応答を発し、これによって、Mel107も、ユーザとの対話に興味があることを示す。
エージェントコントローラ106からの次の状態情報は、ユーザが、ジェスチャおよび発言によって対話を継続しているという証拠を提供する。証拠には、ユーザの顔がMelを注視しているという継続しているプレゼンス、および、ユーザが会話において交代を行っているという継続しているプレゼンスが含まれる。このような証拠が与えられると、プロセスは、関与維持状態103に移行する。ユーザの顔が存在しない場合には、システムは、アイドル状態101に戻る。
ユーザがまだ存在するが、Mel107を見ていないことをシステムが検出すると、関与開始プロセスは、会話におけるエージェントの次の順番の間、関与を修復するように試みる。修復に成功すると、システムは、維持状態103に移行し、修復に失敗すると、アイドル状態101に移行する。
維持
関与維持状態103は、ユーザが、対話を継続する意志があることを確認する。この状態は、ユーザの意志にどのように応答するか、および会話におけるロボット107の順番の間、ロボット107がどの行為が適切であるかを決定する。
基本的な維持の決定は、ユーザ以外には、視覚的に存在するどのオブジェクトも話題になっていない時に行われる。基本的な維持では、各順番において、維持プロセスは、ユーザがMelを注視しているということが継続しているプレゼンス、および会話が続いているという継続しているプレゼンスを証拠に使用して、ユーザがMelに注意を払っているかどうかを判断する。
ユーザが、関与を続けている場合には、維持プロセスは、アジェンダ340と、現在のユーザと、おそらく他のユーザとに従って、ロボットが行うべき行為を決定する。この行為は、ユーザ、およびおそらく検出された他のユーザに向けられた会話による行為、注視による行為、および体による行為である。
注視による行為は、会話による行為の長さおよび関与の長期間の履歴の理解に基づいて選択される。通常の注視による行為は、Melがユーザに向いていること、および、Melの順番の間に十分な時間がある場合には、おそらく断続的に他のユーザに向いていることによって開始する。これらの行為は、会話モデラの会話状態に記憶され、エージェントコントローラ106へ送信される。
ユーザが、ある一定の長さの時間の間、注視をそらすか、または交代を行うのに失敗することにより、関与を断つと、維持プロセスは、関与検証手順(VEP:Verify Engagement Procedure)131を実行する。この検証プロセスは、ロボットによるユーザの意志を判断するための言葉による行為および体による行為を用いた順番を含む。ロボットの言語行為は、これまでの対話において、別の検証プロセスが行われていたかどうかに応じて変化する。
ユーザが、関与を継続する意志を伝えた場合には、検証プロセスの結果は成功したことになる。このプロセスが成功すると、アジェンダ340は、関与が継続していることを記録するように更新される。ユーザによる肯定的な応答がないことは、失敗を示し、維持プロセスは、関与が時期尚早に断たれたことを示すパラメータと共に、関与終了状態104に移行する。
オブジェクト
シーン内のオブジェクト、すなわち「プロップ(prop)」が、関与の維持中に議論されている時、維持プロセスは、Melが、ユーザではなくそのオブジェクトを指差しすべきかどうか、または、注視するべきかどうかを判断する。指差しすることは、注視することを必要とするが、Melが指差ししていない時は、Melの注視は、アジェンダに表現された目的により決まる。
Melが順番中にオブジェクトを指差ししている時、さらなる行為で、ロボットコントローラに、ユーザの注視もそのオブジェクトに向けられているかどうかに関する情報を提供するように指示する。
ユーザがそのオブジェクトに注視を向けていない場合には、関与維持プロセスは、ロボットの次の順番を使用して、ユーザをオブジェクトに再度向ける。ユーザの注視をオブジェクトに向けさせることに継続して失敗すると、その結果、次の順番では、関与の検証が行われる。
ロボットがオブジェクトを指差ししていない場合には、ロボットの次の順番中に、議論されているオブジェクトへロボットの注視を向けることについての決定は、次のいずれをも含むことができる。関与維持プロセスは、オブジェクト、ユーザ、または他のユーザが存在する場合にはそれら他のユーザに注視を向けるかどうかを決定する。これらのシナリオのいずれも、関与の履歴の全体的な理解を必要とする。
特に、ロボットが、ロボットによってなされた提案の肯定応答を求めている場合には、ロボットの注視は、ユーザに向けられる。ユーザは、ロボットの順番中、または、その後すぐに、同種の注視を返し、肯定応答を発言する。この肯定応答は、2人の人間の対話者の間で行われるのと同様に、対話継続の証拠として用いられる。
ユーザの肯定応答がない場合には、関与維持プロセスは、肯定応答を再度聞き出すように試みるか、または、次の対話による行為に移るように試みる。
おそらく、ユーザが注視を向けないことによって、結局、ユーザの肯定応答が継続して得られない場合には、この事態は、上述したような関与の検証に着手する証拠となる。
肯定応答が必要とされない場合には、維持プロセスは、オブジェクトまたは順番中のユーザのいずれかに注視を向ける。オブジェクトの具体的な特徴が議論されている場合には、アジェンダによって決定されるように、オブジェクトを注視することが好ましい。
ロボットが、オブジェクトを指差ししておらず、ユーザを注視していない場合には、関与プロセスは、関与が継続していることの証拠として、ユーザの会話の証拠、または、オブジェクトもしくはロボットへの注視の証拠を受け取る。
ユーザが交代を行うと、ロボットは、その順番の間に、関与を継続するロボットの意志を示さなければならない。したがって、ロボットがたとえ話をしていない場合であっても、ロボットは、ロボットがユーザとロボットとの対話においてユーザにつながりを持っていることを、ユーザに明らかにしなければならない。維持プロセスは、(1)現在のユーザの注視の方向、および、(2)議論されているオブジェクトが、ユーザによって所有されているかどうか、に基づいてロボットの意志を伝える方法を決定する。好ましいプロセスは、ユーザがオブジェクトを注視すると、Melにそのオブジェクトを注視させ、ユーザがMelを注視すると、Melにユーザを注視させることである。
関与終了状態104への通常の移行は、アジェンダが完了した場合、またはユーザが対話を終了する意志を伝えた場合に起こる。
終了
関与終了状態104は、関与をクローズさせる。ロボットの発話順番中に、Melは、クローズ直前の発言を行い、さようならを言う。クローズ直前の発言中、ロボットの注視は、ユーザに向けられ、おそらく他の存在するユーザにも向けられる。
さようならを言っている間、Mel107は、人間のさようならと同じようにして、彼の水かき108を振る。さようならに続いて、Melは、しぶしぶ彼の体を回転させて、ユーザから注視をそらし、足を引きずって歩き、アイドル状態101に入る。
システムアーキテクチャ
図2は、我々の発明による会話モデラ(DM)300とエージェントコントローラ106との関係を示している。また、この図は、3Dの物理的な実施の形態のさまざまなコンポーネントも示している。2Dアバタまたはアニメキャラクタも、エージェント107として使用できることが理解されるべきである。
エージェントコントローラ106は、ロボットの状態、ユーザの状態、環境の状態、および他のユーザの状態を含む状態を保持する。このコントローラは、この状態を会話モデラ300に提供する。その後、会話モデラ300は、その状態を使用して、会話状態320を更新する。このロボットコントローラは、マイクロホン203に結合された音響解析用のコンポーネント201およびカメラ204に結合された映像(画像)解析用のコンポーネント202も含む。音響解析201は、ユーザの位置、発話の検出、およびおそらくユーザの識別を行う。
画像解析202は、カメラ204を使用して、顔の個数、顔の位置、注視の追跡、ならびに体およびオブジェクトの検出および位置を提供する。
また、コントローラ106は、未処理のデータ源、例えば音響源および映像源からの入力を取り込み、そのデータを解釈して、第1のユーザおよび第2のユーザ、ユーザの注視、ユーザが見ているオブジェクト、ユーザが見ているオブジェクトとロボットが見ているオブジェクトとが異なる場合には当該ロボットが見ているオブジェクト、ならびに見えているオブジェクトの現在の所有者を判定することにより、ロボットのモータ210も操作する。
ロボットコントローラは、すべての関与情報を会話マネージャに預ける。プロセス状態101〜104は、ロボットコントローラ106が着手すべき行為を提案することができる。
会話モデラ300は、ユーザの発言において認識された語の形で、発話認識エンジン230からの入力を受信し、スピーカ241を用いる発話合成エンジン240を使用して発話を出力する。
また、会話モデラは、コマンド、例えば、注視方向およびさまざまなジェスチャ、ならびに会話状態も、ロボットコントローラに提供する。
会話モデラ
図3は、会話モデラ300の構造を示している。会話モデラ300は、ロボットの行為301と、発話認識装置から導き出されたテキストフレーズ302と、発言インタプリタ310と、レシピライブラリ303と、会話インタプリタ360と、会話状態320と、会話生成器330と、アジェンダ340と、セグメント化された履歴350と、関与管理プロセスとを含む。関与管理プロセスは、上述したものであり、図1に示されている。
我々の構造は、Rich等によって記載されたような協調エージェントアーキテクチャの設計に基づいている。Rich等については上記を参照されたい。しかしながら、Rich等は、はるかに複雑な対話における実体エージェントの使用を検討していないことが理解されるべきである。その点で、行為は、協調解釈モジュールに入力される。ここで、ロボットの行為は、会話による行為の付加的なタイプである。また、我々の関与マネージャ100は、ユーザおよびロボットについて、注視、体の姿勢、領域内のオブジェクトだけでなく、所有されたオブジェクトに関する直接情報を受信する。この種の情報は、Rich等によって考慮もされていなかったし、また、利用可能でもなかった。
本発明について、好ましい実施の形態を例にして記述してきたが、本発明の精神および範囲内において、他のさまざまな適応および変更を行い得ることが理解されるべきである。したがって、添付した特許請求の範囲の目的は、本発明の真の精神および範囲内に入るようなすべての変形および変更を網羅することである。
本発明による関与を管理する方法およびシステムの最上位レベルのブロック図である。 ユーザとの対話用のロボットアーキテクチャの関係のブロック図である。 本発明により使用される会話モデラのブロック図である。

Claims (3)

  1. ユーザと対話型実体エージェントとの間の対話を管理するシステムであって、
    アイドル状態、開始状態、維持状態、および終了状態を含む関与管理状態機械と、
    前記状態のそれぞれと対話するように構成された会話マネージャと、
    前記会話マネージャと対話するエージェントコントローラと、
    前記エージェントコントローラと対話する対話型実体エージェントと
    を備える対話を管理するシステム。
  2. 対話型実体エージェントによるユーザとの対話を管理する方法であって、
    シーン内の対話データを検出することと、
    前記データに基づいて、アイドル状態から開始状態に移行することと、
    前記開始状態への移行の表示を出力することと、
    前記表示に応答して対話の証拠を検知することと、
    前記対話の証拠に基づいて、前記開始状態から維持状態に移行することと、
    アジェンダに従って、前記対話の証拠を検証することと、
    前記対話の証拠が前記アジェンダに従っていない場合には、前記維持状態から前記アイドル状態に移行することと
    を含む対話を管理する方法。
  3. 前記対話データが、前記アジェンダを支持する場合には、前記維持状態を継続することをさらに含む請求項2に記載の対話を管理する方法。
JP2003383944A 2002-11-15 2003-11-13 ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法 Pending JP2004234631A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/295,309 US20040095389A1 (en) 2002-11-15 2002-11-15 System and method for managing engagements between human users and interactive embodied agents

Publications (1)

Publication Number Publication Date
JP2004234631A true JP2004234631A (ja) 2004-08-19

Family

ID=32297164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003383944A Pending JP2004234631A (ja) 2002-11-15 2003-11-13 ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法

Country Status (2)

Country Link
US (1) US20040095389A1 (ja)
JP (1) JP2004234631A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014502566A (ja) * 2011-01-13 2014-02-03 マイクロソフト コーポレーション ロボットとユーザーの相互作用のためのマルチ状態モデル
JP2020190726A (ja) * 2020-06-23 2020-11-26 株式会社ユピテル システム及びプログラム
US11031004B2 (en) 2018-02-20 2021-06-08 Fuji Xerox Co., Ltd. System for communicating with devices and organisms

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4559092B2 (ja) * 2004-01-30 2010-10-06 株式会社エヌ・ティ・ティ・ドコモ 携帯通信端末及びプログラム
US20090201297A1 (en) * 2008-02-07 2009-08-13 Johansson Carolina S M Electronic device with animated character and method
US8339392B2 (en) * 2008-09-30 2012-12-25 International Business Machines Corporation Intelligent demand loading of regions for virtual universes
US8683354B2 (en) 2008-10-16 2014-03-25 At&T Intellectual Property I, L.P. System and method for distributing an avatar
US9412126B2 (en) * 2008-11-06 2016-08-09 At&T Intellectual Property I, Lp System and method for commercializing avatars
US9530412B2 (en) * 2014-08-29 2016-12-27 At&T Intellectual Property I, L.P. System and method for multi-agent architecture for interactive machines
US10373515B2 (en) 2017-01-04 2019-08-06 International Business Machines Corporation System and method for cognitive intervention on human interactions
US10235990B2 (en) 2017-01-04 2019-03-19 International Business Machines Corporation System and method for cognitive intervention on human interactions
US10318639B2 (en) 2017-02-03 2019-06-11 International Business Machines Corporation Intelligent action recommendation
US11250844B2 (en) 2017-04-12 2022-02-15 Soundhound, Inc. Managing agent engagement in a man-machine dialog

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5819243A (en) * 1996-11-05 1998-10-06 Mitsubishi Electric Information Technology Center America, Inc. System with collaborative interface agent
US6466213B2 (en) * 1998-02-13 2002-10-15 Xerox Corporation Method and apparatus for creating personal autonomous avatars
US6384829B1 (en) * 1999-11-24 2002-05-07 Fuji Xerox Co., Ltd. Streamlined architecture for embodied conversational characters with reduced message traffic

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014502566A (ja) * 2011-01-13 2014-02-03 マイクロソフト コーポレーション ロボットとユーザーの相互作用のためのマルチ状態モデル
US11031004B2 (en) 2018-02-20 2021-06-08 Fuji Xerox Co., Ltd. System for communicating with devices and organisms
JP2020190726A (ja) * 2020-06-23 2020-11-26 株式会社ユピテル システム及びプログラム
JP6990461B2 (ja) 2020-06-23 2022-01-12 株式会社ユピテル システム及びプログラム

Also Published As

Publication number Publication date
US20040095389A1 (en) 2004-05-20

Similar Documents

Publication Publication Date Title
Bohus et al. Models for multiparty engagement in open-world dialog
US11017779B2 (en) System and method for speech understanding via integrated audio and visual based speech recognition
Glas et al. Erica: The erato intelligent conversational android
JP7348288B2 (ja) 音声対話の方法、装置、及びシステム
JP7038210B2 (ja) 対話セッション管理用のシステム及び方法
US11151997B2 (en) Dialog system, dialog method, dialog apparatus and program
Bohus et al. Directions robot: in-the-wild experiences and lessons learned
Tanaka et al. Comparing video, avatar, and robot mediated communication: pros and cons of embodiment
Bohus et al. Dialog in the open world: platform and applications
US11200902B2 (en) System and method for disambiguating a source of sound based on detected lip movement
WO2019161193A2 (en) System and method for adaptive detection of spoken language via multiple speech models
US20190251701A1 (en) System and method for identifying a point of interest based on intersecting visual trajectories
JP2004234631A (ja) ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法
JP2009166184A (ja) ガイドロボット
WO2018163646A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
Yumak et al. Modelling multi-party interactions among virtual characters, robots, and humans
WO2019155735A1 (ja) 情報処理装置、情報処理方法及びプログラム
Bilac et al. Gaze and filled pause detection for smooth human-robot conversations
Bohus et al. On the challenges and opportunities of physically situated dialog
Li et al. " BIRON, let me show you something": evaluating the interaction with a robot companion
Bohus et al. Open-world dialog: Challenges, directions, and a prototype
Sidner et al. A first experiment in engagement for human-robot interaction in hosting activities
Pappu et al. Situated multiparty interaction between humans and agents
JPH09269889A (ja) 対話装置
WO2017200077A1 (ja) 対話方法、対話システム、対話装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081202

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091006