JP2004062063A - Interactive apparatus - Google Patents
Interactive apparatus Download PDFInfo
- Publication number
- JP2004062063A JP2004062063A JP2002223698A JP2002223698A JP2004062063A JP 2004062063 A JP2004062063 A JP 2004062063A JP 2002223698 A JP2002223698 A JP 2002223698A JP 2002223698 A JP2002223698 A JP 2002223698A JP 2004062063 A JP2004062063 A JP 2004062063A
- Authority
- JP
- Japan
- Prior art keywords
- interface
- interactive device
- robot
- voice
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、対話の内容に応じて、その対話を行うためのインターフェースを切り替えることが可能な対話型装置に関する。
【0002】
【従来の技術】
言葉を認識し、言葉に対する応答と言葉に応じた動作とを返す音声認識反応装置が知られている。例えば、特開平6−175689号公報、特開平6−327842号公報、特開平9−131468号公報などを参照。特に、特開平9−131468号公報には、玩具同士が対話する音声対話型玩具が開示されている。
【0003】
また、犬や猫のように4足歩行の動物を模倣したペットロボットやエンターテイメントロボットとしては、例えば、AIBOなどが既に市販されている。
【0004】
【発明が解決しようとする課題】
しかし、従来の技術では、音声対話型玩具同士の間で会話ができるものの、音声対話玩具を所有する所有者(主人)に対して何ら配慮がなされていない。
【0005】
また、日本能率協会総合研究所が行ったアンケート調査の結果、コンシューマが描く夢のロボットは「より本物に近いペットロボット」がトップ人気であった。人間と居住空間を共にする生活密着型の共生またはエンターテインメント型のロボットが待望されている。
【0006】
本発明は、対話の内容に応じて、その対話を行うためのインターフェースを切り替えることが可能な対話型装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明の対話型装置は、他の対話型装置と対話を行う対話型装置であって、前記他の対話型装置との対話を第1の態様で行うための第1のインターフェースと、前記他の対話型装置との対話を前記第1の態様とは異なる第2の態様で行うための第2のインターフェースと、前記他の対話型装置との対話の内容を決定する決定手段と、前記決定手段によって決定された対話の内容に応じて、前記第1のインターフェースおよび前記第2のインタフェースのうちの一方を選択するインターフェース選択手段とを備え、前記対話型装置と前記他の対話型装置との間の対話は、前記インターフェース選択手段によって選択されたインターフェースを介して行われ、これにより、上記目的が達成される。
【0008】
前記第1のインターフェースは、前記対話型装置の所有者に理解可能な態様で前記他の対話型装置との対話を行うためのインターフェースであり、前記第2のインターフェースは、前記対話型装置の所有者に理解不可能な態様で前記他の対話型装置との対話を行うためのインターフェースであってもよい。
【0009】
前記第1のインターフェースは、音声で前記他の対話型装置との対話を行うための音声インターフェースであり、前記第2のインターフェースは、非音声で前記他の対話型装置との対話を行うための非音声インターフェースであってもよい。
【0010】
前記非音声インターフェースは、無線を用いた通信インタフェースであってもよい。
【0011】
前記決定手段によって決定された対話の内容が前記対話型装置の所有者に聞かれてもよい内容である場合には、前記インターフェース選択手段は、前記第1のインターフェースを選択してもよい。
【0012】
前記決定手段によって決定された対話の内容が前記対話型装置の所有者に聞かれたくない内容である場合には、前記インターフェース選択手段は、前記第2のインターフェースを選択してもよい。
【0013】
前記対話型装置は、前記対話型装置が移動することを可能にする移動部をさらに備えていてもよい。
【0014】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施の形態を説明する。
【0015】
図1は、本発明の対話型装置1の一例として、ロボットA、ロボットBの構成を示す。ロボットA、Bは、互いに対話を行うことが可能なように構成されている。
【0016】
図1に示されるロボットA、Bは、「目」に相当するカメラ10と、「口」に相当するスピーカ84およびアンテナ74と、「耳」に相当するマイク30およびアンテナ74とを含んでいる。
【0017】
なお、後述するように、スピーカ84は、音声インターフェース80の少なくとも一部を構成し、アンテナ74は、非音声インターフェース70の少なくとも一部を構成する。
【0018】
図1に示される例では、ロボットAの所有者(主人)Aさんは独身女性であり、ロボットBの所有者(主人)Bさんは独身男性であると仮定する。また、ロボットA、Bには予め名前が登録されていると仮定する。
【0019】
ロボットA、Bは、自らが移動することを可能にする移動部160を有する自律走行型ロボット(移動式ロボット)であってもよいし、自らが移動することができないタイプのものであってもよい。
【0020】
ロボットA、Bが移動することを可能にするメカニズムとしては任意のメカニズムを採用することができる。例えば、ロボットA、Bは、手足に設置されたローラの回転を制御することによって前進、後退するように構成されていてもよいし、タイヤ式や脚式などの移動式ロボットでもよい。ロボットA、Bは、人のような二足直立歩行を行う動物を模倣した人間型ロボットでもよいし、4足歩行の動物を模倣したペット型ロボットでもよい。
【0021】
なお、対話型装置1の一例として、対話型のロボットを説明したが、対話型装置1はこれに限定されない。対話型装置1は、他の対話型装置1と対話を行うことが可能なように構成された任意の装置であり得る。対話型装置1は、例えば、対話型の玩具であってもよいし、対話型のエージェントであってもよい。
【0022】
図2は、対話型装置1の内部構成を示す。
【0023】
画像認識部20は、カメラ(画像入力部)10から画像を取り込み、その取り込んだ画像中から人物や他の対話型装置1を認識し、その認識結果を対象者特定部50に出力する。
【0024】
音声認識部40は、マイク(音声入力部)30から音声を取り込み、その取り込んだ音声を認識し、その認識結果を対象者特定部50に出力する。
【0025】
対象者特定部50は、画像の認識結果と音声の認識結果とに基づいて、人間(例えば、主人)や他の対話型装置1などの対象者を特定し、その特定された対象者を示す対象者特定情報をインターフェース(IF)選択部60に出力する。対象者特定情報は、対話型装置1の所有者の存在が認識されたか否かを示す所有者認識情報を含む。
【0026】
対象者特定情報により、対話型装置1の近くに主人や他の対話型装置1が存在することを検出することが可能になる。
【0027】
なお、対話型装置1が、1系統の画像入力部10および画像認識部20と、1系統の音声入力部30および音声認識部40とを含む例を説明したが、対話型装置1の構成はこれに限定されない。対話型装置1は、1系統のみの入力部および認識部を含んでいてもよいし、3系統以上の入力部および認識部を含んでいてもよい。
【0028】
言語処理部100は、他の対話型装置1との対話の内容を決定する。ここで、言語処理部100は、様々な態様で、他の対話型装置1との対話の内容を決定することができる。
【0029】
例えば、言語処理部100は、対話データベース120に格納されている対話のパターンを参照することによって対話の内容を決定してもよいし、個人データベース130に格納されている個人情報を参照することによって対話の内容を決定してもよいし、情報データベース140に格納されている情報を参照することによって対話の内容を決定してもよいし、これらのデータベースから得られる情報の組み合わせに応じて対話の内容を決定してもよい。
【0030】
対話データベース120には、対話のパターンや応答文の生成規則が格納されている。個人データベース130には、対話型装置1の所有者やその所有者の知り合いに関する情報(例えば、性別、年齢、名前、職業、性格、趣味、生年月日などの情報)や他の対話型装置1やその所有者に関する情報が格納されている。情報データベース140には、今日の天気やニュースなどの情報や各種一般常識などの知識が格納されている。今日の天気やニュースなどの情報は、例えば、対話型装置1の外部から送受信部72および言語処理部100を介して取得され、情報データベース140に格納される。
【0031】
さらに、個人データベース130には、過去の対話の履歴が格納されていてもよい。過去の対話の履歴を参照することによって過去と同じ対話を繰り返すことを回避することが可能となり、より自然に近い対話を行うことが可能になる。
【0032】
あるいは、言語処理部100は、画像入力部10から入力された画像の認識結果に応じて対話の内容を決定してもよいし、音声入力部30から入力された音声の認識結果に応じて対話の内容を決定してもよいし、これらの認識結果の組み合わせに応じて対話の内容を決定してもよい。
【0033】
あるいは、言語処理部100は、対象者特定部50から出力される対象者特定情報に応じて対話の内容を決定してもよい。
【0034】
あるいは、言語処理部100は、ランダムに生成される乱数に応じて対話の内容を決定してもよい。
【0035】
このように、言語処理部100は、他の対話型装置1との対話の内容を決定する決定手段として機能する。言語処理部100は、例えば、プログラムを格納するメモリ102と、そのメモリ102に格納されたプログラムを実行するCPU104とを含む。この場合、言語処理部100の機能および動作は、CPU104がメモリ102に格納されたプログラムを実行することによって実現される。
【0036】
さらに、言語処理部100は、言語処理部100によって決定された対話の内容を示す情報(例えば、対話の内容が対話型装置1の所有者に聞かれたくない内容か、聞かれてもよい内容かを示す情報)をIF選択部60に出力する。
【0037】
なお、対話の内容が対話型装置1の所有者に聞かれたくない内容であるか、聞かれてもよい内容かの区別は、例えば、対話データベース120に格納されている対話のパターンとともに、対話データベース120において定義され得る。このような対話のパターンは、デフォルトセットに固定されていてもよいし、対話型装置1の所有者の教育によりデフォルトセットから追加、変更可能なようになっていてもよい。
【0038】
IF選択部60は、言語処理部100から出力される対話の内容を示す情報を受け取り、その情報に応じて、音声インターフェース(第1のインターフェース)80および非音声インターフェース(第2のインターフェース)70のうちの一方を選択する。あるいは、IF選択部60は、言語処理部100から出力される対話の内容を示す情報に加えて、対象者特定部50から出力される対象者特定情報を考慮に入れて、音声インターフェース80および非音声インターフェース70のうちの一方を選択するようにしてもよい。音声インターフェース80および非音声インターフェース70のうちのどちらを選択するかは、例えば、IF選択部60の内部に設けられているメモリ(図示せず)に格納されている所定の規則を参照することによって決定される。
【0039】
このように、IF選択部60は、言語処理部100(決定手段)によって決定された対話の内容に応じて、他の対話型装置1との対話を第1の態様で行うための第1のインターフェースおよび他の対話型装置1との対話を第1の態様とは異なる第2の態様で行うための第2のインターフェースのうちの一方を選択するインターフェース選択手段として機能する。
【0040】
図2に示される例では、音声インターフェース80は、音声合成部82と音声出力部84とによって実現されている。音声出力部84は、例えば、スピーカである。図2に示される例では、非音声インターフェース70は、無線を用いた通信インターフェースであり、送受信部72とアンテナ74とによって実現されている。無線を用いた通信インターフェースとしては、任意の通信インターフェース(例えば、光通信や赤外線通信(IrDA)のための通信インターフェース)を用いることができる。
【0041】
IF選択部60が音声インターフェース80を選択した場合には、対話型装置1と他の対話型装置1との間の対話は、音声インターフェース80を介して行われる。この場合、言語処理部100から出力される対話の内容が音声合成部82によって音声に合成され、音声出力部84から出力される。IF選択部60が非音声インターフェース70を選択した場合には、対話型装置1と他の対話型装置1との間の対話は、非音声インターフェース70を介して行われる。この場合、言語処理部100から出力される対話の内容が送受信部72によって通信可能な形式に変換され、アンテナ74から無線で出力される。
【0042】
さらに、言語処理部100は、音声(言葉)または非音声(無線)の認識結果に応じて制御信号を生成し、その制御信号を動作制御部110に出力する。
【0043】
動作制御部110は、言語処理部100から出力される制御信号に応じて各種アクチュエータを駆動する。これにより、対話型装置1を所望の態様で動作させることが可能になる。
【0044】
図3は、対話型装置1が他の対話型装置1との対話の仕方を決定する処理の手順を示す。この処理は、例えば、プログラムの形式で言語処理部100内のメモリ102に格納され得る。この処理は、例えば、言語処理部100内のCPU104によって実行され得る。
【0045】
ここでは、対話型装置1の一例であるロボットBが、他の対話型装置1の一例であるロボットAとの対話を行う場合を例にとり、その処理の手順を説明する。ロボットAが、ロボットBとその所有者である独身男性のBさんに街中(例えば公園)で出会ったと仮定する。ロボットAは、ロボットBと知り合いであってもよいし、そうでなくてもよい。ロボットAがロボットBと知り合いであるか否かは、例えば、ロボットAが自分の個人データベース130を参照することによって判定することができる。
【0046】
ステップST1:ロボットBは、ロボットAを検出する。例えば、ロボットBの画像認識部20がロボットBの画像を認識することによって、ロボットBは、ロボットBの近くにロボットAが存在することを検出することができる。
【0047】
ステップST2:ロボットBは、ロボットAとの対話の内容を決定する。ここで、ロボットBは、様々な態様で、対話の内容を決定することができる。例えば、ロボットBの言語処理部100が、ロボットBの対話データベース120に格納されている対話のパターンを参照することによって対話の内容を決定してもよい。あるいは、ロボットBの言語処理部100が、ロボットBの個人データベース130(または、ロボットAの個人データベース130)に格納されている個人情報(例えば、ロボットAの所有者のAさんが独身女性であることなど)を参照することによって対話の内容を決定するようにしてもよい。
【0048】
ステップST3:ロボットBは、ロボットAとの対話の内容に応じて、音声インターフェース(第1のインターフェース)および非音声インターフェース(第2のインターフェース)のうちの一方を選択する。ロボットBが非音声インターフェースを選択した場合には、処理はステップST4に進む。ロボットBが音声インターフェースを選択した場合には、処理はステップST5に進む。
【0049】
ステップST4:ロボットBは、非音声インターフェースを介してロボットAとの対話を行う。
【0050】
図4Aは、ロボットBとロボットAとが非音声インターフェースを介して対話を行っている様子を示したものである。
【0051】
ステップST5:ロボットBは、音声インターフェースを介してロボットAとの対話を行う。
【0052】
図4Bは、ロボットBとロボットAとが音声インターフェースを介して対話を行っている様子を示したものである。
【0053】
ステップST6:ロボットBは、対話が終了したか否かを判定する。「No」の場合には処理はステップST2に戻り、「Yes」の場合には処理は終了する。
【0054】
ロボットBが、音声インターフェースを介してロボットAとの対話を行うか、非音声インターフェースを介してロボットAとの対話を行うかは、所定の規則に従って決定される。その所定の規則は、例えば、以下の<規則1>および<規則2>を含む。
【0055】
<規則1>:ロボットAとの対話の内容がロボットBの所有者(主人)に聞かれたくない内容である場合には、ロボットBは、非音声インターフェースを介してロボットAとの対話を行う。
【0056】
例1:ロボットBは、自分の主人に恋人を作ってあげることを目的として、ロボットAから情報を収集したり、自分の主人をロボットAに売り込む場合には、非音声インターフェースを介してロボットAとの対話を行う。例えば、ロボットBが、ロボットAの主人の趣味、性格などの情報をロボットAから聞き出したり、自分の主人の良さをロボットAにアピールして、ロボットAの主人にそれとなく話をしてもらうように依頼する場合が、この場合に該当する。
【0057】
例2:ロボットBは、自分の主人の悪口(癖、性格など)をロボットAに言ったり、自分の主人の愚痴をロボットAに聞いてもらう場合には、非音声インターフェースを介してロボットAとの対話を行う。例えば、ロボットBがエージェント機能を有している場合において、ロボットBが「主人の命令がころころ変わって困る」という文句をロボットAに言う場合や、「命令していないことを命令したといって主人が怒る」という愚痴をロボットAにこぼす場合が、この場合に該当する。
【0058】
例3:ロボットBは、自分が知らないことをロボットAに聞く場合には、非音声インターフェースを介してロボットAとの対話を行う。例えば、ロボットBが自分の主人から宿題を出されている場合において、ロボットBがその宿題の答えを見つけられない場合が、この場合に該当する。
【0059】
<規則2>:ロボットAとの対話の内容がロボットBの所有者(主人)に聞かれてもよい内容(もしくは、聞かせたい内容)である場合には、ロボットBは、音声インターフェースを介してロボットAとの対話を行う。
【0060】
例1:ロボットBは、自分の主人のごますりをする場合には、音声インターフェースを介してロボットAとの対話を行う。例えば、ロボットBが、自分の主人のごますりをすることによって主人からの宿題に答えられないことを許してもらうとする場合が、この場合に該当する。
【0061】
なお、ロボットBがロボットAを検出することは必須ではない。相手の有無にかからわず、ロボットBは自分から自発的に発話することができるからである。従って、図3のステップST1は省略可能である。
【0062】
なお、図3のステップST3において、ロボットBが、自分の主人が自分の近くにいるか否かを判定し、自分の主人が自分の近くにいると判定された場合に限って、ロボットBが、音声インターフェースおよび非音声インターフェースのうちの一方を選択するようにしてもよい。
【0063】
なお、上述した実施の形態では、対話型装置が、対話の内容に応じて、音声インターフェースおよび非音声インターフェースのうちの一方を選択するとしたが、選択の対象となるインターフェースは音声インターフェースおよび非音声インターフェースに限定されない。どのようなインターフェースを用いるにしろ、他のロボットとの対話を異なる態様で行うための複数のインターフェースと、対話の内容に応じて、その複数のインターフェースのうちの1つを選択するインターフェース選択部とを含む対話型装置は、本発明の範囲内である。
【0064】
例えば、音声インターフェースの代わりに第1の非音声インターフェース(第1のインターフェース)を用い、かつ、非音声インターフェースの代わりに第2の非音声インターフェース(第2のインターフェース)を用いるようにしてもよい。このようなインターフェースを用いた場合でも、第1の非音声インターフェースを介した対話を対話型装置の所有者に理解可能な態様の対話に変換するアダプタ(インターフェース変換器)を対話型装置の所有者が装着することにより、音声インターフェースおよび非音声インターフェースを用いた場合と同様の効果が得られる。対話型装置の所有者に理解可能な態様で対話を行うことは、音声で対話を行うことと同じ結果になるからである。
【0065】
あるいは、音声インターフェースの代わりに対話型装置の所有者に理解可能な態様で他の対話型装置との対話を行うためのインターフェース(第1のインターフェース)を用い、かつ、非音声インターフェースの代わりに対話型装置の所有者に理解不可能な態様で他の対話型装置との対話を行うためのインターフェース(第2のインターフェース)を用いるようにしてもよい。このようなインターフェースを用いた場合でも、音声インターフェースおよび非音声インターフェースを用いた場合と同様の効果が得られる。対話型装置の所有者に理解できない態様で対話を行うことは、非音声で対話を行うことと同じ結果になるからである。
【0066】
対話型装置の所有者に理解不可能な態様で他の対話型装置との対話を行うためのインターフェースの例としては、例えば、その所有者が第1の言語(例えば、日本語)しか理解できない場合において、その対話型装置が他の対話型装置との対話を第2の言語(例えば、英語)で行うための言語インターフェースが挙げられる。
【0067】
【発明の効果】
本発明の対話型装置によれば、対話の内容に応じて、その対話を行うためのインターフェースを切り替えることが可能になる。これにより、対話型装置が人間の行動に近い振る舞いを行うことが可能になり、対話型装置の所有者の満足感、所有欲を高めることができる。その結果、そのような対話型装置は、生活密着型の共生型の対話玩具となり得るとともに、より本物に近いペットロボットとなり得る。
【図面の簡単な説明】
【図1】本発明の対話型装置1の一例として、ロボットA、ロボットBの構成を示す図
【図2】対話型装置1の内部構成を示す図
【図3】対話型装置1が他の対話型装置1との対話の仕方を決定する処理の手順を示すフローチャート
【図4A】ロボットBとロボットAとが非音声インターフェースを介して対話を行っている様子を示す図
【図4B】ロボットBとロボットAとが音声インターフェースを介して対話を行っている様子を示す図
【符号の説明】
60 IF選択部
70 非音声インターフェース
80 音声インターフェース
100 言語処理部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an interactive device capable of switching an interface for performing an interaction according to the content of the interaction.
[0002]
[Prior art]
2. Description of the Related Art A speech recognition reaction device that recognizes a word and returns a response to the word and an operation corresponding to the word is known. For example, see JP-A-6-175689, JP-A-6-327842, and JP-A-9-131468. In particular, Japanese Unexamined Patent Publication No. Hei 9-131468 discloses a voice interactive toy in which toys interact with each other.
[0003]
As a pet robot or an entertainment robot imitating a four-legged animal such as a dog or a cat, for example, AIBO is already on the market.
[0004]
[Problems to be solved by the invention]
However, in the related art, although conversation can be performed between the voice interactive toys, no consideration is given to the owner (owner) who owns the voice interactive toy.
[0005]
In addition, as a result of a questionnaire survey conducted by the Japan Management Association Research Institute, the most popular dream robot drawn by consumers was “a pet robot that is closer to the real thing”. There is a long-awaited need for a living-type symbiotic or entertainment-type robot that shares a living space with humans.
[0006]
SUMMARY OF THE INVENTION It is an object of the present invention to provide an interactive device capable of switching an interface for performing the dialog according to the content of the dialog.
[0007]
[Means for Solving the Problems]
An interactive device according to the present invention is an interactive device for interacting with another interactive device, wherein a first interface for performing a dialog with the other interactive device in a first mode; A second interface for performing a dialog with the interactive device in a second mode different from the first mode, determining means for determining the content of the dialog with the other interactive device, and determining Interface selecting means for selecting one of the first interface and the second interface in accordance with the content of the dialogue determined by the means, wherein the interface between the interactive device and the other interactive device is provided. Interaction between them is performed via the interface selected by the interface selecting means, thereby achieving the above object.
[0008]
The first interface is an interface for interacting with the other interactive device in a manner understandable to the owner of the interactive device, and the second interface is an interface for owning the interactive device. It may be an interface for interacting with the other interactive device in a manner that cannot be understood by the user.
[0009]
The first interface is a voice interface for performing a dialog with the other interactive device by voice, and the second interface is a voice interface for performing a dialog with the other interactive device non-voice. It may be a non-voice interface.
[0010]
The non-voice interface may be a wireless communication interface.
[0011]
When the content of the dialogue determined by the determining unit is a content that may be heard by the owner of the interactive device, the interface selecting unit may select the first interface.
[0012]
If the content of the dialogue determined by the determining means is a content that the owner of the interactive device does not want to hear, the interface selecting means may select the second interface.
[0013]
The interactive device may further include a moving unit that allows the interactive device to move.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0015]
FIG. 1 shows a configuration of a robot A and a robot B as an example of an
[0016]
Robots A and B shown in FIG. 1 include a
[0017]
Note that, as will be described later, the
[0018]
In the example shown in FIG. 1, it is assumed that the owner (master) A of the robot A is a single woman and the owner (master) B of the robot B is a single man. It is also assumed that robots A and B have their names registered in advance.
[0019]
The robots A and B may be autonomous mobile robots (mobile robots) having a moving
[0020]
Any mechanism that enables the robots A and B to move can be used. For example, the robots A and B may be configured to move forward and backward by controlling the rotation of rollers installed on the limbs, or may be a mobile robot such as a tire type or a leg type. The robots A and B may be humanoid robots that imitate animals that walk bipedally, such as humans, or pet robots that imitate quadrupedal animals.
[0021]
Although the interactive robot has been described as an example of the
[0022]
FIG. 2 shows an internal configuration of the
[0023]
The
[0024]
The
[0025]
The target
[0026]
The target person specifying information makes it possible to detect the presence of the master or another
[0027]
Note that the example in which the
[0028]
The
[0029]
For example, the
[0030]
The
[0031]
Further, the
[0032]
Alternatively, the
[0033]
Alternatively, the
[0034]
Alternatively, the
[0035]
As described above, the
[0036]
Furthermore, the
[0037]
It should be noted that whether the content of the dialogue is the content that the owner of the
[0038]
The
[0039]
As described above, the
[0040]
In the example shown in FIG. 2, the
[0041]
When the
[0042]
Furthermore, the
[0043]
The
[0044]
FIG. 3 shows a procedure of a process in which the
[0045]
Here, the procedure of the process will be described by taking, as an example, a case where a robot B, which is an example of the
[0046]
Step ST1: The robot B detects the robot A. For example, when the
[0047]
Step ST2: The robot B determines the content of the dialogue with the robot A. Here, the robot B can determine the content of the dialog in various modes. For example, the
[0048]
Step ST3: The robot B selects one of a voice interface (first interface) and a non-voice interface (second interface) according to the content of the dialogue with the robot A. If the robot B has selected the non-voice interface, the process proceeds to step ST4. If the robot B has selected the voice interface, the process proceeds to step ST5.
[0049]
Step ST4: The robot B interacts with the robot A via the non-voice interface.
[0050]
FIG. 4A shows a situation where the robot B and the robot A are interacting via a non-voice interface.
[0051]
Step ST5: The robot B interacts with the robot A via the voice interface.
[0052]
FIG. 4B shows a state where the robot B and the robot A are interacting via the voice interface.
[0053]
Step ST6: The robot B determines whether or not the conversation has ended. If “No”, the process returns to step ST2, and if “Yes”, the process ends.
[0054]
Whether the robot B interacts with the robot A via the voice interface or the robot A via the non-voice interface is determined according to a predetermined rule. The predetermined rule includes, for example, the following <
[0055]
<
[0056]
Example 1: Robot B collects information from Robot A for the purpose of creating a lover for his master, or sells his master to Robot A, and uses Robot A via a non-voice interface. Interact with. For example, the robot B can hear information such as the hobby and personality of the master of the robot A from the robot A, and can appeal the goodness of the master to the robot A so that the master of the robot A speaks implicitly. Requesting this corresponds to this case.
[0057]
Example 2: When the robot B tells the robot A the bad mood (habit, personality, etc.) of its master, or when the robot A asks the robot A to hear the complaint of the master, the robot B communicates with the robot A via the non-voice interface. Conduct a dialogue. For example, when the robot B has an agent function and the robot B complains to the robot A that "the master's command is difficult to change" or " This case corresponds to a case in which the robot A spills a complaint that the master is angry.
[0058]
Example 3: When the robot B asks the robot A what he does not know, the robot B interacts with the robot A via a non-voice interface. For example, this case corresponds to a case where the robot B does not find an answer to the homework when its master has given homework.
[0059]
<Rule 2>: If the content of the dialogue with the robot A is the content that the owner (master) of the robot B may be able to hear (or want to hear), the robot B communicates via the voice interface. Interact with the robot A.
[0060]
Example 1: Robot B interacts with Robot A via a voice interface when playing with his master. For example, this case corresponds to a case where the robot B wants to allow the robot B to answer the homework from the master by fumbling with the master.
[0061]
It is not essential that the robot B detect the robot A. This is because the robot B can spontaneously speak from itself regardless of the presence or absence of the other party. Therefore, step ST1 in FIG. 3 can be omitted.
[0062]
Note that in step ST3 of FIG. 3, the robot B determines whether or not its own master is close to itself, and only when it is determined that its own master is close to itself, the robot B One of a voice interface and a non-voice interface may be selected.
[0063]
In the above-described embodiment, the interactive device selects one of the voice interface and the non-voice interface according to the content of the dialog. However, the interface to be selected is the voice interface or the non-voice interface. It is not limited to. Whatever interface is used, a plurality of interfaces for performing a dialog with another robot in different modes, and an interface selecting unit for selecting one of the plurality of interfaces according to the content of the dialog. Interactive devices that include are within the scope of the invention.
[0064]
For example, a first non-voice interface (first interface) may be used instead of the voice interface, and a second non-voice interface (second interface) may be used instead of the non-voice interface. Even when such an interface is used, an adapter (interface converter) that converts a dialogue via the first non-voice interface into a dialogue that can be understood by the owner of the interactive device is provided by the owner of the interactive device. The same effect as in the case where the voice interface and the non-voice interface are used can be obtained by mounting. Interacting in a manner that is understandable to the owner of the interactive device has the same effect as conducting an audio conversation.
[0065]
Alternatively, an interface (first interface) for performing interaction with another interactive device in a manner understandable to the owner of the interactive device is used instead of the voice interface, and the dialog is used instead of the non-voice interface. An interface (second interface) for interacting with another interactive device in a manner that cannot be understood by the owner of the model device may be used. Even when such an interface is used, the same effect as when the voice interface and the non-voice interface are used can be obtained. Interacting in a manner incomprehensible to the owner of the interactive device has the same result as interacting non-speech.
[0066]
An example of an interface for interacting with another interactive device in a manner that the owner of the interactive device cannot understand is, for example, that the owner can only understand the first language (eg, Japanese) In some cases, a language interface is provided for the interactive device to interact with another interactive device in a second language (eg, English).
[0067]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to the interactive apparatus of this invention, it becomes possible to switch the interface for performing the dialog according to the content of the dialog. As a result, the interactive device can perform a behavior close to human behavior, and the satisfaction and desire of the owner of the interactive device can be increased. As a result, such an interactive device can be a life-based symbiotic interactive toy and a pet robot closer to the real thing.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a robot A and a robot B as an example of an
60 IF
Claims (7)
前記他の対話型装置との対話を第1の態様で行うための第1のインターフェースと、
前記他の対話型装置との対話を前記第1の態様とは異なる第2の態様で行うための第2のインターフェースと、
前記他の対話型装置との対話の内容を決定する決定手段と、
前記決定手段によって決定された対話の内容に応じて、前記第1のインターフェースおよび前記第2のインタフェースのうちの一方を選択するインターフェース選択手段と
を備え、
前記対話型装置と前記他の対話型装置との間の対話は、前記インターフェース選択手段によって選択されたインターフェースを介して行われる、対話型装置。An interactive device for interacting with another interactive device,
A first interface for performing interaction with the other interactive device in a first manner;
A second interface for performing a dialog with the other interactive device in a second mode different from the first mode;
Determining means for determining the content of the dialogue with the other interactive device,
Interface selecting means for selecting one of the first interface and the second interface in accordance with the content of the dialogue determined by the determining means,
An interactive device, wherein the interaction between the interactive device and the other interactive device is performed via an interface selected by the interface selecting means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002223698A JP2004062063A (en) | 2002-07-31 | 2002-07-31 | Interactive apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002223698A JP2004062063A (en) | 2002-07-31 | 2002-07-31 | Interactive apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004062063A true JP2004062063A (en) | 2004-02-26 |
Family
ID=31943387
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002223698A Withdrawn JP2004062063A (en) | 2002-07-31 | 2002-07-31 | Interactive apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004062063A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009025658A (en) * | 2007-07-20 | 2009-02-05 | Oki Electric Ind Co Ltd | Speech synthesizer and speech synthesis system |
JP2018017764A (en) * | 2016-07-25 | 2018-02-01 | トヨタ自動車株式会社 | Robot and voice interactive method |
WO2019187549A1 (en) * | 2018-03-27 | 2019-10-03 | ソニー株式会社 | Information processing device and information processing method |
JP2019175432A (en) * | 2018-03-26 | 2019-10-10 | カシオ計算機株式会社 | Dialogue control device, dialogue system, dialogue control method, and program |
JP2021026657A (en) * | 2019-08-08 | 2021-02-22 | 株式会社Nttドコモ | Information processing unit |
-
2002
- 2002-07-31 JP JP2002223698A patent/JP2004062063A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009025658A (en) * | 2007-07-20 | 2009-02-05 | Oki Electric Ind Co Ltd | Speech synthesizer and speech synthesis system |
JP2018017764A (en) * | 2016-07-25 | 2018-02-01 | トヨタ自動車株式会社 | Robot and voice interactive method |
JP2019175432A (en) * | 2018-03-26 | 2019-10-10 | カシオ計算機株式会社 | Dialogue control device, dialogue system, dialogue control method, and program |
WO2019187549A1 (en) * | 2018-03-27 | 2019-10-03 | ソニー株式会社 | Information processing device and information processing method |
US11620997B2 (en) | 2018-03-27 | 2023-04-04 | Sony Corporation | Information processing device and information processing method |
JP2021026657A (en) * | 2019-08-08 | 2021-02-22 | 株式会社Nttドコモ | Information processing unit |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11024294B2 (en) | System and method for dialogue management | |
US20190206402A1 (en) | System and Method for Artificial Intelligence Driven Automated Companion | |
US11003860B2 (en) | System and method for learning preferences in dialogue personalization | |
US11504856B2 (en) | System and method for selective animatronic peripheral response for human machine dialogue | |
EP1256931A1 (en) | Method and apparatus for voice synthesis and robot apparatus | |
KR100953902B1 (en) | Information processing system, information processing method, computer readable medium for storing information processing program, terminal and server | |
JP7173031B2 (en) | Information processing device, information processing method, and program | |
JP2000187435A (en) | Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method | |
JP2003205483A (en) | Robot system and control method for robot device | |
US10967508B2 (en) | System and method for dynamic robot configuration for enhanced digital experiences | |
US10994421B2 (en) | System and method for dynamic robot profile configurations based on user interactions | |
JP4622384B2 (en) | ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM | |
US20190251716A1 (en) | System and method for visual scene construction based on user communication | |
WO2021003471A1 (en) | System and method for adaptive dialogue management across real and augmented reality | |
US11331807B2 (en) | System and method for dynamic program configuration | |
JP2002049385A (en) | Voice synthesizer, pseudofeeling expressing device and voice synthesizing method | |
JP2023055910A (en) | Robot, dialogue system, information processing method, and program | |
JP2004062063A (en) | Interactive apparatus | |
CN110625608A (en) | Robot, robot control method, and storage medium | |
JP7156300B2 (en) | Information processing device, information processing method, and program | |
JP2004045591A (en) | Method for recognizing voice and method for providing specific speaker's voice dictionary | |
CN112262024B (en) | System and method for dynamic robot configuration for enhanced digital experience | |
JP2002239962A (en) | Robot device, and action control method and system of robot device | |
KR20230103666A (en) | Method and apparatus for providing a metaverse virtual reality companion animal capable of conducting a voice conversation with a user through learning about beavior and personality in a communication system | |
JP2004046400A (en) | Speaking method of robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20051004 |