JP2004062063A - Interactive apparatus - Google Patents

Interactive apparatus Download PDF

Info

Publication number
JP2004062063A
JP2004062063A JP2002223698A JP2002223698A JP2004062063A JP 2004062063 A JP2004062063 A JP 2004062063A JP 2002223698 A JP2002223698 A JP 2002223698A JP 2002223698 A JP2002223698 A JP 2002223698A JP 2004062063 A JP2004062063 A JP 2004062063A
Authority
JP
Japan
Prior art keywords
interface
interactive device
robot
voice
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002223698A
Other languages
Japanese (ja)
Inventor
Shinichi Yamamoto
山本 真一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002223698A priority Critical patent/JP2004062063A/en
Publication of JP2004062063A publication Critical patent/JP2004062063A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an interactive apparatus which can switch an interface for interaction according to the contents of the interaction. <P>SOLUTION: The interactive apparatus 1 is equipped with a first interface 80 for interacting with another interactive apparatus 1 in a first style, a second interface 70 for interacting with the latter interactive apparatus 1 in a second style different from the first style, a determining means 100 of determining the contents of the interaction with the latter interaction apparatus, and an interface selecting means 60 of selecting one of the first interface 80 and second interface 70 according to the contents of the interaction determined by the determining means 100, and those interactive apparatus 1 interact with each other through the interface selected by the interface selecting means 60. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、対話の内容に応じて、その対話を行うためのインターフェースを切り替えることが可能な対話型装置に関する。
【0002】
【従来の技術】
言葉を認識し、言葉に対する応答と言葉に応じた動作とを返す音声認識反応装置が知られている。例えば、特開平6−175689号公報、特開平6−327842号公報、特開平9−131468号公報などを参照。特に、特開平9−131468号公報には、玩具同士が対話する音声対話型玩具が開示されている。
【0003】
また、犬や猫のように4足歩行の動物を模倣したペットロボットやエンターテイメントロボットとしては、例えば、AIBOなどが既に市販されている。
【0004】
【発明が解決しようとする課題】
しかし、従来の技術では、音声対話型玩具同士の間で会話ができるものの、音声対話玩具を所有する所有者(主人)に対して何ら配慮がなされていない。
【0005】
また、日本能率協会総合研究所が行ったアンケート調査の結果、コンシューマが描く夢のロボットは「より本物に近いペットロボット」がトップ人気であった。人間と居住空間を共にする生活密着型の共生またはエンターテインメント型のロボットが待望されている。
【0006】
本発明は、対話の内容に応じて、その対話を行うためのインターフェースを切り替えることが可能な対話型装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明の対話型装置は、他の対話型装置と対話を行う対話型装置であって、前記他の対話型装置との対話を第1の態様で行うための第1のインターフェースと、前記他の対話型装置との対話を前記第1の態様とは異なる第2の態様で行うための第2のインターフェースと、前記他の対話型装置との対話の内容を決定する決定手段と、前記決定手段によって決定された対話の内容に応じて、前記第1のインターフェースおよび前記第2のインタフェースのうちの一方を選択するインターフェース選択手段とを備え、前記対話型装置と前記他の対話型装置との間の対話は、前記インターフェース選択手段によって選択されたインターフェースを介して行われ、これにより、上記目的が達成される。
【0008】
前記第1のインターフェースは、前記対話型装置の所有者に理解可能な態様で前記他の対話型装置との対話を行うためのインターフェースであり、前記第2のインターフェースは、前記対話型装置の所有者に理解不可能な態様で前記他の対話型装置との対話を行うためのインターフェースであってもよい。
【0009】
前記第1のインターフェースは、音声で前記他の対話型装置との対話を行うための音声インターフェースであり、前記第2のインターフェースは、非音声で前記他の対話型装置との対話を行うための非音声インターフェースであってもよい。
【0010】
前記非音声インターフェースは、無線を用いた通信インタフェースであってもよい。
【0011】
前記決定手段によって決定された対話の内容が前記対話型装置の所有者に聞かれてもよい内容である場合には、前記インターフェース選択手段は、前記第1のインターフェースを選択してもよい。
【0012】
前記決定手段によって決定された対話の内容が前記対話型装置の所有者に聞かれたくない内容である場合には、前記インターフェース選択手段は、前記第2のインターフェースを選択してもよい。
【0013】
前記対話型装置は、前記対話型装置が移動することを可能にする移動部をさらに備えていてもよい。
【0014】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施の形態を説明する。
【0015】
図1は、本発明の対話型装置1の一例として、ロボットA、ロボットBの構成を示す。ロボットA、Bは、互いに対話を行うことが可能なように構成されている。
【0016】
図1に示されるロボットA、Bは、「目」に相当するカメラ10と、「口」に相当するスピーカ84およびアンテナ74と、「耳」に相当するマイク30およびアンテナ74とを含んでいる。
【0017】
なお、後述するように、スピーカ84は、音声インターフェース80の少なくとも一部を構成し、アンテナ74は、非音声インターフェース70の少なくとも一部を構成する。
【0018】
図1に示される例では、ロボットAの所有者(主人)Aさんは独身女性であり、ロボットBの所有者(主人)Bさんは独身男性であると仮定する。また、ロボットA、Bには予め名前が登録されていると仮定する。
【0019】
ロボットA、Bは、自らが移動することを可能にする移動部160を有する自律走行型ロボット(移動式ロボット)であってもよいし、自らが移動することができないタイプのものであってもよい。
【0020】
ロボットA、Bが移動することを可能にするメカニズムとしては任意のメカニズムを採用することができる。例えば、ロボットA、Bは、手足に設置されたローラの回転を制御することによって前進、後退するように構成されていてもよいし、タイヤ式や脚式などの移動式ロボットでもよい。ロボットA、Bは、人のような二足直立歩行を行う動物を模倣した人間型ロボットでもよいし、4足歩行の動物を模倣したペット型ロボットでもよい。
【0021】
なお、対話型装置1の一例として、対話型のロボットを説明したが、対話型装置1はこれに限定されない。対話型装置1は、他の対話型装置1と対話を行うことが可能なように構成された任意の装置であり得る。対話型装置1は、例えば、対話型の玩具であってもよいし、対話型のエージェントであってもよい。
【0022】
図2は、対話型装置1の内部構成を示す。
【0023】
画像認識部20は、カメラ(画像入力部)10から画像を取り込み、その取り込んだ画像中から人物や他の対話型装置1を認識し、その認識結果を対象者特定部50に出力する。
【0024】
音声認識部40は、マイク(音声入力部)30から音声を取り込み、その取り込んだ音声を認識し、その認識結果を対象者特定部50に出力する。
【0025】
対象者特定部50は、画像の認識結果と音声の認識結果とに基づいて、人間(例えば、主人)や他の対話型装置1などの対象者を特定し、その特定された対象者を示す対象者特定情報をインターフェース(IF)選択部60に出力する。対象者特定情報は、対話型装置1の所有者の存在が認識されたか否かを示す所有者認識情報を含む。
【0026】
対象者特定情報により、対話型装置1の近くに主人や他の対話型装置1が存在することを検出することが可能になる。
【0027】
なお、対話型装置1が、1系統の画像入力部10および画像認識部20と、1系統の音声入力部30および音声認識部40とを含む例を説明したが、対話型装置1の構成はこれに限定されない。対話型装置1は、1系統のみの入力部および認識部を含んでいてもよいし、3系統以上の入力部および認識部を含んでいてもよい。
【0028】
言語処理部100は、他の対話型装置1との対話の内容を決定する。ここで、言語処理部100は、様々な態様で、他の対話型装置1との対話の内容を決定することができる。
【0029】
例えば、言語処理部100は、対話データベース120に格納されている対話のパターンを参照することによって対話の内容を決定してもよいし、個人データベース130に格納されている個人情報を参照することによって対話の内容を決定してもよいし、情報データベース140に格納されている情報を参照することによって対話の内容を決定してもよいし、これらのデータベースから得られる情報の組み合わせに応じて対話の内容を決定してもよい。
【0030】
対話データベース120には、対話のパターンや応答文の生成規則が格納されている。個人データベース130には、対話型装置1の所有者やその所有者の知り合いに関する情報(例えば、性別、年齢、名前、職業、性格、趣味、生年月日などの情報)や他の対話型装置1やその所有者に関する情報が格納されている。情報データベース140には、今日の天気やニュースなどの情報や各種一般常識などの知識が格納されている。今日の天気やニュースなどの情報は、例えば、対話型装置1の外部から送受信部72および言語処理部100を介して取得され、情報データベース140に格納される。
【0031】
さらに、個人データベース130には、過去の対話の履歴が格納されていてもよい。過去の対話の履歴を参照することによって過去と同じ対話を繰り返すことを回避することが可能となり、より自然に近い対話を行うことが可能になる。
【0032】
あるいは、言語処理部100は、画像入力部10から入力された画像の認識結果に応じて対話の内容を決定してもよいし、音声入力部30から入力された音声の認識結果に応じて対話の内容を決定してもよいし、これらの認識結果の組み合わせに応じて対話の内容を決定してもよい。
【0033】
あるいは、言語処理部100は、対象者特定部50から出力される対象者特定情報に応じて対話の内容を決定してもよい。
【0034】
あるいは、言語処理部100は、ランダムに生成される乱数に応じて対話の内容を決定してもよい。
【0035】
このように、言語処理部100は、他の対話型装置1との対話の内容を決定する決定手段として機能する。言語処理部100は、例えば、プログラムを格納するメモリ102と、そのメモリ102に格納されたプログラムを実行するCPU104とを含む。この場合、言語処理部100の機能および動作は、CPU104がメモリ102に格納されたプログラムを実行することによって実現される。
【0036】
さらに、言語処理部100は、言語処理部100によって決定された対話の内容を示す情報(例えば、対話の内容が対話型装置1の所有者に聞かれたくない内容か、聞かれてもよい内容かを示す情報)をIF選択部60に出力する。
【0037】
なお、対話の内容が対話型装置1の所有者に聞かれたくない内容であるか、聞かれてもよい内容かの区別は、例えば、対話データベース120に格納されている対話のパターンとともに、対話データベース120において定義され得る。このような対話のパターンは、デフォルトセットに固定されていてもよいし、対話型装置1の所有者の教育によりデフォルトセットから追加、変更可能なようになっていてもよい。
【0038】
IF選択部60は、言語処理部100から出力される対話の内容を示す情報を受け取り、その情報に応じて、音声インターフェース(第1のインターフェース)80および非音声インターフェース(第2のインターフェース)70のうちの一方を選択する。あるいは、IF選択部60は、言語処理部100から出力される対話の内容を示す情報に加えて、対象者特定部50から出力される対象者特定情報を考慮に入れて、音声インターフェース80および非音声インターフェース70のうちの一方を選択するようにしてもよい。音声インターフェース80および非音声インターフェース70のうちのどちらを選択するかは、例えば、IF選択部60の内部に設けられているメモリ(図示せず)に格納されている所定の規則を参照することによって決定される。
【0039】
このように、IF選択部60は、言語処理部100(決定手段)によって決定された対話の内容に応じて、他の対話型装置1との対話を第1の態様で行うための第1のインターフェースおよび他の対話型装置1との対話を第1の態様とは異なる第2の態様で行うための第2のインターフェースのうちの一方を選択するインターフェース選択手段として機能する。
【0040】
図2に示される例では、音声インターフェース80は、音声合成部82と音声出力部84とによって実現されている。音声出力部84は、例えば、スピーカである。図2に示される例では、非音声インターフェース70は、無線を用いた通信インターフェースであり、送受信部72とアンテナ74とによって実現されている。無線を用いた通信インターフェースとしては、任意の通信インターフェース(例えば、光通信や赤外線通信(IrDA)のための通信インターフェース)を用いることができる。
【0041】
IF選択部60が音声インターフェース80を選択した場合には、対話型装置1と他の対話型装置1との間の対話は、音声インターフェース80を介して行われる。この場合、言語処理部100から出力される対話の内容が音声合成部82によって音声に合成され、音声出力部84から出力される。IF選択部60が非音声インターフェース70を選択した場合には、対話型装置1と他の対話型装置1との間の対話は、非音声インターフェース70を介して行われる。この場合、言語処理部100から出力される対話の内容が送受信部72によって通信可能な形式に変換され、アンテナ74から無線で出力される。
【0042】
さらに、言語処理部100は、音声(言葉)または非音声(無線)の認識結果に応じて制御信号を生成し、その制御信号を動作制御部110に出力する。
【0043】
動作制御部110は、言語処理部100から出力される制御信号に応じて各種アクチュエータを駆動する。これにより、対話型装置1を所望の態様で動作させることが可能になる。
【0044】
図3は、対話型装置1が他の対話型装置1との対話の仕方を決定する処理の手順を示す。この処理は、例えば、プログラムの形式で言語処理部100内のメモリ102に格納され得る。この処理は、例えば、言語処理部100内のCPU104によって実行され得る。
【0045】
ここでは、対話型装置1の一例であるロボットBが、他の対話型装置1の一例であるロボットAとの対話を行う場合を例にとり、その処理の手順を説明する。ロボットAが、ロボットBとその所有者である独身男性のBさんに街中(例えば公園)で出会ったと仮定する。ロボットAは、ロボットBと知り合いであってもよいし、そうでなくてもよい。ロボットAがロボットBと知り合いであるか否かは、例えば、ロボットAが自分の個人データベース130を参照することによって判定することができる。
【0046】
ステップST1:ロボットBは、ロボットAを検出する。例えば、ロボットBの画像認識部20がロボットBの画像を認識することによって、ロボットBは、ロボットBの近くにロボットAが存在することを検出することができる。
【0047】
ステップST2:ロボットBは、ロボットAとの対話の内容を決定する。ここで、ロボットBは、様々な態様で、対話の内容を決定することができる。例えば、ロボットBの言語処理部100が、ロボットBの対話データベース120に格納されている対話のパターンを参照することによって対話の内容を決定してもよい。あるいは、ロボットBの言語処理部100が、ロボットBの個人データベース130(または、ロボットAの個人データベース130)に格納されている個人情報(例えば、ロボットAの所有者のAさんが独身女性であることなど)を参照することによって対話の内容を決定するようにしてもよい。
【0048】
ステップST3:ロボットBは、ロボットAとの対話の内容に応じて、音声インターフェース(第1のインターフェース)および非音声インターフェース(第2のインターフェース)のうちの一方を選択する。ロボットBが非音声インターフェースを選択した場合には、処理はステップST4に進む。ロボットBが音声インターフェースを選択した場合には、処理はステップST5に進む。
【0049】
ステップST4:ロボットBは、非音声インターフェースを介してロボットAとの対話を行う。
【0050】
図4Aは、ロボットBとロボットAとが非音声インターフェースを介して対話を行っている様子を示したものである。
【0051】
ステップST5:ロボットBは、音声インターフェースを介してロボットAとの対話を行う。
【0052】
図4Bは、ロボットBとロボットAとが音声インターフェースを介して対話を行っている様子を示したものである。
【0053】
ステップST6:ロボットBは、対話が終了したか否かを判定する。「No」の場合には処理はステップST2に戻り、「Yes」の場合には処理は終了する。
【0054】
ロボットBが、音声インターフェースを介してロボットAとの対話を行うか、非音声インターフェースを介してロボットAとの対話を行うかは、所定の規則に従って決定される。その所定の規則は、例えば、以下の<規則1>および<規則2>を含む。
【0055】
<規則1>:ロボットAとの対話の内容がロボットBの所有者(主人)に聞かれたくない内容である場合には、ロボットBは、非音声インターフェースを介してロボットAとの対話を行う。
【0056】
例1:ロボットBは、自分の主人に恋人を作ってあげることを目的として、ロボットAから情報を収集したり、自分の主人をロボットAに売り込む場合には、非音声インターフェースを介してロボットAとの対話を行う。例えば、ロボットBが、ロボットAの主人の趣味、性格などの情報をロボットAから聞き出したり、自分の主人の良さをロボットAにアピールして、ロボットAの主人にそれとなく話をしてもらうように依頼する場合が、この場合に該当する。
【0057】
例2:ロボットBは、自分の主人の悪口(癖、性格など)をロボットAに言ったり、自分の主人の愚痴をロボットAに聞いてもらう場合には、非音声インターフェースを介してロボットAとの対話を行う。例えば、ロボットBがエージェント機能を有している場合において、ロボットBが「主人の命令がころころ変わって困る」という文句をロボットAに言う場合や、「命令していないことを命令したといって主人が怒る」という愚痴をロボットAにこぼす場合が、この場合に該当する。
【0058】
例3:ロボットBは、自分が知らないことをロボットAに聞く場合には、非音声インターフェースを介してロボットAとの対話を行う。例えば、ロボットBが自分の主人から宿題を出されている場合において、ロボットBがその宿題の答えを見つけられない場合が、この場合に該当する。
【0059】
<規則2>:ロボットAとの対話の内容がロボットBの所有者(主人)に聞かれてもよい内容(もしくは、聞かせたい内容)である場合には、ロボットBは、音声インターフェースを介してロボットAとの対話を行う。
【0060】
例1:ロボットBは、自分の主人のごますりをする場合には、音声インターフェースを介してロボットAとの対話を行う。例えば、ロボットBが、自分の主人のごますりをすることによって主人からの宿題に答えられないことを許してもらうとする場合が、この場合に該当する。
【0061】
なお、ロボットBがロボットAを検出することは必須ではない。相手の有無にかからわず、ロボットBは自分から自発的に発話することができるからである。従って、図3のステップST1は省略可能である。
【0062】
なお、図3のステップST3において、ロボットBが、自分の主人が自分の近くにいるか否かを判定し、自分の主人が自分の近くにいると判定された場合に限って、ロボットBが、音声インターフェースおよび非音声インターフェースのうちの一方を選択するようにしてもよい。
【0063】
なお、上述した実施の形態では、対話型装置が、対話の内容に応じて、音声インターフェースおよび非音声インターフェースのうちの一方を選択するとしたが、選択の対象となるインターフェースは音声インターフェースおよび非音声インターフェースに限定されない。どのようなインターフェースを用いるにしろ、他のロボットとの対話を異なる態様で行うための複数のインターフェースと、対話の内容に応じて、その複数のインターフェースのうちの1つを選択するインターフェース選択部とを含む対話型装置は、本発明の範囲内である。
【0064】
例えば、音声インターフェースの代わりに第1の非音声インターフェース(第1のインターフェース)を用い、かつ、非音声インターフェースの代わりに第2の非音声インターフェース(第2のインターフェース)を用いるようにしてもよい。このようなインターフェースを用いた場合でも、第1の非音声インターフェースを介した対話を対話型装置の所有者に理解可能な態様の対話に変換するアダプタ(インターフェース変換器)を対話型装置の所有者が装着することにより、音声インターフェースおよび非音声インターフェースを用いた場合と同様の効果が得られる。対話型装置の所有者に理解可能な態様で対話を行うことは、音声で対話を行うことと同じ結果になるからである。
【0065】
あるいは、音声インターフェースの代わりに対話型装置の所有者に理解可能な態様で他の対話型装置との対話を行うためのインターフェース(第1のインターフェース)を用い、かつ、非音声インターフェースの代わりに対話型装置の所有者に理解不可能な態様で他の対話型装置との対話を行うためのインターフェース(第2のインターフェース)を用いるようにしてもよい。このようなインターフェースを用いた場合でも、音声インターフェースおよび非音声インターフェースを用いた場合と同様の効果が得られる。対話型装置の所有者に理解できない態様で対話を行うことは、非音声で対話を行うことと同じ結果になるからである。
【0066】
対話型装置の所有者に理解不可能な態様で他の対話型装置との対話を行うためのインターフェースの例としては、例えば、その所有者が第1の言語(例えば、日本語)しか理解できない場合において、その対話型装置が他の対話型装置との対話を第2の言語(例えば、英語)で行うための言語インターフェースが挙げられる。
【0067】
【発明の効果】
本発明の対話型装置によれば、対話の内容に応じて、その対話を行うためのインターフェースを切り替えることが可能になる。これにより、対話型装置が人間の行動に近い振る舞いを行うことが可能になり、対話型装置の所有者の満足感、所有欲を高めることができる。その結果、そのような対話型装置は、生活密着型の共生型の対話玩具となり得るとともに、より本物に近いペットロボットとなり得る。
【図面の簡単な説明】
【図1】本発明の対話型装置1の一例として、ロボットA、ロボットBの構成を示す図
【図2】対話型装置1の内部構成を示す図
【図3】対話型装置1が他の対話型装置1との対話の仕方を決定する処理の手順を示すフローチャート
【図4A】ロボットBとロボットAとが非音声インターフェースを介して対話を行っている様子を示す図
【図4B】ロボットBとロボットAとが音声インターフェースを介して対話を行っている様子を示す図
【符号の説明】
60 IF選択部
70 非音声インターフェース
80 音声インターフェース
100 言語処理部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an interactive device capable of switching an interface for performing an interaction according to the content of the interaction.
[0002]
[Prior art]
2. Description of the Related Art A speech recognition reaction device that recognizes a word and returns a response to the word and an operation corresponding to the word is known. For example, see JP-A-6-175689, JP-A-6-327842, and JP-A-9-131468. In particular, Japanese Unexamined Patent Publication No. Hei 9-131468 discloses a voice interactive toy in which toys interact with each other.
[0003]
As a pet robot or an entertainment robot imitating a four-legged animal such as a dog or a cat, for example, AIBO is already on the market.
[0004]
[Problems to be solved by the invention]
However, in the related art, although conversation can be performed between the voice interactive toys, no consideration is given to the owner (owner) who owns the voice interactive toy.
[0005]
In addition, as a result of a questionnaire survey conducted by the Japan Management Association Research Institute, the most popular dream robot drawn by consumers was “a pet robot that is closer to the real thing”. There is a long-awaited need for a living-type symbiotic or entertainment-type robot that shares a living space with humans.
[0006]
SUMMARY OF THE INVENTION It is an object of the present invention to provide an interactive device capable of switching an interface for performing the dialog according to the content of the dialog.
[0007]
[Means for Solving the Problems]
An interactive device according to the present invention is an interactive device for interacting with another interactive device, wherein a first interface for performing a dialog with the other interactive device in a first mode; A second interface for performing a dialog with the interactive device in a second mode different from the first mode, determining means for determining the content of the dialog with the other interactive device, and determining Interface selecting means for selecting one of the first interface and the second interface in accordance with the content of the dialogue determined by the means, wherein the interface between the interactive device and the other interactive device is provided. Interaction between them is performed via the interface selected by the interface selecting means, thereby achieving the above object.
[0008]
The first interface is an interface for interacting with the other interactive device in a manner understandable to the owner of the interactive device, and the second interface is an interface for owning the interactive device. It may be an interface for interacting with the other interactive device in a manner that cannot be understood by the user.
[0009]
The first interface is a voice interface for performing a dialog with the other interactive device by voice, and the second interface is a voice interface for performing a dialog with the other interactive device non-voice. It may be a non-voice interface.
[0010]
The non-voice interface may be a wireless communication interface.
[0011]
When the content of the dialogue determined by the determining unit is a content that may be heard by the owner of the interactive device, the interface selecting unit may select the first interface.
[0012]
If the content of the dialogue determined by the determining means is a content that the owner of the interactive device does not want to hear, the interface selecting means may select the second interface.
[0013]
The interactive device may further include a moving unit that allows the interactive device to move.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0015]
FIG. 1 shows a configuration of a robot A and a robot B as an example of an interactive device 1 of the present invention. The robots A and B are configured to be able to interact with each other.
[0016]
Robots A and B shown in FIG. 1 include a camera 10 corresponding to “eyes”, a speaker 84 and an antenna 74 corresponding to “mouth”, and a microphone 30 and an antenna 74 corresponding to “ears”. .
[0017]
Note that, as will be described later, the speaker 84 forms at least a part of the audio interface 80, and the antenna 74 forms at least a part of the non-audio interface 70.
[0018]
In the example shown in FIG. 1, it is assumed that the owner (master) A of the robot A is a single woman and the owner (master) B of the robot B is a single man. It is also assumed that robots A and B have their names registered in advance.
[0019]
The robots A and B may be autonomous mobile robots (mobile robots) having a moving unit 160 that allows the robots to move, or may be of a type that cannot move by themselves. Good.
[0020]
Any mechanism that enables the robots A and B to move can be used. For example, the robots A and B may be configured to move forward and backward by controlling the rotation of rollers installed on the limbs, or may be a mobile robot such as a tire type or a leg type. The robots A and B may be humanoid robots that imitate animals that walk bipedally, such as humans, or pet robots that imitate quadrupedal animals.
[0021]
Although the interactive robot has been described as an example of the interactive apparatus 1, the interactive apparatus 1 is not limited to this. The interactive device 1 may be any device configured to be able to interact with another interactive device 1. The interactive device 1 may be, for example, an interactive toy or an interactive agent.
[0022]
FIG. 2 shows an internal configuration of the interactive device 1.
[0023]
The image recognition unit 20 captures an image from the camera (image input unit) 10, recognizes a person or another interactive device 1 from the captured image, and outputs the recognition result to the subject identification unit 50.
[0024]
The voice recognition unit 40 captures voice from the microphone (voice input unit) 30, recognizes the captured voice, and outputs the recognition result to the target person specifying unit 50.
[0025]
The target person specifying unit 50 specifies a target person such as a human (for example, a master) or another interactive device 1 based on the image recognition result and the voice recognition result, and indicates the specified target person. The target person specifying information is output to the interface (IF) selecting unit 60. The target person identification information includes owner recognition information indicating whether or not the owner of the interactive device 1 has been recognized.
[0026]
The target person specifying information makes it possible to detect the presence of the master or another interactive device 1 near the interactive device 1.
[0027]
Note that the example in which the interactive device 1 includes one system of the image input unit 10 and the image recognition unit 20 and one system of the voice input unit 30 and the speech recognition unit 40 has been described. It is not limited to this. The interactive device 1 may include only one input unit and recognition unit, or may include three or more input units and recognition units.
[0028]
The language processing unit 100 determines the content of the dialog with the other interactive device 1. Here, the language processing unit 100 can determine the content of the dialogue with another interactive device 1 in various modes.
[0029]
For example, the language processing unit 100 may determine the content of the dialogue by referring to the dialogue pattern stored in the dialogue database 120, or may refer to the personal information stored in the personal database 130. The content of the dialog may be determined, the content of the dialog may be determined by referring to information stored in the information database 140, or the content of the dialog may be determined according to a combination of information obtained from these databases. The content may be determined.
[0030]
The conversation database 120 stores conversation patterns and rules for generating response sentences. The personal database 130 stores information (eg, information on gender, age, name, occupation, character, hobby, date of birth, etc.) regarding the owner of the interactive device 1 and the acquaintance of the owner, and other interactive devices 1. And information about its owner. The information database 140 stores information such as today's weather and news, and knowledge such as various common senses. Information such as today's weather and news is acquired from the outside of the interactive device 1 via the transmission / reception unit 72 and the language processing unit 100, for example, and stored in the information database 140.
[0031]
Further, the personal database 130 may store a history of past conversations. By referring to the history of past conversations, it is possible to avoid repeating the same conversations as in the past, and it is possible to conduct conversations that are more natural.
[0032]
Alternatively, the language processing unit 100 may determine the content of the dialogue according to the recognition result of the image input from the image input unit 10, or may determine the content of the dialogue according to the recognition result of the voice input from the voice input unit 30. May be determined, or the content of the dialog may be determined according to a combination of these recognition results.
[0033]
Alternatively, the language processing unit 100 may determine the content of the dialog according to the target person specifying information output from the target person specifying unit 50.
[0034]
Alternatively, the language processing unit 100 may determine the content of the dialog according to a randomly generated random number.
[0035]
As described above, the language processing unit 100 functions as a determination unit that determines the content of the dialogue with another interactive device 1. The language processing unit 100 includes, for example, a memory 102 that stores a program, and a CPU 104 that executes the program stored in the memory 102. In this case, the functions and operations of the language processing unit 100 are realized by the CPU 104 executing a program stored in the memory 102.
[0036]
Furthermore, the language processing unit 100 may provide information indicating the content of the dialogue determined by the language processing unit 100 (for example, whether the content of the dialogue is not desired to be heard by the owner of the interactive device 1 or may be heard. Is output to the IF selection unit 60.
[0037]
It should be noted that whether the content of the dialogue is the content that the owner of the interactive device 1 does not want to hear or the content that may be heard can be determined, for example, together with the dialogue pattern stored in the dialogue database 120 together with the dialogue pattern. It can be defined in the database 120. Such an interaction pattern may be fixed to the default set, or may be added or changed from the default set by the education of the owner of the interactive device 1.
[0038]
The IF selection unit 60 receives the information indicating the content of the dialogue output from the language processing unit 100, and according to the information, determines whether the voice interface (first interface) 80 or the non-voice interface (second interface) 70 Choose one of them. Alternatively, the IF selection unit 60 considers the subject identification information output from the subject identification unit 50 in addition to the information indicating the content of the dialogue output from the language processing unit 100, and One of the audio interfaces 70 may be selected. Which of the voice interface 80 and the non-voice interface 70 is selected is determined, for example, by referring to a predetermined rule stored in a memory (not shown) provided inside the IF selection unit 60. It is determined.
[0039]
As described above, the IF selection unit 60 performs the first interaction with the other interactive device 1 in the first mode according to the content of the interaction determined by the language processing unit 100 (determination unit). The interface functions as an interface selection unit that selects one of the second interfaces for performing the interaction with the interface and the other interactive device 1 in a second mode different from the first mode.
[0040]
In the example shown in FIG. 2, the voice interface 80 is realized by a voice synthesis unit 82 and a voice output unit 84. The audio output unit 84 is, for example, a speaker. In the example illustrated in FIG. 2, the non-voice interface 70 is a communication interface using wireless communication, and is realized by the transmission / reception unit 72 and the antenna 74. An arbitrary communication interface (for example, a communication interface for optical communication or infrared communication (IrDA)) can be used as the communication interface using wireless communication.
[0041]
When the IF selection unit 60 selects the voice interface 80, the dialog between the interactive device 1 and another interactive device 1 is performed via the voice interface 80. In this case, the contents of the dialogue output from the language processing unit 100 are synthesized into a voice by the voice synthesis unit 82 and output from the voice output unit 84. When the IF selecting unit 60 selects the non-voice interface 70, the dialog between the interactive device 1 and another interactive device 1 is performed via the non-voice interface 70. In this case, the content of the dialogue output from the language processing unit 100 is converted into a communicable format by the transmission / reception unit 72 and output wirelessly from the antenna 74.
[0042]
Furthermore, the language processing unit 100 generates a control signal according to the recognition result of voice (word) or non-voice (wireless), and outputs the control signal to the operation control unit 110.
[0043]
The operation control unit 110 drives various actuators according to a control signal output from the language processing unit 100. This allows the interactive device 1 to operate in a desired manner.
[0044]
FIG. 3 shows a procedure of a process in which the interactive device 1 determines how to interact with another interactive device 1. This processing can be stored in the memory 102 in the language processing unit 100 in the form of a program, for example. This processing can be executed by, for example, the CPU 104 in the language processing unit 100.
[0045]
Here, the procedure of the process will be described by taking, as an example, a case where a robot B, which is an example of the interactive device 1, interacts with a robot A, which is an example of another interactive device 1. It is assumed that the robot A meets the robot B and a single man, Mr. B, who is the owner of the robot B in a city (for example, a park). Robot A may or may not know robot B. Whether or not the robot A knows the robot B can be determined, for example, by referring to the personal database 130 of the robot A.
[0046]
Step ST1: The robot B detects the robot A. For example, when the image recognition unit 20 of the robot B recognizes the image of the robot B, the robot B can detect that the robot A exists near the robot B.
[0047]
Step ST2: The robot B determines the content of the dialogue with the robot A. Here, the robot B can determine the content of the dialog in various modes. For example, the language processing unit 100 of the robot B may determine the content of the dialogue by referring to the dialogue pattern stored in the dialogue database 120 of the robot B. Alternatively, the language processing unit 100 of the robot B sends the personal information stored in the personal database 130 of the robot B (or the personal database 130 of the robot A) (for example, the owner A of the robot A is a single woman. , Etc.) may be used to determine the content of the dialogue.
[0048]
Step ST3: The robot B selects one of a voice interface (first interface) and a non-voice interface (second interface) according to the content of the dialogue with the robot A. If the robot B has selected the non-voice interface, the process proceeds to step ST4. If the robot B has selected the voice interface, the process proceeds to step ST5.
[0049]
Step ST4: The robot B interacts with the robot A via the non-voice interface.
[0050]
FIG. 4A shows a situation where the robot B and the robot A are interacting via a non-voice interface.
[0051]
Step ST5: The robot B interacts with the robot A via the voice interface.
[0052]
FIG. 4B shows a state where the robot B and the robot A are interacting via the voice interface.
[0053]
Step ST6: The robot B determines whether or not the conversation has ended. If “No”, the process returns to step ST2, and if “Yes”, the process ends.
[0054]
Whether the robot B interacts with the robot A via the voice interface or the robot A via the non-voice interface is determined according to a predetermined rule. The predetermined rule includes, for example, the following <Rule 1> and <Rule 2>.
[0055]
<Rule 1>: If the content of the dialogue with the robot A does not want to be heard by the owner (master) of the robot B, the robot B performs a dialogue with the robot A via the non-voice interface. .
[0056]
Example 1: Robot B collects information from Robot A for the purpose of creating a lover for his master, or sells his master to Robot A, and uses Robot A via a non-voice interface. Interact with. For example, the robot B can hear information such as the hobby and personality of the master of the robot A from the robot A, and can appeal the goodness of the master to the robot A so that the master of the robot A speaks implicitly. Requesting this corresponds to this case.
[0057]
Example 2: When the robot B tells the robot A the bad mood (habit, personality, etc.) of its master, or when the robot A asks the robot A to hear the complaint of the master, the robot B communicates with the robot A via the non-voice interface. Conduct a dialogue. For example, when the robot B has an agent function and the robot B complains to the robot A that "the master's command is difficult to change" or " This case corresponds to a case in which the robot A spills a complaint that the master is angry.
[0058]
Example 3: When the robot B asks the robot A what he does not know, the robot B interacts with the robot A via a non-voice interface. For example, this case corresponds to a case where the robot B does not find an answer to the homework when its master has given homework.
[0059]
<Rule 2>: If the content of the dialogue with the robot A is the content that the owner (master) of the robot B may be able to hear (or want to hear), the robot B communicates via the voice interface. Interact with the robot A.
[0060]
Example 1: Robot B interacts with Robot A via a voice interface when playing with his master. For example, this case corresponds to a case where the robot B wants to allow the robot B to answer the homework from the master by fumbling with the master.
[0061]
It is not essential that the robot B detect the robot A. This is because the robot B can spontaneously speak from itself regardless of the presence or absence of the other party. Therefore, step ST1 in FIG. 3 can be omitted.
[0062]
Note that in step ST3 of FIG. 3, the robot B determines whether or not its own master is close to itself, and only when it is determined that its own master is close to itself, the robot B One of a voice interface and a non-voice interface may be selected.
[0063]
In the above-described embodiment, the interactive device selects one of the voice interface and the non-voice interface according to the content of the dialog. However, the interface to be selected is the voice interface or the non-voice interface. It is not limited to. Whatever interface is used, a plurality of interfaces for performing a dialog with another robot in different modes, and an interface selecting unit for selecting one of the plurality of interfaces according to the content of the dialog. Interactive devices that include are within the scope of the invention.
[0064]
For example, a first non-voice interface (first interface) may be used instead of the voice interface, and a second non-voice interface (second interface) may be used instead of the non-voice interface. Even when such an interface is used, an adapter (interface converter) that converts a dialogue via the first non-voice interface into a dialogue that can be understood by the owner of the interactive device is provided by the owner of the interactive device. The same effect as in the case where the voice interface and the non-voice interface are used can be obtained by mounting. Interacting in a manner that is understandable to the owner of the interactive device has the same effect as conducting an audio conversation.
[0065]
Alternatively, an interface (first interface) for performing interaction with another interactive device in a manner understandable to the owner of the interactive device is used instead of the voice interface, and the dialog is used instead of the non-voice interface. An interface (second interface) for interacting with another interactive device in a manner that cannot be understood by the owner of the model device may be used. Even when such an interface is used, the same effect as when the voice interface and the non-voice interface are used can be obtained. Interacting in a manner incomprehensible to the owner of the interactive device has the same result as interacting non-speech.
[0066]
An example of an interface for interacting with another interactive device in a manner that the owner of the interactive device cannot understand is, for example, that the owner can only understand the first language (eg, Japanese) In some cases, a language interface is provided for the interactive device to interact with another interactive device in a second language (eg, English).
[0067]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to the interactive apparatus of this invention, it becomes possible to switch the interface for performing the dialog according to the content of the dialog. As a result, the interactive device can perform a behavior close to human behavior, and the satisfaction and desire of the owner of the interactive device can be increased. As a result, such an interactive device can be a life-based symbiotic interactive toy and a pet robot closer to the real thing.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a robot A and a robot B as an example of an interactive device 1 of the present invention. FIG. 2 is a diagram showing an internal configuration of the interactive device 1. FIG. FIG. 4A is a flowchart showing a procedure of a process for determining how to interact with the interactive apparatus 1. FIG. 4A is a diagram showing a situation where the robot B and the robot A are interacting via a non-voice interface. Showing the dialogue between the robot and the robot A via the voice interface.
60 IF selection unit 70 Non-voice interface 80 Voice interface 100 Language processing unit

Claims (7)

他の対話型装置と対話を行う対話型装置であって、
前記他の対話型装置との対話を第1の態様で行うための第1のインターフェースと、
前記他の対話型装置との対話を前記第1の態様とは異なる第2の態様で行うための第2のインターフェースと、
前記他の対話型装置との対話の内容を決定する決定手段と、
前記決定手段によって決定された対話の内容に応じて、前記第1のインターフェースおよび前記第2のインタフェースのうちの一方を選択するインターフェース選択手段と
を備え、
前記対話型装置と前記他の対話型装置との間の対話は、前記インターフェース選択手段によって選択されたインターフェースを介して行われる、対話型装置。
An interactive device for interacting with another interactive device,
A first interface for performing interaction with the other interactive device in a first manner;
A second interface for performing a dialog with the other interactive device in a second mode different from the first mode;
Determining means for determining the content of the dialogue with the other interactive device,
Interface selecting means for selecting one of the first interface and the second interface in accordance with the content of the dialogue determined by the determining means,
An interactive device, wherein the interaction between the interactive device and the other interactive device is performed via an interface selected by the interface selecting means.
前記第1のインターフェースは、前記対話型装置の所有者に理解可能な態様で前記他の対話型装置との対話を行うためのインターフェースであり、前記第2のインターフェースは、前記対話型装置の所有者に理解不可能な態様で前記他の対話型装置との対話を行うためのインターフェースである、請求項1に記載の対話型装置。The first interface is an interface for interacting with the other interactive device in a manner that can be understood by the owner of the interactive device, and the second interface is an owner of the interactive device. The interactive device according to claim 1, wherein the interface is an interface for performing interaction with the other interactive device in a manner that cannot be understood by a user. 前記第1のインターフェースは、音声で前記他の対話型装置との対話を行うための音声インターフェースであり、前記第2のインターフェースは、非音声で前記他の対話型装置との対話を行うための非音声インターフェースである、請求項1に記載の対話型装置。The first interface is a voice interface for performing a dialog with the other interactive device by voice, and the second interface is a voice interface for performing a dialog with the other interactive device non-voice. The interactive device of claim 1, wherein the interactive device is a non-voice interface. 前記非音声インターフェースは、無線を用いた通信インタフェースである、請求項3に記載の対話型装置。The interactive device according to claim 3, wherein the non-voice interface is a wireless communication interface. 前記決定手段によって決定された対話の内容が前記対話型装置の所有者に聞かれてもよい内容である場合には、前記インターフェース選択手段は、前記第1のインターフェースを選択する、請求項2から請求項4のいずれかに記載の対話型装置。3. The interface selecting unit selects the first interface when the content of the dialogue determined by the determining unit is a content that may be heard by the owner of the interactive device. 4. An interactive device according to claim 4. 前記決定手段によって決定された対話の内容が前記対話型装置の所有者に聞かれたくない内容である場合には、前記インターフェース選択手段は、前記第2のインターフェースを選択する、請求項2から請求項4のいずれかに記載の対話型装置。3. The interface according to claim 2, wherein when the content of the dialogue determined by the determining unit is a content that the owner of the interactive device does not want to be heard, the interface selecting unit selects the second interface. 4. Item 6. The interactive device according to any one of Items 4. 前記対話型装置は、前記対話型装置が移動することを可能にする移動部をさらに備えている、請求項1に記載の対話型装置。The interactive device according to claim 1, wherein the interactive device further comprises a moving unit that allows the interactive device to move.
JP2002223698A 2002-07-31 2002-07-31 Interactive apparatus Withdrawn JP2004062063A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002223698A JP2004062063A (en) 2002-07-31 2002-07-31 Interactive apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002223698A JP2004062063A (en) 2002-07-31 2002-07-31 Interactive apparatus

Publications (1)

Publication Number Publication Date
JP2004062063A true JP2004062063A (en) 2004-02-26

Family

ID=31943387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002223698A Withdrawn JP2004062063A (en) 2002-07-31 2002-07-31 Interactive apparatus

Country Status (1)

Country Link
JP (1) JP2004062063A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025658A (en) * 2007-07-20 2009-02-05 Oki Electric Ind Co Ltd Speech synthesizer and speech synthesis system
JP2018017764A (en) * 2016-07-25 2018-02-01 トヨタ自動車株式会社 Robot and voice interactive method
WO2019187549A1 (en) * 2018-03-27 2019-10-03 ソニー株式会社 Information processing device and information processing method
JP2019175432A (en) * 2018-03-26 2019-10-10 カシオ計算機株式会社 Dialogue control device, dialogue system, dialogue control method, and program
JP2021026657A (en) * 2019-08-08 2021-02-22 株式会社Nttドコモ Information processing unit

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025658A (en) * 2007-07-20 2009-02-05 Oki Electric Ind Co Ltd Speech synthesizer and speech synthesis system
JP2018017764A (en) * 2016-07-25 2018-02-01 トヨタ自動車株式会社 Robot and voice interactive method
JP2019175432A (en) * 2018-03-26 2019-10-10 カシオ計算機株式会社 Dialogue control device, dialogue system, dialogue control method, and program
WO2019187549A1 (en) * 2018-03-27 2019-10-03 ソニー株式会社 Information processing device and information processing method
US11620997B2 (en) 2018-03-27 2023-04-04 Sony Corporation Information processing device and information processing method
JP2021026657A (en) * 2019-08-08 2021-02-22 株式会社Nttドコモ Information processing unit

Similar Documents

Publication Publication Date Title
US11024294B2 (en) System and method for dialogue management
US20190206402A1 (en) System and Method for Artificial Intelligence Driven Automated Companion
US11003860B2 (en) System and method for learning preferences in dialogue personalization
US11504856B2 (en) System and method for selective animatronic peripheral response for human machine dialogue
EP1256931A1 (en) Method and apparatus for voice synthesis and robot apparatus
KR100953902B1 (en) Information processing system, information processing method, computer readable medium for storing information processing program, terminal and server
JP7173031B2 (en) Information processing device, information processing method, and program
JP2000187435A (en) Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
JP2003205483A (en) Robot system and control method for robot device
US10967508B2 (en) System and method for dynamic robot configuration for enhanced digital experiences
US10994421B2 (en) System and method for dynamic robot profile configurations based on user interactions
JP4622384B2 (en) ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
US20190251716A1 (en) System and method for visual scene construction based on user communication
WO2021003471A1 (en) System and method for adaptive dialogue management across real and augmented reality
US11331807B2 (en) System and method for dynamic program configuration
JP2002049385A (en) Voice synthesizer, pseudofeeling expressing device and voice synthesizing method
JP2023055910A (en) Robot, dialogue system, information processing method, and program
JP2004062063A (en) Interactive apparatus
CN110625608A (en) Robot, robot control method, and storage medium
JP7156300B2 (en) Information processing device, information processing method, and program
JP2004045591A (en) Method for recognizing voice and method for providing specific speaker&#39;s voice dictionary
CN112262024B (en) System and method for dynamic robot configuration for enhanced digital experience
JP2002239962A (en) Robot device, and action control method and system of robot device
KR20230103666A (en) Method and apparatus for providing a metaverse virtual reality companion animal capable of conducting a voice conversation with a user through learning about beavior and personality in a communication system
JP2004046400A (en) Speaking method of robot

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051004