JP2004160630A - Robot device and controlling method of the same - Google Patents

Robot device and controlling method of the same Download PDF

Info

Publication number
JP2004160630A
JP2004160630A JP2002339853A JP2002339853A JP2004160630A JP 2004160630 A JP2004160630 A JP 2004160630A JP 2002339853 A JP2002339853 A JP 2002339853A JP 2002339853 A JP2002339853 A JP 2002339853A JP 2004160630 A JP2004160630 A JP 2004160630A
Authority
JP
Japan
Prior art keywords
information
target
unit
robot
wireless tag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002339853A
Other languages
Japanese (ja)
Inventor
Kensuke Motomura
謙介 本村
Tsunetaro Matsuoka
恒太郎 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002339853A priority Critical patent/JP2004160630A/en
Publication of JP2004160630A publication Critical patent/JP2004160630A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Credit Cards Or The Like (AREA)
  • Toys (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot device which accurately checks and identifies information on an object existent outside which is hardly detected by a camera or various sensors. <P>SOLUTION: The robot device which autonomously acts and is controlled in accordance with input information from outside has an RFID reader section 19 which is a radio tag reading means for reading data stored in the RFID tag from a radio tag provided for an object existent outside, a so-called FRID (Radio Frequency Identification) tag and a controller 10 which controls the actions in accordance with status identification information corresponding to object related information related to the object in response to the data read out by the RFID reader section 19. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、ロボット装置及びその制御方法に関するものであり、例えば、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置及びそのようなロボット装置の制御方法に関するものである。
【0002】
【従来の技術】
人間や動物等の動作に似せた運動を例えば電気的や磁気的な作用を用いて行う機械装置のことを「ロボット」という。わが国においてロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。
【0003】
アーム式ロボットのように、ある特定の場所に設置して用いるような据置きタイプのロボットは、部品の組立・選別作業など固定的・局所的な作業空間でのみ活動する。これに対し、移動式のロボットは、作業空間は非限定的であり、所定の経路上又は無経路上を自在に移動して、所定の若しくは任意の人的作業を代行したり、ヒトやイヌあるいはその他の生命体に置き換わる種々の幅広いサービスを提供することができる。なかでも脚式の移動ロボットは、クローラ式やタイヤ式の移動ロボットに比し不安定で姿勢制御や歩行制御が難しくなるが、階段や梯子の昇降や障害物の乗り越えや、整地・不整地の区別を間わない柔軟な歩行・走行動作を実現できるという点で優れている。
【0004】
最近では、イヌやネコのように4足歩行の動物の身体メカニズムやその動作を模したいわゆるペット型ロボット、あるいは、ヒトのような2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」のロボット(humanoid robot)など、脚式移動ロボットに関する研究開発が進展し、実用化への期待もますます高まってきている。
【0005】
例えば、動物を模した形状とされたロボット装置であるペット型ロボットは、一般家庭において飼育される犬や猫に似た形状を有し、ユーザ(飼い主)からの「叩く」や「撫でる」といった働きかけや、周囲の環境等に応じて自律的に行動する。例えば、自律的な行動として、実際の動物と同様に、「吠える」、「寝る」等といった行動をする。
【0006】
ところで、ロボット装置が実際の動物のような行動に、より近づくことができれば、ロボット装置の生物感が一層増し、ユーザ(飼い主)は、ロボット装置に一層の親近感や満足感を感じる。これにより、ロボット装置のアミューズメント性が向上する。
【0007】
このようなロボット装置は、所定の自由度を持つアクチュエータと所定の物理量を検出するセンサ等を所定の位置に配置された機構部とを有し、マイクロコンピュータを用いた制御部によって、外部からの情報に対して所定の動作を行なうように構成されている(例えば、特許文献1参照。)。
【0008】
【特許文献1】
特開2001−154679
【0009】
【発明が解決しようとする課題】
ところで、上述のロボット装置において、外部から与えられる情報を検出する方法としては、
(1)マイク等から得られる音声データを検出し、その音声データの音声認識結果を使用する方法、
(2)CCDカメラ等から得られる画像データを検出し、その画像データの画像認識結果を使用する方法、
(3)タッチセンサ等による物理的な働きかけにより受けた圧力を検出し、その選出結果を使用する方法、
(4)温度センサ、湿度センサや匂いセンサ等によるロボット装置周辺の環境状況を検出し、その検出結果を使用する方法
等が知られている。
【0010】
しかしながら、このような音声、画像、圧力、環境状況による情報検出方法において、表面の状態や形状が似ていて異なる物体が、ロボット装置の周囲に複数存在する場合に、その物体の識別は困難である。また、一般に物体の認識には、画像データを検出し、その画像認識結果を用いる方法が最も有力な方法であるが、画像データを検出するためには明るさが必要であり、外部環境が暗いと有効な認識が行えない。
【0011】
例えば、夜など暗い環境下では、CCDカメラから得られる画像データの情報量が不足し、正確で詳細な画像認識結果を得られないという欠点があった。その結果、暗い環境では、例えば壁や階段がある場合、ロボット装置は壁に衝突したり、階段から転落したりする可能性があった。
【0012】
また、従来のロボット装置においては、周囲の生物や物体を正確に識別することができないため、生物が周囲の生物(人間や動物等)や物体(他のロボット装置等)との間の高度な関係(家族関係、血縁関係、主従関係など)を構築しているように演じることが困難であった。
【0013】
例えば、飼育される犬や猫等のペットであれば、ペットは自分の飼い主とそれ以外の人間の識別が可能であり、飼い主とペットは、互いの主従関係を認識し、その主従関係に応じて行動することが可能である。しかし、従来のロボット装置では、飼い主と似た人物が複数存在する場合、飼い主とそれ以外の人間の識別が難しく、飼い主との主従関係を構築するように行動し、動作することは困難である。
【0014】
そこで、本発明は、このような実情に鑑みて提案されたものであり、マイク、カメラや種々のセンサで検出することが困難であった物体の情報の確認や物体の識別が行え、また、外部環境が暗くとも物体認識や外部状態認識が有効に行えるようなロボット装置及びその制御方法を提供することを目的とする。また、本発明は、ロボット装置が周囲の生物や物体等を正確に識別する方法を提供することにより、生物が構築するような高度な関係を、ロボット装置が周囲の生物や物体等の対象との間に構築するようにロボット装置が動作することを可能とするようなロボット装置及びその制御システムを提供することを目的とする。
【0015】
【課題を解決するための手段】
本発明に係るロボット装置は、上述の課題を解決するために、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置であって、外部に存在する対象(人間や動物等を含む生物や、ボール、机、壁、段差部等の物体、あるいは他のロボット装置等)に設けられた無線タグ、いわゆるRFID(Radio Frequency Identification)タグから、該無線タグに記憶されているデータを読み取る無線タグ読取手段(RFIDリーダ)と、上記無線タグ読取手段により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に対応する状態認識情報に基づいて上記行動を制御する制御手段とを有することを特徴とする。
【0016】
ここで、上記無線タグ読取手段により読み取られたデータと上記外部の対象に関する情報である上記対象関連情報とを関連付けたテーブルが記録された記憶手段を有し、上記制御手段は、上記無線タグ読取手段により読み取られたデータに関連付けられて上記記憶手段から読み出した上記対象関連情報に対応する状態認識情報に基づいて、上記行動を制御することが好ましい。
【0017】
あるいは、上記無線タグには上記外部の対象に関する情報である上記状態認識情報が記録されており、上記無線タグ読取手段は、上記無線タグに記憶されているデータから上記対象関連情報を読み取り、上記制御手段は、上記無線タグ読取手段により読み取られた上記対象関連情報に応じた状態認識情報に基づいて、上記行動を制御することが好ましい。
【0018】
また、上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作の方法に関する行動情報を含み、上記行動情報は、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化の内の少なくとも1つであり、上記制御手段は、上記対象関連情報に含まれる上記行動情報に基づいて、上記行動を制御することが挙げられる。
【0019】
また、上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作を規制する外部の環境に関する環境情報を含み、上記環境情報は、階段、床、壁、段差、穴、柱、角、玄関、居間、食堂、和室、洋室、浴室、窓、通路、リビング、部屋の位置情報、の内の少なくとも1つであり、上記制御手段は、上記対象関連情報に含まれる上記環境情報に基づいて、上記行動を制御することが挙げられる。
【0020】
また、上記外部の対象に関する情報である上記対象関連情報は、ロボット装置が上記外部の対象と構築する関係に関する関係情報を含み、上記関係情報は、家族関係、血縁関係、友人関係、主従関係、地域関係、スポーツのメンバー、資本家・労働者関係、売り買い関係、恋愛関係、顧客関係の内の少なくとも1つであり、上記制御手段は、上記対象関連情報に含まれる上記関係情報に基づいて、当該ロボット装置が、祖父、祖母、父、母、兄、姉、弟、妹、友人、隣人、いとこ、叔父、祖母、学友、先生、生徒、チームメイト、ライバル、敵、親戚、他人、知人、主人、使用人、従者、ペット、盲導犬、女性、男性、恋人、少年、少女、大人、子供、赤ちゃん、老人、青年、既婚者、未婚者、未亡人、ボランティア、看護婦、看護士、医者、案内人、ウェイトレス、ウェイター、スチュワーデス、アテンダント、駅員、交通係、説明員、お客、販売人、警備員、警察、パトロール、消防士、ガードマン、セールスマン、清掃人、芸人の内の少なくとも1つを演じるように行動を制御することが挙げられる。
【0021】
また、本発明に係るロボット装置は、上記行動で感情を表現する表出手段と、上記表出手段を駆動する駆動手段と、上記無線タグ読取手段により読み取られたデータと上記対象に関する情報(対象関連情報)を関連付けたテーブルを記録する記憶手段とを有し、上記制御手段は、上記無線タグ読取手段により読み取られたデータに関連付けられて上記記憶手段から読み出した上記対象関連情報に応じた状態認識情報に基づいて、上記駆動手段を制御することを特徴とする。
【0022】
無線タグ読取手段(RFIDリーダ)が読み取った上記データは、上記制御手段へ伝達され、制御手段は無線タグ読取手段からの上記データにより上記テーブルを参照して、上記データに関連づけられた対象関連情報を記憶手段から読み出す。制御手段は記憶手段から読み出した対象関連情報に応じた状態認識情報に基づいて、駆動手段を制御して、表出手段を駆動する。
【0023】
表出手段の例としては、動物の手足等に模した可動なパーツ、スピーカー等による音響出力、又は発光ダイオード等による発光手段がある。また表出手段は複数種類の表出部の組み合わせであってもよく、制御手段は記憶手段から読み出した対象関連情報に基づいて、複数種類の表出部の駆動を制御することが可能である。
【0024】
上記対象関連情報に応じた状態認識情報に基づいて、出現するロボットの行動は、少なくとも本能的要素又は情動的要素からなるもので構成されていることが挙げられる。
【0025】
ここで、上記本能的要素が、疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、排泄(elimination)又は性欲(sexual)のうちの少なくとも1つであり、上記情動的要素が、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)の内の少なくとも1つであることが挙げられる。
【0026】
上記ロボット装置の外観は動物に模した外観形状をしていて、無線タグ読取手段は、例えば、動物の顔部分に備え付けられている。
【0027】
ロボット装置は、タッチセンサ等の接触を検出する接触検出手段を備えて、上記接触検出手段による検出結果は上記制御手段へ伝達され、上記制御手段が上記検出結果により接触を検出した場合に、一定時間、無線タグ読取手段の動作を実行させることも可能である。また、例えばカメラによる画像認識や赤外線センサ等による、物体の有無や状態を光学的に検出する光学的検出手段を備えて、上記光学的検出手段による検出結果は上記制御手段へ伝達され、上記制御手段が上記光学的検出結果により物体の有無や状態を検出した場合に、一定時間、上記無線タグ読取手段の動作を実行させることも可能である。
【0028】
また、本発明に係るロボット装置の制御方法は、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置の制御方法であって、外部に存在する対象に設けられた無線タグから該無線タグに記憶されているデータを読み取る無線タグ読取工程と、上記無線タグ読取工程により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に対応する状態認識情報に基づいて上記行動を制御する制御工程とを有することを特徴とする。
【0029】
【発明の実施の形態】
以下、本発明を適用した実施の形態について、図面を参照しながら説明する。
【0030】
図1は、本発明の実施の形態となるロボット装置の外観構成例を示す斜視図であり、図2は、その電気的構成例を示すブロック図である。
【0031】
この実施の形態は、周囲の環境(外的要因)や内部の状態(内的要因)に応じて自律的に行動をする自律型のロボット装置であり、具体例として、「犬」を模した形状のいわゆるペットロボットを示しているが、他の動物形や、人間等を模した2足歩行ロボット等にも本発明を適用可能であることは勿論である。
【0032】
図1において、ロボット装置1は、胴体部ユニット2の前後左右に、それぞれ脚部ユニット3A,3B,3C,3Dが連結されると共に、胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユニット4及び尻尾部ユニット5が連結されて構成されている。尻尾部ユニット5は、胴体部ユニット2の上面に設けられたベース部から、尻尾5Aが2自由度をもって湾曲または揺動自在に引き出されている。
【0033】
胴体部ユニット2には、図2に示すように、ロボット全体の制御を行うコントローラ10、ロボットの動力源となるバッテリ11、並びにバッテリセンサ12および熱センサ13からなる内部センサ部14などが収納されている。
【0034】
頭部ユニット4には、外部音を集音するための「耳」に相当するマイク(マイクロフォン)15、外部の状況を視覚的に検出する「目」に相当するCCD(Charge Coupled Device)カメラ16、外部からの圧力等を検出する触覚に相当するタッチセンサ17、音声等を出力する「口」に相当するスピーカ18、外部の物体に設けられたRFIDタグ(無線タグ)の情報(IDデータ等)を読み取るRFIDリーダ部(無線タグ読取手段)19などが、それぞれ所定位置に配設されている。
【0035】
ここで、RFID(Radio Frequency Identification)とは、非接触型の自動認識技術のことであり、例えばICと小型アンテナが組み込まれたタグ等の媒体から、電波等を介して情報を読み取る。媒体となるタグ(付け札)は、RFIDタグ、無線タグ、ICタグ等と称され、カード状やラベル状、マイクロチップ状等、種々の形状がある。RFID識別技術は、バーコードに代わる技術として、RFIDタグをあらゆる製品に埋め込んで製品の情報を管理することが期待されているのみならず、ゲートやドアの開閉、通過管理や、小包や荷物の配送管理等の種々の利用形態が提案されている。RFIDリーダ部19は、このようなRFIDタグ(無線タグ)に記憶されているデータ(IDデータ等)を読み取るためのものである。なお、RFIDシステムの情報伝送方式には、電磁誘導方式、電磁結合方式、マイクロ波方式、静電結合方式、光方式等が挙げられるが、上記RFIDリーダ部19としては、いずれの方式に対応する情報読取手段を用いてもよく、また、複数の方式に対応させてもよく、さらに、書込機能を有するリーダ/ライタであってもよいことは勿論である。
【0036】
脚部ユニット3A乃至3Dそれぞれの関節部分や、脚部ユニット3A乃至3Dそれぞれと胴体部ユニット2の連結部分、頭部ユニット4と胴体部ユニット2の連結部分、並びに尻尾部ユニット5と胴体部ユニット2の連結部分などには、図2に示すように、それぞれアクチュエータ3AA乃至3AA、3BA乃至3BA、3CA乃至3CA、3DA乃至3DA、4A乃至4A、5Aおよび5Aが配設されており、これにより、各連結部分は、所定の自由度をもって回転することができるようになっている。
【0037】
頭部ユニット4におけるマイク15は、ユーザからの発話を含む周囲の音声(音)を集音し、得られた音声信号を、コントローラ10に送出する。CCDカメラ16は、周囲の状況を撮像し、得られた画像信号を、コントローラ10に送出する。RFIDリーダ部19は、周囲の物体に備え付けられたRFIDタグから、そのRFIDタグに記録された情報(IDデータ等)を非接触又は接触により読み取り、その読み取った信号をRFID信号として、コントローラ10に送出する。
【0038】
タッチセンサ17は、例えば、頭部ユニット4の上部に設けられており、ユーザからの「なでる」や「たたく」といった物理的な働きかけにより受けた圧力を検出し、その検出結果を圧力検出信号としてコントローラ10に送出する。
【0039】
胴体部ユニット2におけるバッテリセンサ12は、バッテリ11の残量を検出し、その検出結果を、バッテリ残量検出信号としてコントローラ10に送出する。熱センサ13は、ロボット内部の熱を検出し、その検出結果を、熱検出信号としてコントローラ10に送出する。
【0040】
コントローラ10は、CPU(Central Processing Unit)10Aやメモリ10B等を内蔵しており、CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。
【0041】
すなわち、コントローラ10は、マイク15や、CCDカメラ16、タッチセンサ17、RFIDリーダ部19、バッテリセンサ12、熱センサ13から与えられる音声信号、画像信号、圧力検出信号、RFID信号、バッテリ残量検出信号、熱検出信号に基づいて、周囲の状況や、ユーザからの指令、ユーザからの働きかけなどの有無を判断する。
【0042】
また、コントローラ10は、この判断結果等に基づいて、続く行動を決定し、その決定結果に基づいて、アクチュエータ3AA乃至3AA、3BA乃至3BA、3CA乃至3CA、3DA乃至3DA、4A乃至4A、5Aおよび5Aのうちの必要なものを駆動させ、これにより、頭部ユニット4を上下左右に振らせたり、尻尾部ユニット5を動かせたり、各脚部ユニット3A乃至3Dを駆動して、ロボットを歩行させるなどの行動を行わせる。
【0043】
また、コントローラ10は、必要に応じて、合成音を生成し、スピーカ18に供給して出力させたり、ロボットの「目」の位置に設けられた図示しないLED(Light Emitting Diode)を点灯、消灯または点滅させる。
【0044】
さらに、コントローラ10は、マイク15や、CCDカメラ16、タッチセンサ17等からの音声信号、画像信号、圧力検出信号等に基づいて、上記RFIDリーダ部19の読取動作を制御するようにしてもよい。例えば、コントローラ10は、タッチセンサ17等の接触を検出する接触検出手段からの検出結果により接触を検出した場合に、一定時間の間、RFIDリーダ部19の動作を実行する。また、コントローラ10は、CCDカメラ16や赤外線センサ等のような物体の有無や状態を光学的に検出する光学的検出手段からの光学的検出結果により物体の有無や状態を検出した場合に、一定時間の間、RFIDリーダ部19の動作を実行する。
【0045】
以上のようにして、ロボットは、周囲の状況等に基づいて自律的に行動をとることができるようになっている。
【0046】
次に、図3は、図2のコントローラ10の機能的構成例を示している。なお、図3に示す機能的構成は、CPU10Aが、メモリ10Bに記憶された制御プログラムを実行することで実現されるようになっている。
【0047】
コントローラ10は、特定の外部状態を認識するセンサ入力処理部50、センサ入力処理部50の認識結果等を累積して、感情および本能の状態を表現する感情/本能モデル部51、センサ入力処理部50の認識結果等に基づいて、続く行動を決定する行動決定機構部52、行動決定機構部52の決定結果に基づいて、実際にロボットに行動を起こさせる姿勢遷移機構部53、各アクチュエータ3AA乃至5Aおよび5Aを駆動制御する制御機構部54、合成音を生成する音声合成部55、並びに音声合成部55の出力を制御する音響処理部56から構成されている。
【0048】
センサ入力処理部50は、マイク15や、CCDカメラ16、タッチセンサ17、RFIDリーダ部19等から与えられる音声信号、画像信号、圧力検出信号やRFID信号等に基づいて、特定の外部状態や、ユーザからの特定の働きかけ、ユーザからの指示等を認識し、その認識結果を表す状態認識情報を、感情/本能モデル部51および行動決定機構部52に通知する。
【0049】
すなわち、センサ入力処理部50は、音声認識部50Aを有しており、音声認識部50Aは、行動決定機構部52からの制御にしたがい、マイク15から与えられる音声信号を用いて、音声認識を行う。そして、音声認識部50Aは、その音声認識結果としての、例えば、「歩け」、「伏せ」、「ボールを追いかけろ」等の指令その他を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0050】
また、センサ入力処理部50は、画像認識部50Bを有しており、画像認識部50Bは、CCDカメラ16から与えられる画像信号を用いて、画像認識処理を行う。そして、画像認識部50Bは、その処理の結果、例えば、「赤い丸いもの」や、「地面に対して垂直なかつ所定高さ以上の平面」等を検出したときには、「ボールがある」や、「壁がある」等の画像認識結果を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0051】
さらに、センサ入力処理部50は、圧力処理部50Cを有しており、圧力処理部50Cは、タッチセンサ17から与えられる圧力検出信号を処理する。そして、圧力処理部50Cは、その処理の結果、所定の閾値以上で、かつ短時間の圧力を検出したときには、「たたかれた(しかられた)」と認識し、所定の閾値未満で、かつ長時間の圧力を検出したときには、「なでられた(ほめられた)」と認識して、その認識結果を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0052】
また、センサ入力処理部50は、環境認識部50Dを有しており、環境認識部50Dは、マイク15から与えられる音声信号や、CCDカメラ16から与えられる画像信号を用いて、ロボットが使用される環境としての、例えば、ロボットからユーザまでの距離等を認識し、その認識結果を、状態認識情報として、音響処理部56に出力する。
【0053】
また、センサ入力処理部50は、ID認識部50Eを有しており、ID認識部50Eは、RFIDリーダ部19から与えられるRFID信号を用いて、RFIDに記録された信号の認識処理を行う。そして、ID認識部50Eは、その処理の結果、例えば、「ボール」や、「花瓶」等を認識し、その認識結果を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。このID認識部50Eの構成例については、図7を参照しながら後述する。
【0054】
ここで、コントローラ10は、センサ入力処理部50の音声認識部50A、画像認識部50B、圧力認識部50C等からの認識結果に応じて、RFIDリーダ部19やID認識部50Eの動作を制御するようにしてもよい。例えば、CCDカメラ16からの画像信号を画像認識部50Bで画像認識することによりボールらしき丸いものの認識結果が得られた場合に、RFIDリーダ部19を動作させて該ボールらしき物体に設けられたRFIDタグを読み取り、RFIDリーダ部19から得られたRFID信号をID認識部50Eに送って認識処理を行わせ、「ボール」であることを認識させる。この場合、後述するように、さらに詳細な物体の情報、例えば「サッカーボール」であることの認識を行うようにすることも容易に実現できる。
【0055】
感情/本能モデル部51は、図4に示すような、ロボットの感情と本能の状態を表現する感情モデルと本能モデルをそれぞれ管理している。
【0056】
感情モデルは、例えば、3つの感情ユニット60A,60B,60Cで構成され、これらの感情ユニット60A乃至60Cは、「うれしさ」、「悲しさ」、「怒り」の感情の状態(度合い)を、例えば、0乃至100の範囲の値によってそれぞれ表し、センサ入力処理部50からの状態認識情報や時間経過等に基づいて、その値を変化させる。
【0057】
なお、感情モデルには、「うれしさ」、「悲しさ」、「怒り」の他、「楽しさ」に対応する感情ユニットを設けることも可能である。
【0058】
本能モデルは、例えば、3つの本能ユニット61A,61B,61Cで構成され、これらの本能ユニット61A乃至61Cは、「食欲」、「睡眠欲」、「運動欲」という本能による欲求の状態(度合い)を、例えば、0乃至100の範囲の値によってそれぞれ表し、センサ入力処理部50からの状態認識情報や時間経過等に基づいて、その値を変化させる。
【0059】
感情/本能モデル部51は、上述のようにして変化する感情ユニット60A乃至60Cの値で表される感情の状態、および本能ニット61A乃至61Cの値で表される本能の状態を、感情/本能状態情報として、センサ入力処理部50、行動決定機構部52、および音声合成部55に送出する。
【0060】
行動決定機構部52は、センサ入力処理部50からの状態認識情報や、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、次の行動を決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部53に送出する。
【0061】
すなわち、行動決定機構部52は、図5の状態遷移図に示すように、ロボットがとり得る行動をステート(状態:state)に対応させた有限オートマトンを、ロボットの行動を規定する行動モデルとして管理しており、この行動モデルとしての有限オートマトンにおけるステートを、センサ入力処理部50からの状態認識情報や、感情/本能モデル部51における感情モデルおよび本能モデルの値、時間経過等に基づいて遷移させ、遷移後のステートに対応する行動を、次にとるべき行動として決定する。
【0062】
具体的には、例えば、図5において、ステートST3が「立っている」という行動を、ステートST4が「寝ている」という行動を、ステートST5が「ボールを追いかけている」という行動を、それぞれ表しているとする。いま、例えば、「ボールを追いかけている」というステートST5において、「ボールが見えなくなった」という状態認識情報が供給されると、ステートST5からST3に遷移し、その結果、ステートST3に対応する「立っている」という行動を、次にとることが決定される。また、例えば、「寝ている」というステートST4において、「起きろ」という状態認識情報が供給されると、ステートST4からST3に遷移し、その結果、やはり、ステートST3に対応する「立っている」という行動を、次にとることが決定される。
【0063】
ここで、行動決定機構部52は、所定のトリガ(trigger)があったことを検出すると、ステートを遷移させる。即ち、行動決定機構部52は、例えば、現在のステートに対応する行動を実行している時間が所定時間に達したときや、特定の状態認識情報を受信したとき、感情/本能モデル部51から供給される感情/本能状態情報が示す感情の状態の値(感情ユニット60A乃至60Cの値)、あるいは本能の状態の値(本能ユニット61A乃至61Cの値)が所定の閾値以下または以上となったとき等に、ステートを遷移させる。
【0064】
なお、行動決定機構部52は、上述したように、センサ入力処理部50からの状態認識情報だけでなく、感情/本能モデル部51における感情モデルおよび本能モデルの値等にも基づいて、図5の有限オートマトンにおけるステートを遷移させることから、同一の状態認識情報が入力されても、感情モデルや本能モデルの値(感情/本能状態情報)によっては、ステートの遷移先は異なるものとなる。
【0065】
その結果、行動決定機構部52は、例えば、感情/本能状態情報が、「怒っていない」こと、および「お腹がすいていない」ことを表している場合において、状態認識情報が、「目の前に手のひらが差し出された」ことを表しているときには、目の前に手のひらが差し出されたことに応じて、「お手」という行動をとらせる行動指令情報を生成し、これを、姿勢遷移機構部53に送出する。
【0066】
また、行動決定機構部52は、例えば、感情/本能状態情報が、「怒っていない」こと、および「お腹がすいている」ことを表している場合において、状態認識情報が、「目の前に手のひらが差し出された」ことを表しているときには、目の前に手のひらが差し出されたことに応じて、「手のひらをぺろぺろなめる」ような行動を行わせるための行動指令情報を生成し、これを、姿勢遷移機構部53に送出する。
【0067】
また、行動決定機構部52は、例えば、感情/本能状態情報が、「怒っている」ことを表している場合において、状態認識情報が、「目の前に手のひらが差し出された」ことを表しているときには、感情/本能状態情報が、「お腹がすいている」ことを表していても、また、「お腹がすいていない」ことを表していても、「ぷいと横を向く」ような行動を行わせるための行動指令情報を生成し、これを、姿勢遷移機構部53に送出する。
【0068】
さらに、行動決定機構部52では、上述したような、ロボットの頭部や手足等を動作させる行動指令情報の他、ロボットに発話を行わせる行動指令情報も生成される。ロボットに発話を行わせる行動指令情報は、音声合成部55に供給されるようになっており、音声合成部55に供給される行動指令情報には、音声合成部55に生成させる合成音に対応するテキスト等が含まれる。そして、音声合成部55は、行動決定部52から行動指令情報を受信すると、その行動指令情報に含まれるテキストに基づき、感情/本能モデル部51で管理されている感情の状態や本能の状態を加味しながら、例えば、規則音声合成等を行うことで、合成音を生成し、音響処理部56に供給する。
【0069】
姿勢遷移機構部53は、行動決定機構部52から供給される行動指令情報に基づいて、ロボットの姿勢を、現在の姿勢から次の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54に送出する。
【0070】
ここで、現在の姿勢から次に遷移可能な姿勢は、例えば、胴体や手や足の形状、重さ、各部の結合状態のようなロボットの物理的形状と、関節が曲がる方向や角度のようなアクチュエータ3AA乃至5Aおよび5Aの機構とによって決定される。
【0071】
また、次の姿勢としては、現在の姿勢から直接遷移可能な姿勢と、直接には遷移できない姿勢とがある。例えば、4本足のロボットは、手足を大きく投げ出して寝転んでいる状態から、伏せた状態へ直接遷移することはできるが、立った状態へ直接遷移することはできず、一旦、手足を胴体近くに引き寄せて伏せた姿勢になり、それから立ち上がるという2段階の動作が必要である。また、安全に実行できない姿勢も存在する。例えば、4本足のロボットは、その4本足で立っている姿勢から、両前足を挙げてバンザイをしようとすると、簡単に転倒してしまう。
【0072】
このため、姿勢遷移機構部53は、直接遷移可能な姿勢をあらかじめ登録しておき、行動決定機構部52から供給される行動指令情報が、直接遷移可能な姿勢を示す場合には、その行動指令情報を、そのまま姿勢遷移情報として、制御機構部54に送出する。一方、行動指令情報が、直接遷移不可能な姿勢を示す場合には、姿勢遷移機構部53は、遷移可能な他の姿勢に一旦遷移した後に、目的の姿勢まで遷移させるような姿勢遷移情報を生成し、制御機構部54に送出する。これによりロボットが、遷移不可能な姿勢を無理に実行しようとする事態や、転倒するような事態を回避することができるようになっている。
【0073】
すなわち、姿勢遷移機構部53は、例えば、図6に示すように、ロボットがとり得る姿勢をノードNODE1乃至NODE5として表現するとともに、遷移可能な2つの姿勢に対応するノードどうしの間を、有向アークARC1乃至ARC10で結合した有向グラフを記憶しており、この有向グラフに基づいて、上述したような姿勢遷移情報を生成する。
【0074】
具体的には、姿勢遷移機構部53は、行動決定機構部52から行動指令情報が供給されると、現在の姿勢に対応したノードNODEと、行動指令情報が示す次に取るべき姿勢に対応するノードNODEとを結ぶように、有向アークARCの向きに従いながら、現在のノードNODEから次のノードNODEに至る経路を探索し、探索した経路上にあるノードNODEに対応する姿勢を順番にとっていくように指示する姿勢遷移情報を生成する。
【0075】
その結果、姿勢遷移機構部53は、例えば、現在の姿勢が「ふせる」という姿勢を示すノードNODE2にある場合において、「すわれ」という行動指令情報が供給されると、有向グラフにおいて、「ふせる」という姿勢を示すノードNODE2から、「すわる」という姿勢を示すノードNODE5へは、直接遷移可能であることから、「すわる」に対応する姿勢遷移情報を生成して、制御機構部54に与える。
【0076】
また、姿勢遷移機構部53は、現在の姿勢が「ふせる」という姿勢を示すノードNODE2にある場合において、「歩け」という行動指令情報が供給されると、有向グラフにおいて、「ふせる」というノードNODE2から、「あるく」というノードNODE4に至る経路を探索する。この場合、「ふせる」に対応するノードNODE2、「たつ」に対応するNODE3、「あるく」に対応するNODE4の経路が得られるから、姿勢遷移機構部53は、「たつ」、「あるく」という順番の姿勢遷移情報を生成し、制御機構部54に送出する。
【0077】
制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA乃至5A及び5Aを駆動するための制御信号を生成し、これを、アクチュエータ3AA乃至5A及び5Aに送出する。これにより、アクチュエータ3AA乃至5A及び5Aは、制御信号に従って駆動され、ロボットは、自律的に行動を起こす。
【0078】
一方、音響処理部56は、センサ入力処理部50を構成する環境認識部50Dが出力する状態認識情報を受信し、その状態認識情報に基づいて、音声合成部55から供給される合成音の出力を制御する。即ち、音響処理部56は、状態認識情報としての、ロボットが使用される環境における雑音や、ロボットからユーザまでの距離等に対して、スピーカ18から出力される合成音が、ユーザに明確に聞こえるように、かつ耳障りとならないように、その大きさ(パワー)や高さ(周波数)等を調整して、スピーカ18に供給する。これにより、スピーカ18からは、適切な大きさおよび高さ等を有する合成音が出力される。
【0079】
次に、図7は、図3のID認識部50Eの構成例を示している。ID照合部41には、RFIDリーダ部19から出力されるRFID信号が供給されるようになっている。IDテーブル記憶部42は、予め登録されたRFIDタグ(無線タグ)のID番号及びそのID番号に対応した対象関連情報のテーブル(以下IDテーブルと呼ぶ)が記録されている。図8に、IDテーブルの例を示す。この図8の例では、対象関連情報として、「机」、「ボール」、「花瓶」等のような比較的大きなカテゴリの対象関連情報Aと、机の「足」、「サッカー用」のボール、「生け花用」の花瓶等のようなより詳細な対象関連情報Bとを例示している。
【0080】
図7のID照合部41は、RFIDリーダ部19から出力されたRFID信号が、IDテーブル記憶部42のIDテーブルに記録された情報に属するかどうかを判定する。そして、RFIDリーダ部19から出力されたRFID信号がIDパターン記憶部42に記録されたものであると判定した場合、IDパターン記憶部42に記録されたIDテーブルからRFID信号のID番号に対応する対象関連情報を読み出し、この対象関連情報に応じた上記状態認識情報を、感情/本能モデル部51および行動決定機構部52へ通知する。従って、対象関連情報に基づく状態認識情報に応じてロボット装置の行動が制御される。なお、上記状態認識情報は上記対象関連情報をそのまま用いてもよい。また、ID番号に対応する対象関連情報は複数存在してもよい。
【0081】
RFID信号のフォーマットとしては、例えば、ヘッダ部、識別子部、データ部を有し、全体として128ビットで構成されているものが挙げられ、この他、種々のフォーマットを使用可能である。一般にRFIDタグは、バーコードに比べて情報量が多く、物体の識別能力が高く、物体の詳細なデータ等を盛り込むこともできる。また、RFIDシステムは、非接触で情報通信が可能であるため、耐久性に優れ、汚れやほこり等の影響を受けず、移動しながらの読み取りが可能であり、また、カメラ等の光学検出手段に対して、暗闇でも物体認識が行える等の利点を有している。
【0082】
また、RFIDタグは、バーコード等に比べて情報量が多いことから、アスキーコード、音声や画像のサンプリングデータや圧縮符号化データのように、それ自体で既に意味を持つようなデータをRFIDタグのメモリに記憶するようにしてもよい。この場合、上述したようなIDテーブルの情報の一部あるいは全部を省略することができ、さらに、IDテーブル自体を省略して、RFID信号から対象関連情報等を直接読み取るようにすることも可能である。
【0083】
上述した本発明の実施の形態によれば、RFIDリーダ部19をロボット装置に設けることにより、マイク、カメラや種々のセンサで検出することが困難であった物体の情報の確認や物体の識別が可能となり、また、外部環境が暗くとも物体認識が有効かつ確実に行える。そして、認識した結果に応じて、それぞれ独自の行動をとらせることができる。
【0084】
このようなRFIDリーダ部19を有するロボット装置を用いて、ゲーム(スポーツ)、行動範囲の制約、周囲との関係構築、自動装着等への応用が可能である。
【0085】
例えば、ゲーム(スポーツ)への適用例として、サッカーゲーム等の球技の場合には、メンバー(選手)となるロボット装置、ボール、グランド(地面)等にタグを付けることにより、相手とボールとコート内での位置等を動きながら容易に認識するすることができ、球技を円滑に行うことができる。障害物レースの場合には、グランド(地面)と障害物にタグを付けて、現在位置と障害物とを移動しながら認識でき、円滑に競技を進めることができる。さらに、スケートボード(スケボー)にタグを付けて、スケートボードの位置を認識し、スケートボード上に乗って走らせることができる。
【0086】
また、行動範囲の制約としては、壁や段差部分等にタグをつけて認識させることにより、壁にぶつかったり段差部分から落下すること等を未然に防ぐような行動範囲の制約を実現できる。
【0087】
また、自動装着の例としては、充電器にタグを付けて、独力で充電させたり、ロボットの構成部品(パーツ)にタグを付けて、ロボット本体にパーツを認識させ、独力でパーツの着脱を行わせたり、スケートボード等の乗り物にタグを付けて独力で乗らせたりすることも可能である。
【0088】
この他、スケートボードと地面にタグを付けて、位置情報を認識し、対象物を運搬したり、猫じゃらしや枕等の小物にタグをつけて認識させ、認識された小物に応じて快適/不愉快、危険/安全等の感情表現を行わせたりする等の、種々の応用が可能である。
【0089】
さらに、上記RFIDタグの情報を認識した場合のロボット装置の行動としては、疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、排泄(elimination)又は性欲(sexual)等の本能的要素に基づく行動や、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)等の情動的要素に基づく行動を出現させるようにしてもよい。
【0090】
ここで、具体例として、上記壁や段差部分等にタグをつけて認識させることにより、壁にぶつかったり段差部分から落下すること等を未然に防ぐような例について説明する。
【0091】
この場合の壁や段差部等を識別するためのID番号と対象関連情報との関係を示すIDテーブルの一例を図9に示す。この図9の例では、上記RFIDタグのID番号に対して、壁、段差、斜面等をそれぞれ識別するための対象関連情報Cと、具体的な行動としての停止、後ずさり、右折、左折等を識別するための対象関連情報Dとが設定されている。このIDテーブルは、例えば上記図7と共に説明したようなIDテーブル記憶部42に記憶されており、ID照合部41は、上記RFIDリーダ部19から送られるRFID信号のID番号がIDテーブル記憶部42の上記図9のIDテーブルに記憶された情報に属するか否かを判定し、属すると判定されたとき、該IDテーブルからRFID信号のID番号に対応する対象関連情報C、Dを読み出し、これらの対象関連情報に応じた上記状態認識情報を(あるいは対象関連情報をそのまま状態認識情報として)、上記図3に示したような感情/本能モデル部51及び行動決定機構部52へ通知する。ID番号と対象関連情報とは、図9の具体例に限定されないことは勿論である。
【0092】
図10〜図12は、上述したようなロボット装置1が段差のある場所に近づいた場合の動作の例を示すものである。ロボット装置1としては、例えば上記図1〜図7と共に説明したタイプのロボット装置を用いることができる。この場合のロボット装置1のIDテーブル記憶部には、図9に示すIDテーブルが記録され、また、ロボット装置1の頭部ユニット4には、RFIDタグの情報をリードする上記RFIDリーダ部19が、所定位置に配設されているものとする。
【0093】
RFIDタグ100〜112は、例えばテープ118の内部に所定距離d(例えば10cm程)の間隔をあけて固定されている。RFIDタグ100〜112には、ID番号として例えば12000001が記録されている。テープ118は、段の側面(側壁)113、115に沿って、床114の上に固定されている。具体的には、テープ基体の内部に所定距離dの間隔でRFIDタグが予め配設されたタグ付き粘着テープを、段差部の近傍等の所望の位置に貼り付けること等により、RFIDタグを容易に設置できる。
【0094】
図10は、ロボット装置1が床114を歩いて、段差部(側壁113)近傍のRFID107に近付いていく様子を示す。図11は、ロボット装置1が図10の状態から推移して、上記RFIDリーダ部19がRFIDタグ107に記録された情報をリード可能な距離に到達している様子を示す。図11では、RFIDリーダ部19が、電波116によって、RFIDタグ107に記録された情報117(ID番号12000001)をリードする。RFIDリーダ部19は、リードした情報117(ID番号12000001)をロボット装置1の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報117(ID番号12000001)が、IDテーブル記憶部42に記憶された上記図9のIDテーブルの情報に属するかどうかを判定する。ID番号12000001は、IDテーブル記憶部42に記録された情報に属すると判定されるので、IDテーブルに基づいて、RFID信号のID番号12000001に対応する対象関連情報C(段差)、対象関連情報D(後ずさり)を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報C(段差)及び対象関連情報D(後ずさり)に応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、次の行動を「後ずさり」と決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「後ずさり」の行動指令情報に基づいて、ロボットの姿勢を、現在の姿勢から次の後ずさりの姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA乃至5A及び5Aを駆動するための制御信号を生成し、これを、アクチュエータ3AA乃至5A及び5Aに送出する。これにより、アクチュエータ3AA乃至5A及び5Aは、制御信号に従って駆動され、ロボット装置1は、「後ずさり」の行動を起こす。図12に、図11の状態から後ずさりした様子を示す。
【0095】
図13〜図15には、ロボット装置1が壁のある場所に近づいた場合の動作の例を示す。ロボット装置1は、図1〜図7と共に説明したタイプのロボット装置であり、IDテーブルの情報は上記図9に示すものとする。ロボット装置1の頭部ユニット4には、RFIDタグの情報をリードする上記RFIDリーダ部19が、所定位置に配設されている。
【0096】
図13〜図15に示す例でも、上記図10〜図12に示す例と同様に、例えばテープ118の内部に所定距離d(例えば10cm程)の間隔をあけてRFIDタグ120〜122が配設されており、これらのRFIDタグ120〜122には、ID番号として11000001が記録されている。テープ118は、壁124の表面に固定され(貼り付けられ)ている。
【0097】
図13は、ロボット装置1が床123を歩いて、RFIDタグ121に近づいていく様子を示す。図14は、ロボット装置1が図13の状態から推移して、上記RFIDリーダ部19がRFIDタグ121に記録された情報をリード可能な距離に到達している様子を示す。この図14では、RFIDリーダ部19が、電波116によって、RFIDタグ121に記録された情報119(ID番号11000001)をリードしている状態を示す。RFIDリーダ部19は、リードした情報119(ID番号11000001)をロボット装置1の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報119(ID番号11000001)が、IDテーブル記憶部42のIDテーブル(図9)に記録された情報に属するかどうかを判定する。ID番号11000001は、IDテーブル記憶部42に記録されたものであると判定されるので、IDテーブルからRFID信号のID番号11000001に対応する対象関連情報C(壁)、対象関連情報D(後ずさり)を読み出し、これらの対象関連情報に応じた状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報C(段差)及び対象関連情報D(後ずさり)に応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、次の行動を「後ずさり」と決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「後ずさり」の行動指令情報に基づいて、ロボットの姿勢を、現在の姿勢から次の後ずさりの姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA乃至5A及び5Aを駆動するための制御信号を生成し、これを、アクチュエータ3AA乃至5A及び5Aに送出する。これにより、アクチュエータ3AA乃至5A及び5Aは、制御信号に従って駆動され、ロボットは、「後ずさり」の行動を起こす。図15に、図14の状態から後ずさりした様子を示す。
【0098】
図10〜図12及び図13〜図15と共に説明したロボット装置1の行動は、「後ずさり」であったが、環境に合わせて、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化等の様々な単純な行動や、また疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、排泄(elimination)又は性欲(sexual)等の本能的要素に基づく行動や、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)等の情動的要素に基づく行動を生成するようにしてもよい。
【0099】
また、図10〜図12及び図13〜図15のRFIDタグに記録された情報に関連付けられた対象関連情報は、「壁」や「段差」であったが、階段、床、穴、柱、角、玄関、居間、食堂、和室、洋室、浴室、窓、通路、リビング等の環境に応じて、様々な情報であってもよい。
【0100】
また、図10〜図12及び図13〜図15に記載のRFIDタグは、テープ118の内部に固定されているが、紙やビニールなどのシート、テープ、シール、ひも、ケーブル、カード、ペン、カーテン、絨毯、布、縫ぐるみ等の部材の表面や内部に固定されていたり、階段、床、穴、柱、角、玄関、居間、食堂、和室、洋室、浴室、窓、通路、リビング等を構成する部材の表面や内部に固定されていてもよい。
【0101】
次に、上述したようなRFIDリーダ部19を有するロボット装置と、ロボット装置の周囲の人間や動物等も含む対象との関係を構築するためのシステムについて説明する。
【0102】
これは、動物の犬や猫等のペットの場合には、自分の飼い主とそれ以外の人間の識別や、また自分の親、子、兄弟等とそれ以外との識別が可能であり、このような主従関係や家族関係等の高度な関係に応じて行動することが可能であるが、従来のペットロボット装置では、飼い主と似た人物が複数存在する場合や、類似したペットロボット装置が複数存在する場合等に、飼い主とそれ以外の人間との識別や家族とそれ以外との識別等が難しいことを考慮したものであり、ロボット装置が、上述したような高度な関係を、周囲の生物(人間や動物等)や物体(他のロボット装置等)との間に構築し得るようにしたものである。
【0103】
ここで、図16は、周囲の生物(人間や動物等)や物体(他のロボット装置等)との間の高度な関係(家族関係、血縁関係、主従関係等)を識別するためのID番号と対象関連情報との関係を表すIDテーブルの一例を示している。この図16の例では、上記RFIDタグのID番号に対して、飼い主等の関係を示す対象関連情報Eと、誕生日を示す対象関連情報Fと、性別を示す対象関連情報Gとが設定されている。このIDテーブルは、例えば上記図7と共に説明したようなIDテーブル記憶部42に記憶されており、ID照合部41は、上記RFIDリーダ部19から送られるRFID信号のID番号がIDテーブル記憶部42の上記図16のIDテーブルに記憶された情報に属するか否かを判定し、属すると判定されたとき、該IDテーブルからRFID信号のID番号に対応する対象関連情報E、F、Gを読み出し、これらの対象関連情報に応じた状態認識情報を、上記図3に示したような感情/本能モデル部51及び行動決定機構部52へ通知する。ID番号と対象関連情報とは、図16の具体例に限定されないことは勿論である。
【0104】
図17〜図20は、上述したようなロボット装置1がRFIDタグを有する人間に近づいた場合の動作の例を示すものである。ロボット装置1としては、例えば上記図1〜図7と共に説明したタイプのロボット装置を用いることができる。この場合のロボット装置1のIDテーブル記憶部には、図16に示すIDテーブルが記録され、また、ロボット装置1の頭部ユニット4には、RFIDタグの情報をリードするRFIDリーダ部19が、所定位置に配設されているものとする。
【0105】
ここで、図17〜図19に示す人間130は飼い主であり、例えば指輪141を嵌めており、この指輪141には、図21に示すようなRFIDタグ142が設けられている。このRFIDタグ142には、上記図16のIDテーブルの飼い主を示すID番号21000000が記録されている。
【0106】
図17は、ロボット1装置が、上記CCDカメラ16により人間130の画像データ131を取得し、その画像認識結果から、人間130に近付いている様子を示している。図18は、ロボット装置1が図17の状態から推移して、上記RFIDリーダ部19が指輪141の上記RFIDタグ142に記録された情報をリード可能な距離に到達している様子を示す。この図18では、RFIDリーダ部19が、電波145によって、指輪141のRFIDタグ142に記録された情報146をリードしている状態を示す。RFIDリーダ部19は、リードした情報146をロボット装置1の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報146(ID番号21000000)が、IDテーブル記憶部42のIDテーブルに記録された情報に属するかどうかを判定する。情報146のID番号は21000000であり、IDパターン記憶部42に記録されたものであると判定されるので、図16のIDテーブルに基づいて、RFID信号のID番号21000000に対応する対象関連情報E「飼い主」、対象関連情報F「1948/12/26」、対象関連情報G「man」を読み出し、これらの対象関連情報に応じた上記状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報E、F、Gに応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、RFIDタブ142を内蔵する指輪141を装着した人間130を飼い主と認識し、人間130との間に主従関係を構築するように今後振舞うことを決定する。飼い主への主従関係を表現するため、次の行動として例えば「立つ」を決定し、決定された行動の内容「立つ」を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「立つ」の行動指令情報に基づいて、ロボット装置1の姿勢を、現在の姿勢から次の立つ為の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA乃至5A及び5Aを駆動するための制御信号を生成し、これを、アクチュエータ3AA乃至5A及び5Aに送出する。これにより、アクチュエータ3AA乃至5A及び5Aは、制御信号に従って駆動され、ロボット装置1は、「立つ」の行動を起こす。図19に、図18の状態から立ったロボット装置1の様子を示す。
【0107】
次に、RFIDタグに、ID番号として21000000でなく、22000003が記録されている場合の例を以下に説明する。
【0108】
図20に示す人間133は、ID番号として22000003が記録されたRFIDタグが設けられた指輪143を嵌めているものとする。このとき、ロボット装置1は、RFID信号のID番号22000003に対応する対象関連情報E「他人」、対象関連情報F「1950/9/1」、対象関連情報G「man」に応じた状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報E、F、Gに応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、22000003が記録されたRFIDタグが設けられた指輪143を嵌めている人間133を赤の他人と認識し、人間133と無関係であるように今後振舞うことを決定する。人間133と無関係であることを表現するため、次の行動として「後退」を決定し、決定された行動の内容「後退」を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「後退」の行動指令情報に基づいて、ロボット1の姿勢を、現在の姿勢から次の後退する為の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA乃至5A及び5Aを駆動するための制御信号を生成し、これを、アクチュエータ3AA乃至5A及び5Aに送出する。これにより、アクチュエータ3AA乃至5A及び5Aは、制御信号に従って駆動され、ロボット装置1は、「後退」の行動を起こす。図20に、後退したロボット装置1の様子を示す。
【0109】
次に、図22〜図24は、ロボット装置151がロボット装置152に近付いた場合の動作の例を示すものである。これらのロボット装置151、152としては、例えば上記図1〜図7と共に説明したタイプのロボット装置を用いることができる。この場合のロボット装置151、152のIDテーブル記憶部には、図16に示すようなIDテーブルが記録され、ロボット装置151、152の頭部ユニット4には、RFIDタグの情報をリードする上記RFIDリーダ部19が、所定位置に配設されているものとする。また、ロボット装置151の所定位置、例えば鼻部の表面には、RFIDタグ153が取り付けられ、ロボット装置152の所定位置、例えば鼻部の表面には、RFIDタグ154が取り付けられている。さらに、RFIDタグ153には、ID番号として21000005が記録され、RFIDタグ154には、ID番号として21000004が記録されている。
【0110】
図22では、ロボット装置151が、上記CCDカメラ16により、ロボット装置152の画像データ155を取得し、その画像認識結果から、ロボット装置152に近付いている様子を示している。図23は、ロボット装置151が図22の状態から推移して、RFIDリーダ部19がRFIDタグ154に記録された情報156をリード可能な距離に到達している様子を示す。この図23では、RFIDリーダ部19が、電波157によって、RFIDタグ154に記録された情報156をリードしている状態を示す。RFIDリーダ部19は、リードした情報156をロボット装置151の上記ID照合部41へ出力する。ID照合部41は、RFIDリーダ部19から出力された情報156(ID番号21000004)が、IDテーブル記憶部42のIDテーブル(図16)に記録された情報に属するか否かを判定する。情報156のID番号は21000004であり、IDパターン記憶部42に記録されたものであると判定されるので、IDテーブルに基づいて、RFID信号のID番号21000004に対応する対象関連情報E「母」、対象関連情報F「1993/9/1」、対象関連情報G「woman」を読み出し、これらの対象関連情報に応じた状態認識情報を、上記感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、対象関連情報E「母」/F「1993/9/1」/G「woman」に応じた状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、ロボット装置152を母と認識し、ロボット装置152との間に家族関係を構築するように今後振舞うことを決定する。ロボット装置152との家族関係を表現するため、次の行動として「ロボット装置152の行動を後追いする」を決定し、決定された行動の内容「ロボット装置152の行動を後追いする」を、行動指令情報として、姿勢遷移機構部53へ送出する。姿勢遷移機構部53は、行動決定機構部52から供給される「ロボット装置152の行動を後追いする」の行動指令情報に基づいて、ロボット装置151の姿勢を、現在の姿勢から次のロボット装置151の行動を後追いする為の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54へ送出する。制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報に従って、アクチュエータ3AA乃至5A及び5Aを駆動するための制御信号を生成し、これを、アクチュエータ3AA乃至5A及び5Aに送出する。これにより、アクチュエータ3AA乃至5A及び5Aは、制御信号に従って駆動され、ロボット装置151は、「ロボット装置152の行動を後追いする」の行動を起こす。図24に、図23の状態から、ロボット装置151がロボット装置152の行動を後追いしている様子を示す。
【0111】
図19ではロボット装置1が“主従関係”を、図24ではロボット装置151が“家族関係”を構築するような行動をしたが、ロボット装置と上記RFIDタグを付けた周囲の生物や物体との関係は、家族関係、血縁関係、友人関係、主従関係、地域関係、スポーツのメンバー、資本家・労働者関係、売り買い関係、恋愛関係、顧客関係など様々な関係であってよい。また、このような関係に基づき、ロボット装置は、祖父、祖母、父、母、兄、姉、弟、妹、友人、隣人、いとこ、叔父、祖母、学友、先生、生徒、チームメイト、ライバル、敵、親戚、他人、知人、主人、使用人、従者、ペット、盲導犬、女性、男性、恋人、少年、少女、大人、子供、赤ちゃん、老人、青年、既婚者、未婚者、未亡人、ボランティア、看護婦、看護士、医者、案内人、ウェイトレス、ウェイター、スチュワーデス、アテンダント、駅員、交通係、説明員、お客、販売人、警備員、警察、パトロール、消防士、ガードマン、セールスマン、清掃人、芸人の内の少なくとも1つを演じるように行動制御されることが挙げられる。
【0112】
また図19のロボット装置1の行動は「立つ」であり、図24のロボット装置151の行動は「ロボット装置152の行動を後追いする」であったが、上記RFIDタグを付けた周囲の生物や物体との間に構築された関係に応じて、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化等の様々な単純な行動や、また疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、排泄(elimination)又は性欲(sexual)等の本能的要素に基づく行動や、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)等の情動的要素に基づく行動であってもよい。
【0113】
さらに、上述した実施の形態では、RFIDタグにはID番号を書き込んでおき、ロボット装置の内部にIDテーブルを設けて、RFIDタグに記憶されたID番号から対応する対象関連情報を参照するようにしているが、RFIDタグ自体に、対象関連情報等の既に意味を持っているデータを記憶させるようにしてもよい。この場合には、ロボット装置内にIDテーブルを記憶しておく必要がなく、RFID信号を読み取ることで直接的に対象関連情報等を得ることができる。
【0114】
上述した本発明の実施の形態においては、上述した一連の処理を、CPU10Aにプログラムを実行させることにより行うようにしたが、一連の処理は、それ専用のハードウェアによって行うことも可能である。
【0115】
なお、プログラムは、あらかじめメモリ10B(図2)に記憶させておく他、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク、DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。そして、このようなリムーバブル記録媒体を、いわゆるパッケージソフトウエアとして提供し、ロボット(メモリ10B)にインストールするようにすることができる。
【0116】
また、プログラムは、リムーバブル記録媒体からインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、有線で転送し、メモリ10Bにインストールすることができる。
【0117】
この場合、プログラムがバージョンアップされたとき等に、そのバージョンアップされたプログラムを、メモリ10Bに、容易にインストールすることができる。
【0118】
ここで、本明細書において、CPU10Aに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0119】
また、プログラムは、1のCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
【0120】
以上、本発明を、エンターテイメント用のロボット(疑似ペットとしてのロボット)に適用した場合について説明したが、本発明は、これに限定されるものではなく、例えば、産業用のロボットや人間型ロボット等の各種のロボットに広く適用することが可能である。
【0121】
ここで、本発明を適用可能な人間型ロボット装置について、図面を参照しながら説明する。
【0122】
図25及び図26には、人間型ロボット装置200を前方及び後方の各々から眺望した様子を示している。更に、図27には、この人間型ロボット装置200が具備する関節自由度構成を模式的に示している。
【0123】
図25及び図26に示すように、人間型ロボット装置200は、脚式移動を行う左右2足の下肢201R,201Lと、体幹部202と、左右の上肢203R,203Lと、頭部204とで構成される。
【0124】
左右各々の下肢201R,201Lは、大腿部205R,205Lと、膝関節206R,206Lと、脛部207R,207Lと、足首208R,208Lと、足平209R,209Lとで構成され、股関節210R,210Lによって体幹部202の略最下端にて連結されている。また、左右各々の上肢203R,203Lは、上腕211R,211Lと、肘関節212R,212Lと、前腕213R,213Lとで構成され、肩関節214R,214Lによって体幹部202上方の左右各側縁にて連結されている。また、頭部204は、首関節255によって体幹部202の略最上端中央に連結されている。
【0125】
図27に示すように、頭部204を支持する首関節ヨー軸302と、首関節ピッチ軸303と、首関節ロール軸304という3自由度を有している。
【0126】
また、腕の関節は、肩関節ピッチ軸308と、肩関節ロール軸309と、上腕ヨー軸310と、肘関節ピッチ軸311と、前腕ヨー軸312と、手首関節ピッチ軸313と、手首関節ロール軸314と、手部315とで構成される。手部315は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部315の動作は人間型ロボット装置200の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0127】
また、体幹部は、体幹ピッチ軸305と、体幹ロール軸306と、体幹ヨー軸307という3自由度を有する。
【0128】
また、下肢を構成する各々の脚部は、股関節ヨー軸316と、股関節ピッチ軸317と、股関節ロール軸318と、膝関節ピッチ軸319と、足首関節ピッチ軸320と、足首関節ロール軸321と、足部322とで構成される。本明細書中では、股関節ピッチ軸317と股関節ロール軸318の交点は、人間型ロボット装置200の股関節位置を定義する。人体の足部322は、実際には多関節・多自由度の足底を含んだ構造体であるが、人間型ロボット装置200の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。
【0129】
以上を総括すれば、人間型ロボット装置200全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けの人間型ロボット装置200が必ずしも32自由度に限定される訳ではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。
【0130】
上述したような人間型ロボット装置200がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定な構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
【0131】
図28には、人間型ロボット装置200の制御システム構成を模式的に示している。同図に示すように、人間型ロボット装置200は、ヒトの四肢を表現した各機構ユニット330,340,350R/L,360R/Lと、各機構ユニット間の協調動作を実現するための適応制御を行う制御ユニット380とで構成される(ただし、R及びLの各々は、右及び左の各々を示す接尾辞である。以下同様)。
【0132】
人間型ロボット装置200全体の動作は、制御ユニット380によって統括的に制御される。制御ユニット380は、CPU(Central Processing Unit)やメモリ等の主要回路コンポーネント(図示しない)で構成される主制御部381と、電源回路や人間型ロボット装置200の各構成要素とのデータやコマンドの授受を行うインターフェイス(何れも図示しない)などを含んだ周辺回路382とで構成される。この制御ユニット380の設置場所は、特に限定されない。図28では体幹部ユニット340に搭載されているが、頭部ユニット330に搭載してもよい。或いは、人間型ロボット装置200外に制御ユニット380を配備して、人間型ロボット装置200の機体とは有線若しくは無線で交信するようにしてもよい。
【0133】
図28に示した人間型ロボット装置200内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット330には、首関節ヨー軸302、首関節ピッチ303、首関節ロール軸304の各々を表現する首関節ヨー軸アクチュエータA2、首関節ピッチ軸アクチュエータA3、首関節ロール軸アクチュエータA4が配設されている。
【0134】
また、頭部ユニット330には、外部の状況を撮像するためのCCD(ChargeCoupled Device)カメラが設けられているほか、前方に位置する物体までの距離を測定するための距離センサ、外部音を集音するためのマイク、音声を出力するためのスピーカ、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ等が配設されている。さらに、上述したようなRFIDタグ(無線タグ)からの情報を読み取るためのRFIDリーダ部(図示せず)が頭部ユニット330に設けられている。このRFIDリーダ部は、頭部ユニット330以外の部位に設けられていてもよい。
【0135】
また、体幹部ユニット340には、体幹ピッチ軸305、体幹ロール軸306、体幹ヨー軸307の各々を表現する体幹ピッチ軸アクチュエータA5、体幹ロール軸アクチュエータA6、体幹ヨー軸アクチュエータA7が配設されている。また、体幹部ユニット340には、この人間型ロボット装置200の起動電源となるバッテリを備えている。このバッテリは、充放電可能な電池によって構成されている。
【0136】
また、腕部ユニット350R/Lは、上腕ユニット351R/Lと、肘関節ユニット352R/Lと、前腕ユニット353R/Lに細分化されるが、肩関節ピッチ軸308、肩関節ロール軸309、上腕ヨー軸310、肘関節ピッチ軸311、前腕ヨー軸312、手首関節ピッチ軸313、手首関節ロール軸314の各々表現する肩関節ピッチ軸アクチュエータA8、肩関節ロール軸アクチュエータA9、上腕ヨー軸アクチュエータA10、肘関節ピッチ軸アクチュエータA11、肘関節ロール軸アクチュエータA12、手首関節ピッチ軸アクチュエータA13、手首関節ロール軸アクチュエータA14が配備されている。
【0137】
また、脚部ユニット360R/Lは、大腿部ユニット361R/Lと、膝ユニット362R/Lと、脛部ユニット363R/Lに細分化されるが、股関節ヨー軸316、股関節ピッチ軸317、股関節ロール軸318、膝関節ピッチ軸319、足首関節ピッチ軸320、足首関節ロール軸321の各々を表現する股関節ヨー軸アクチュエータA16、股関節ピッチ軸アクチュエータA17、股関節ロール軸アクチュエータA18、膝関節ピッチ軸アクチュエータA19、足首関節ピッチ軸アクチュエータA20、足首関節ロール軸アクチュエータA21が配備されている。各関節に用いられるアクチュエータA2,A3・・・は、より好ましくは、ギア直結型で旦つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することができる。
【0138】
頭部ユニット330、体幹部ユニット340、腕部ユニット350、各脚部ユニット360などの各機構ユニット毎に、アクチュエータ駆動制御部の副制御部335,345,355R/L,365R/Lが配備されている。更に、各脚部360R,Lの足底が着床したか否かを検出する接地確認センサ391及び392を装着するとともに、体幹部ユニット340内には、姿勢を計測する姿勢センサ393を装備している。
【0139】
接地確認センサ391及び392は、例えば足底に設置された近接センサ又はマイクロ・スイッチなどで構成される。また、姿勢センサ393は、例えば、加速度センサとジャイロ・センサの組み合わせによって構成される。
【0140】
接地確認センサ391及び392の出力によって、歩行・走行などの動作期間中において、左右の各脚部が現在立脚又は遊脚何れの状態であるかを判別することができる。また、姿勢センサ393の出力により、体幹部分の傾きや姿勢を検出することができる。
【0141】
主制御部381は、各センサ391〜393の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部335,345,355R/L,365R/Lの各々に対して適応的な制御を行い、人間型ロボット装置200の上肢、体幹、及び下肢が協調して駆動する全身運動パターンを実現できる。
【0142】
以上のように、人間型ロボット装置200は、各々の副制御部335,345,・・・等が、主制御部381からの受信コマンドを解釈して、各アクチュエータA2,A3・・・に対して駆動制御信号を出力し、各ユニットの駆動を制御している。これにより、人間型ロボット装置200は、目標の姿勢に安定して遷移し、安定した姿勢で歩行できる。
【0143】
また、人間型ロボット装置200における制御ユニット380では、上述したような姿勢制御のほかに、加速度センサ、タッチセンサ、接地確認センサ等の各種センサ、及びCCDカメラからの画像情報、マイクからの音声情報等を統括して処理している。制御ユニット380では、図示しないが加速度センサ、ジャイロ・センサ、タッチセンサ、距離センサ、マイク、スピーカなどの各種センサ、各アクチュエータ、CCDカメラ及びバッテリが各々対応するハブを介して主制御部381と接続されている。また、図示しないが上記RFIDリーダ部も主制御部381と接続されている。
【0144】
主制御部381は、上述の各センサから供給されるセンサデータや画像データ及び音声データ、あるいは上記RFIDリーダ部からのRFID情報を順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM内の所定位置に順次格納する。また、主制御部381は、バッテリから供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM内の所定位置に格納する。DRAMに格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、主制御部381がこの人間型ロボット装置200の動作制御を行う際に利用される。
【0145】
主制御部381は、人間型ロボット装置200の電源が投入された初期時、制御プログラムを読み出し、これをDRAMに格納する。また、主制御部381は、上述のように主制御部381よりDRAMに順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。更に、主制御部381は、この判断結果及びDRAMに格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータを駆動させることにより人間型ロボット装置200に、いわゆる「身振り」、「手振り」といった行動をとらせる。
【0146】
したがって、人間型ロボット装置200は、制御プログラムに基づいて自己及び周囲の状況を判断し、使用者からの指示及び働きかけに応じて自律的に行動できる。
【0147】
【発明の効果】
本発明によれば、自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置であって、外部に存在する対象に設けられた無線タグ(いわゆるRFIDタグ)から該無線タグに記憶されているデータを読み取る無線タグ読取手段(RFIDリーダ)と、上記無線タグ読取手段により読み取られたデータに基づいて上記行動を制御するようにしており、マイク、カメラや種々のセンサで検出することが困難であった物体の情報の確認や物体の識別が、無線タグ読取手段にて無線タグ(RFIDタグ)に記憶されたデータに応じた上記対象に関連する情報である対象関連情報を読み取ることにより行え、また、外部環境が暗くとも物体認識等が有効に行える。
【0148】
ここで、上記対象関連情報として、ロボット装置の行動、動作の方法に関する行動情報や、ロボット装置の行動、動作を規制する外部の環境に関する環境情報を含むようにすることにより、段差部や壁等に接近した時点で段差部や壁等を認識させることができ、停止や後ずさり等のような段差部や壁等を回避する行動をとらせることができる。
【0149】
また、上記対象関連情報として、ロボット装置が外部の対象(人間、動物、他のロボット装置等)と構築する関係に関する関係情報(家族関係、主従関係等)を含むようにすることにより、ロボット装置に対して親子関係や主従関係等の高度な関係を構築するような行動をとらせることが容易に実現できる。
【0150】
この場合、無線タグ読取手段により読み取られたデータと対象関連情報とを関連付けたテーブルが記録された記憶手段を設けることにより、制御手段は、無線タグ読取手段により読み取られたデータに関連付けられて得られた対象関連情報に基づいて、上記行動を制御することができる。
【0151】
また、無線タグ自体に直接的に対象関連情報を記憶させることにより、無線タグからのデータから直接的に読み取られた対象関連情報に基づく状態認識情報に応じて、上記行動を制御することができる。
【0152】
従って、本発明のロボット装置によれば、ロボットの従来のセンサであるマイク、CCDカメラやタッチセンサで検出することが困難であった外部の対象の情報を認識することが、容易に可能である。
【図面の簡単な説明】
【図1】本発明を適用したロボット装置の一実施の形態の外観構成例を示す斜視図である。
【図2】図1に示すロボット装置の内部構成例を示すブロック図である。
【図3】図2の構成の内のコントローラ10の機能的構成例を示すブロック図である。
【図4】感情/本能モデル部によるデータ処理を説明するための図である。
【図5】行動モデルを示す図である。
【図6】姿勢遷移機構部54の処理を説明するための図である。
【図7】ID認識部50Eの構成例を示すブロック図である。
【図8】RFIDタグのID番号とそのID番号に対応した対象関連情報のテーブルの具体例を示す図である。
【図9】壁や段差部等を識別するためのID番号と対象関連情報との関係を表すIDテーブルの具体例を示す図である。
【図10】図9に示すIDテーブルを有するロボット装置が段差のある場所に近付く場合の動作の具体例を説明するための図である。
【図11】図9に示すIDテーブルを有するロボット装置が段差のある場所に近付いてRFIDタグの情報をリードする動作を示す図である。
【図12】図9に示すIDテーブルを有するロボット装置が段差のある場所に近付いてRFIDタグの情報をリードした後の後ずさりする状態を示す図である。
【図13】図9に示すIDテーブルを有するロボット装置が壁に近付く場合の動作の具体例を説明するための図である。
【図14】図9に示すIDテーブルを有するロボット装置が壁に近付いてRFIDタグの情報をリードする動作を示す図である。
【図15】図9に示すIDテーブルを有するロボット装置が壁に近付いてRFIDタグの情報をリードした後の後ずさりの動作を示す図である。
【図16】主従関係や親子関係等を識別するためのID番号と対象関連情報との関係を表すIDテーブルの具体例を示す図である。
【図17】図16に示すIDテーブルを有するロボット装置が飼い主に近付く場合の動作の具体例を説明するための図である。
【図18】図16に示すIDテーブルを有するロボット装置が飼い主に近付いてRFIDタグの情報をリードする動作を示す図である。
【図19】図16に示すIDテーブルを有するロボット装置が飼い主に近付いてRFIDタグの情報をリードした後の「立つ」動作を示す図である。
【図20】図16に示すIDテーブルを有するロボット装置が飼い主ではない他人に近付いて後退する動作を示す図である。
【図21】RFIDタグが設けられた指輪の一例を示す図である。
【図22】図16に示すIDテーブルを有するロボット装置が母ロボット装置に近付く場合の動作の具体例を説明するための図である。
【図23】図16に示すIDテーブルを有するロボット装置が母ロボット装置に近付いてRFIDタグの情報をリードする動作を示す図である。
【図24】図16に示すIDテーブルを有するロボット装置が母ロボット装置に近付いてRFIDタグの情報をリードした後の「後追い」動作を示す図である。
【図25】本発明が適用されるロボット装置の他の実施の形態の一構成例として示す人間型ロボット装置の前方からみた外観を説明する外観図である。
【図26】図25に示す人間型ロボット装置の後方からみた外観を説明する外観図である。
【図27】図25に示す人間型ロボット装置の自由度構成モデルを模式的に示す図である。
【図28】図25に示す示す人間型ロボット装置の制御システム構成を説明する図である。
【符号の説明】
10 コントローラ、 10A CPU、 10B メモリ、 15 マイク、 16CCDカメラ、 17 タッチセンサ、 18 スピーカ、19 RFIDリーダ部 41 照合部 42 IDテーブル記憶部 50 センサ入力処理部、 50A 音声認識部、 50B 画像認識部、 50C 圧力処理部、 50D 環境認識部、 51 感情/本能モデル部、 52 行動決定機構部、 53 姿勢遷移機構部、 54 制御機構部、 55 音声合成部、 56 音響処理部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a robot apparatus and a control method therefor, for example, a robot apparatus that causes an action to appear autonomously and controls the action according to input information from the outside, and control of such a robot apparatus. It is about the method.
[0002]
[Prior art]
A mechanical device that performs a motion similar to that of a human or animal using, for example, an electric or magnetic action is referred to as a “robot”. Robots have begun to spread in Japan since the late 1960s, but most of them were industrial robots such as manipulators and transfer robots for the purpose of automation and unmanned production work in factories. there were.
[0003]
A stationary robot, such as an arm-type robot, which is installed and used in a specific place, operates only in a fixed and local work space such as assembling and sorting parts. On the other hand, the mobile robot has a work space that is not limited, and can move freely on a predetermined route or on a non-route to perform a predetermined or arbitrary human work, or perform a human or dog operation. Alternatively, a wide variety of services that replace other living things can be provided. Among them, legged mobile robots are unstable and pose control and walking control are more difficult than crawler or tired mobile robots.However, climbing up and down stairs and ladders, climbing over obstacles, and It is excellent in that a flexible walking / running motion that cannot be distinguished can be realized.
[0004]
Recently, the so-called pet-type robot that simulates the body mechanism and operation of a four-legged walking animal such as a dog or cat, or the body mechanism and movement of an animal that walks two-legged upright such as a human. Research and development on legged mobile robots, such as designed “humanoid robots”, has been progressing, and expectations for practical use are increasing.
[0005]
For example, a pet-type robot, which is a robot device imitating an animal, has a shape similar to a dog or a cat bred in a general household, and is used by a user (owner) to “slap” or “stroke”. Act autonomously according to the approach and surrounding environment. For example, as an autonomous action, an action such as “barking” or “sleeping” is performed in the same manner as an actual animal.
[0006]
By the way, if the robot device can be closer to the behavior of an actual animal, the biological feeling of the robot device will further increase, and the user (owner) will feel a greater sense of familiarity and satisfaction with the robot device. Thereby, the amusement of the robot device is improved.
[0007]
Such a robot device has an actuator having a predetermined degree of freedom and a mechanical unit in which a sensor or the like for detecting a predetermined physical quantity is arranged at a predetermined position, and is controlled by a control unit using a microcomputer. It is configured to perform a predetermined operation on information (for example, see Patent Document 1).
[0008]
[Patent Document 1]
JP 2001-154679 A
[0009]
[Problems to be solved by the invention]
By the way, in the robot device described above, as a method of detecting information given from outside,
(1) a method of detecting voice data obtained from a microphone or the like and using a voice recognition result of the voice data;
(2) a method of detecting image data obtained from a CCD camera or the like and using an image recognition result of the image data;
(3) a method of detecting pressure received by physical action by a touch sensor or the like and using the selection result;
(4) A method of detecting an environmental condition around a robot device using a temperature sensor, a humidity sensor, an odor sensor, or the like, and using the detection result
Etc. are known.
[0010]
However, in such an information detection method based on voice, image, pressure, and environmental conditions, when there are a plurality of different objects having similar surface conditions or shapes around the robot device, it is difficult to identify the objects. is there. In general, for object recognition, a method of detecting image data and using the image recognition result is the most influential method. However, in order to detect image data, brightness is required and the external environment is dark. And effective recognition cannot be performed.
[0011]
For example, in a dark environment such as at night, the amount of information of the image data obtained from the CCD camera is insufficient, and there is a disadvantage that an accurate and detailed image recognition result cannot be obtained. As a result, in a dark environment, for example, when there is a wall or stairs, the robot device may collide with the wall or fall off the stairs.
[0012]
Further, in the conventional robot device, since it is not possible to accurately identify surrounding creatures and objects, the living creatures need to communicate with surrounding creatures (humans, animals, etc.) and objects (other robot devices, etc.) at a high level. It was difficult to play as building relationships (family relationships, blood relationships, master-slave relationships, etc.).
[0013]
For example, if a pet is a breeding dog or cat, the pet can distinguish his or her owner from other humans, and the owner and the pet recognize each other's master-slave relationship and respond to the master-slave relationship. It is possible to act. However, in the conventional robot apparatus, when there are a plurality of persons similar to the owner, it is difficult to identify the owner and other humans, and it is difficult to act and operate to establish a master-slave relationship with the owner. .
[0014]
Therefore, the present invention has been proposed in view of such circumstances, microphones, cameras and various sensors can confirm the information of the object that was difficult to be detected and can identify the object, It is an object of the present invention to provide a robot apparatus capable of effectively performing object recognition and external state recognition even when the external environment is dark, and a control method thereof. In addition, the present invention provides a method in which the robot device accurately identifies surrounding creatures, objects, and the like. It is an object of the present invention to provide a robot device and a control system thereof that enable the robot device to operate so as to be constructed between the robot devices.
[0015]
[Means for Solving the Problems]
A robot device according to the present invention is a robot device that causes an action to appear autonomously and is controlled in accordance with input information from the outside, in order to solve the above-described problem, and the robot apparatus exists outside. From a so-called RFID (Radio Frequency Identification) tag provided on an object (an organism such as a human or an animal, an object such as a ball, a desk, a wall, a step portion, or another robot device), the RFID tag RFID tag reading means (RFID reader) for reading data stored in the RFID tag, and state recognition information corresponding to target related information which is information related to the target corresponding to the data read by the wireless tag reading means. And control means for controlling the above behavior.
[0016]
Here, the storage device includes a storage unit in which a table in which the data read by the wireless tag reading unit and the target related information, which is information on the external target, are stored, and the control unit includes the wireless tag reading unit. Preferably, the action is controlled based on state recognition information corresponding to the target related information read from the storage means in association with the data read by the means.
[0017]
Alternatively, the state recognition information, which is information on the external object, is recorded in the wireless tag, and the wireless tag reading unit reads the object-related information from data stored in the wireless tag, and It is preferable that the control means controls the behavior based on state recognition information corresponding to the target related information read by the wireless tag reading means.
[0018]
Further, the object-related information, which is information on the external object, includes action information on an action of the robot apparatus and an operation method, and the action information includes stop, retreat, forward, right turn, left turn, back lean, jump, and skip. , Prone, squatting, upright, handstand, supine, inversion, rotation, change of facial expression, change of tail, change of limb, and the control means includes the action information included in the target-related information. On the basis of the above.
[0019]
The object-related information, which is information on the external object, includes environmental information on an external environment that regulates the behavior and operation of the robot device. The environmental information includes stairs, floors, walls, steps, holes, and columns. , Corner, entrance, living room, dining room, Japanese-style room, western-style room, bathroom, window, aisle, living room, room position information, and the control means is the environmental information contained in the object-related information. On the basis of the above.
[0020]
The object-related information, which is information on the external object, includes relation information on a relationship that the robot device builds with the external object, and the relation information includes a family relationship, a blood relationship, a friend relationship, a master-slave relationship, At least one of a regional relationship, a sports member, a capitalist / worker relationship, a buying / selling relationship, a romance relationship, and a customer relationship, and the control means is configured to perform the control based on the relationship information included in the target related information. Robot device is grandfather, grandmother, father, mother, brother, sister, brother, sister, friend, neighbor, cousin, uncle, grandmother, alumni, teacher, student, teammate, rival, enemy, relatives, stranger, acquaintance, master , Servant, servant, pet, guide dog, woman, male, lover, boy, girl, adult, child, baby, old man, adolescent, married, unmarried, widow, volunteer, nurse, nurse, doctor At least one of a guide, waitress, waiter, stewardess, attendant, station staff, traffic officer, clerk, customer, seller, security guard, police, patrol, firefighter, guardman, salesman, cleaner, entertainer. Controlling actions to perform them is an example.
[0021]
In addition, the robot apparatus according to the present invention includes: an expression unit that expresses an emotion by the action; a driving unit that drives the expression unit; data read by the wireless tag reading unit; Storage means for recording a table associated with the related information), wherein the control means associates the data read by the wireless tag reading means with the state corresponding to the target related information read from the storage means. The driving means is controlled based on the recognition information.
[0022]
The data read by the wireless tag reading means (RFID reader) is transmitted to the control means, and the control means refers to the table based on the data from the wireless tag reading means and associates the target-related information with the data. Is read from the storage means. The control unit controls the driving unit based on the state recognition information corresponding to the target-related information read from the storage unit, and drives the expression unit.
[0023]
Examples of the expression means include a movable part imitating an animal's limbs, an acoustic output by a speaker or the like, or a light emitting means by a light emitting diode or the like. The expression means may be a combination of a plurality of types of expression parts, and the control means can control the driving of the plurality of types of expression parts based on the target-related information read from the storage means. .
[0024]
Based on the state recognition information corresponding to the target-related information, the appearing behavior of the robot may include at least an instinct element or an emotion element.
[0025]
Here, the instinct factors are fatigue, heat or temperature, pain, appetite or hunger, dryness, thirst, affection, curiosity, At least one of elimination or sexual, wherein the emotional component is happiness, sadness, anger, surprise, disgust, fear (Fear), frustration, boredom, sleep (somnolence), sociability (gregariousness), patience, tension (tense), relaxed (relaxed), alertness, guilt, It may be at least one of spite, loyalty, submission, or jealousy.
[0026]
The external appearance of the robot device has an external appearance imitating an animal, and the wireless tag reading means is provided, for example, on the face of the animal.
[0027]
The robot device includes a contact detection unit that detects a contact such as a touch sensor, and a detection result of the contact detection unit is transmitted to the control unit. It is also possible to cause the operation of the wireless tag reading means to be executed for a time. Further, for example, there is provided optical detection means for optically detecting the presence or absence or state of an object, such as image recognition by a camera or an infrared sensor, and the detection result by the optical detection means is transmitted to the control means. When the means detects the presence or absence or the state of the object based on the optical detection result, the operation of the wireless tag reading means can be executed for a certain period of time.
[0028]
Further, a control method for a robot apparatus according to the present invention is a control method for a robot apparatus in which an action is caused to appear autonomously and the action is controlled in accordance with input information from the outside. A wireless tag reading step of reading data stored in the wireless tag from the wireless tag provided in the wireless tag, and target related information corresponding to the target corresponding to the data read in the wireless tag reading step. And controlling the behavior based on the state recognition information to be performed.
[0029]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments to which the present invention is applied will be described with reference to the drawings.
[0030]
FIG. 1 is a perspective view illustrating an example of an external configuration of a robot apparatus according to an embodiment of the present invention, and FIG. 2 is a block diagram illustrating an example of an electrical configuration thereof.
[0031]
This embodiment is an autonomous robot device that autonomously acts according to a surrounding environment (external factors) and an internal state (internal factors). As a specific example, a "dog" is imitated. Although a so-called pet robot having a shape is shown, it is a matter of course that the present invention can be applied to other animal shapes, biped walking robots imitating humans, and the like.
[0032]
In FIG. 1, a robot unit 1 has leg units 3A, 3B, 3C, and 3D connected to the front, rear, left, and right sides of a body unit 2, respectively, and a head unit at a front end and a rear end of the body unit 2, respectively. The unit 4 and the tail unit 5 are connected to each other. In the tail unit 5, the tail 5A is drawn out from a base provided on the upper surface of the body unit 2 so as to bend or swing freely with two degrees of freedom.
[0033]
As shown in FIG. 2, the body unit 2 houses a controller 10 for controlling the entire robot, a battery 11 as a power source of the robot, and an internal sensor unit 14 including a battery sensor 12 and a heat sensor 13. ing.
[0034]
The head unit 4 includes a microphone (microphone) 15 corresponding to “ears” for collecting external sounds, and a CCD (Charge Coupled Device) camera 16 corresponding to “eyes” for visually detecting an external situation. , A touch sensor 17 corresponding to a tactile sense for detecting external pressure and the like, a speaker 18 corresponding to a “mouth” for outputting a voice and the like, and information (ID data etc.) of an RFID tag (wireless tag) provided on an external object. ) Are disposed at predetermined positions.
[0035]
Here, the RFID (Radio Frequency Identification) is a non-contact type automatic recognition technology, and reads information from a medium such as a tag in which an IC and a small antenna are incorporated through a radio wave or the like. Tags (tags) serving as media are called RFID tags, wireless tags, IC tags, and the like, and have various shapes such as a card shape, a label shape, and a microchip shape. RFID identification technology is not only expected to embed an RFID tag in all products to manage product information as an alternative to barcodes, but also to control the opening and closing of gates and doors, to control passage, and to manage parcels and luggage. Various utilization forms such as delivery management have been proposed. The RFID reader section 19 is for reading data (such as ID data) stored in such an RFID tag (wireless tag). Note that the information transmission method of the RFID system includes an electromagnetic induction method, an electromagnetic coupling method, a microwave method, an electrostatic coupling method, an optical method, and the like. Of course, an information reading means may be used, a plurality of methods may be used, and a reader / writer having a writing function may be used.
[0036]
Joint portions of the leg units 3A to 3D, connecting portions of the leg units 3A to 3D and the body unit 2, connecting portions of the head unit 4 and the body unit 2, and tail units 5 and the body unit. As shown in FIG. 2, actuators 3AA 1 To 3AA K , 3BA 1 Or 3BA K , 3CA 1 To 3CA K , 3DA 1 Or 3DA K , 4A 1 To 4A L , 5A 1 And 5A 2 Is provided, so that each connecting portion can rotate with a predetermined degree of freedom.
[0037]
The microphone 15 in the head unit 4 collects surrounding sounds (sounds) including utterances from the user, and sends out the obtained sound signals to the controller 10. The CCD camera 16 captures an image of the surroundings and sends the obtained image signal to the controller 10. The RFID reader unit 19 reads information (ID data or the like) recorded on the RFID tag from an RFID tag provided on a surrounding object by non-contact or contact, and sends the read signal to the controller 10 as an RFID signal. Send out.
[0038]
The touch sensor 17 is provided, for example, on the upper part of the head unit 4 and detects a pressure received by a physical action such as “stroking” or “slapping” from the user, and uses the detection result as a pressure detection signal. Send it to the controller 10.
[0039]
The battery sensor 12 in the body unit 2 detects the remaining amount of the battery 11 and sends the detection result to the controller 10 as a remaining battery amount detection signal. The heat sensor 13 detects the heat inside the robot and sends the detection result to the controller 10 as a heat detection signal.
[0040]
The controller 10 includes a CPU (Central Processing Unit) 10A, a memory 10B, and the like. The CPU 10A performs various processes by executing a control program stored in the memory 10B.
[0041]
That is, the controller 10 includes a microphone 15, a CCD camera 16, a touch sensor 17, an RFID reader 19, a battery sensor 12, a voice signal, a pressure detection signal, an RFID signal, and a battery remaining amount detection signal supplied from the heat sensor 13. Based on the signal and the heat detection signal, it is determined whether or not there is a surrounding situation, a command from the user, an action from the user, and the like.
[0042]
Further, the controller 10 determines a subsequent action based on the determination result and the like, and based on the determination result, the actuator 3AA 1 To 3AA K , 3BA 1 Or 3BA K , 3CA 1 To 3CA K , 3DA 1 Or 3DA K , 4A 1 To 4A L , 5A 1 And 5A 2 Among them, the head unit 4 can be swung up and down, left and right, the tail unit 5 can be moved, and the leg units 3A to 3D can be driven to make the robot walk. To perform the action.
[0043]
Further, the controller 10 generates a synthesized sound as necessary, and supplies the synthesized sound to the speaker 18 to output the synthesized sound, or turns on / off an LED (Light Emitting Diode) (not shown) provided at the position of the “eye” of the robot. Or make it blink.
[0044]
Further, the controller 10 may control the reading operation of the RFID reader unit 19 based on a sound signal, an image signal, a pressure detection signal, and the like from the microphone 15, the CCD camera 16, the touch sensor 17, and the like. . For example, the controller 10 executes the operation of the RFID reader unit 19 for a certain period of time when detecting a contact based on a detection result from a contact detection unit that detects a contact such as the touch sensor 17. When the controller 10 detects the presence / absence or state of an object based on an optical detection result from an optical detection unit that optically detects the presence / absence or state of an object such as a CCD camera 16 or an infrared sensor, the controller 10 performs a predetermined operation During the time, the operation of the RFID reader unit 19 is executed.
[0045]
As described above, the robot can take an autonomous action based on the surrounding situation and the like.
[0046]
Next, FIG. 3 shows an example of a functional configuration of the controller 10 of FIG. Note that the functional configuration illustrated in FIG. 3 is realized by the CPU 10A executing a control program stored in the memory 10B.
[0047]
The controller 10 includes a sensor input processing unit 50 that recognizes a specific external state, an emotion / instinct model unit 51 that accumulates recognition results and the like of the sensor input processing unit 50 and expresses an emotion and an instinct state, and a sensor input processing unit. 50, an action determining mechanism 52 for determining a subsequent action based on the recognition result, etc., a posture transition mechanism 53 for actually causing the robot to perform an action based on the determination result of the action determining mechanism 52, and each actuator 3AA. 1 To 5A 1 And 5A 2 , A voice synthesizing unit 55 that generates a synthesized sound, and a sound processing unit 56 that controls the output of the voice synthesizing unit 55.
[0048]
The sensor input processing unit 50, based on a voice signal, an image signal, a pressure detection signal, an RFID signal, and the like given from the microphone 15, the CCD camera 16, the touch sensor 17, the RFID reader unit 19, and the like, It recognizes a specific action from the user, an instruction from the user, and the like, and notifies the emotion / instinct model unit 51 and the action determination mechanism unit 52 of state recognition information representing the recognition result.
[0049]
That is, the sensor input processing unit 50 includes a voice recognition unit 50A, and the voice recognition unit 50A performs voice recognition using a voice signal given from the microphone 15 in accordance with control from the action determination mechanism unit 52. Do. Then, the voice recognition unit 50A uses the emotion / instinct model unit 51 and the action determination as the state recognition information, for example, commands such as “walk”, “down”, “chase the ball” and the like as the voice recognition result. Notify the mechanism unit 52.
[0050]
Further, the sensor input processing unit 50 has an image recognition unit 50B, and the image recognition unit 50B performs an image recognition process using an image signal given from the CCD camera 16. Then, when the image recognition unit 50B detects, for example, a “red round object” or a “plane that is perpendicular to the ground and equal to or more than a predetermined height” as a result of the processing, the “ball is present” An image recognition result such as “there is a wall” is notified to the emotion / instinct model unit 51 and the action determination mechanism unit 52 as state recognition information.
[0051]
Further, the sensor input processing unit 50 has a pressure processing unit 50C, and the pressure processing unit 50C processes a pressure detection signal given from the touch sensor 17. Then, as a result of the processing, the pressure processing unit 50C, when detecting a pressure that is equal to or more than a predetermined threshold value and for a short period of time, recognizes that the pressure processing unit 50C has been struck (struck). When a long-time pressure is detected, it is recognized as “patched (complained)”, and the recognition result is notified to the emotion / instinct model unit 51 and the action determination mechanism unit 52 as state recognition information. I do.
[0052]
The sensor input processing unit 50 has an environment recognizing unit 50D. The environment recognizing unit 50D uses a robot using an audio signal given from the microphone 15 and an image signal given from the CCD camera 16. For example, it recognizes the distance from the robot to the user as an environment, and outputs the recognition result to the acoustic processing unit 56 as state recognition information.
[0053]
Further, the sensor input processing unit 50 has an ID recognition unit 50E, and the ID recognition unit 50E performs a recognition process of a signal recorded in the RFID by using an RFID signal provided from the RFID reader unit 19. The ID recognition unit 50E recognizes the result of the processing, for example, “ball”, “vase”, and the like, and uses the recognition result as state recognition information as the emotion / instinct model unit 51 and the action determination mechanism unit 52. Notify. A configuration example of the ID recognition unit 50E will be described later with reference to FIG.
[0054]
Here, the controller 10 controls operations of the RFID reader unit 19 and the ID recognition unit 50E according to recognition results from the voice recognition unit 50A, the image recognition unit 50B, the pressure recognition unit 50C, and the like of the sensor input processing unit 50. You may do so. For example, when an image signal from the CCD camera 16 is image-recognized by the image recognition unit 50B to obtain a recognition result of a round object like a ball, the RFID reader unit 19 is operated to operate the RFID provided on the object like the ball. The tag is read, and the RFID signal obtained from the RFID reader unit 19 is sent to the ID recognizing unit 50E to perform the recognition process, thereby recognizing that it is a “ball”. In this case, as will be described later, more detailed information of the object, for example, recognition of a soccer ball can be easily realized.
[0055]
The emotion / instinct model unit 51 manages an emotion model and an instinct model expressing the emotion of the robot and the state of the instinct as shown in FIG.
[0056]
The emotion model is composed of, for example, three emotion units 60A, 60B, and 60C. These emotion units 60A to 60C indicate the emotional states (degrees) of “happy”, “sad”, and “angry”. For example, each value is represented by a value in the range of 0 to 100, and the value is changed based on state recognition information from the sensor input processing unit 50, elapsed time, or the like.
[0057]
It should be noted that the emotion model may include emotion units corresponding to "joy" in addition to "joy", "sadness", and "anger".
[0058]
The instinct model is composed of, for example, three instinct units 61A, 61B, and 61C, and these instinct units 61A to 61C are states (degrees) of instinct such as “appetite”, “sleep desire”, and “exercise desire”. Is represented by, for example, a value in a range of 0 to 100, and the value is changed based on state recognition information from the sensor input processing unit 50, elapsed time, or the like.
[0059]
The emotion / instinct model unit 51 converts the emotion state represented by the values of the emotion units 60A to 60C and the instinct state represented by the values of the instinct nits 61A to 61C, which change as described above, into the emotion / instinct state. The state information is sent to the sensor input processing unit 50, the action determination mechanism unit 52, and the speech synthesis unit 55 as state information.
[0060]
The action determining mechanism unit 52 determines the next action based on the state recognition information from the sensor input processing unit 50, the emotion / instinct state information from the emotion / instinct model unit 51, the passage of time, and the like. The content of the action is sent to the attitude transition mechanism unit 53 as action command information.
[0061]
That is, as shown in the state transition diagram of FIG. 5, the action determination mechanism unit 52 manages a finite automaton in which a possible action of the robot is associated with a state (state) as an action model that defines the action of the robot. The state in the finite state automaton as the behavior model is changed based on the state recognition information from the sensor input processing unit 50, the values of the emotion model and the instinct model in the emotion / instinct model unit 51, the passage of time, and the like. The action corresponding to the state after the transition is determined as the action to be taken next.
[0062]
Specifically, for example, in FIG. 5, state ST3 indicates an action of “standing”, state ST4 indicates an action of “sleeping”, and state ST5 indicates an action of “chase a ball”. It is assumed that Now, for example, when state recognition information indicating that "the ball has disappeared" is supplied in the state ST5 of "following the ball", the state transits from the state ST5 to ST3, and as a result, the state corresponding to the state ST3 is obtained. It is decided to take the action of "standing" next. Further, for example, in state ST4 of “sleeping”, when state recognition information of “wake up” is supplied, the state transits from state ST4 to ST3. As a result, “standing” corresponding to state ST3 also results. The next action is determined.
[0063]
Here, when detecting that there is a predetermined trigger, the action determination mechanism 52 changes the state. That is, for example, when the time during which the action corresponding to the current state is being executed reaches a predetermined time, or when specific state recognition information is received, the action determination mechanism unit 52 The value of the emotional state indicated by the supplied emotion / instinct state information (the value of the emotional units 60A to 60C) or the value of the state of the instinct (the value of the instinct units 61A to 61C) has become equal to or less than a predetermined threshold value. The state is transited at times.
[0064]
Note that, as described above, the action determination mechanism unit 52 performs the processing shown in FIG. 5 based on not only the state recognition information from the sensor input processing unit 50 but also the values of the emotion model and the instinct model in the emotion / instinct model unit 51. In the finite state automaton, the state transition destination differs depending on the value of the emotion model or the instinct model (emotion / instinct state information) even if the same state recognition information is input.
[0065]
As a result, for example, when the emotion / instinct state information indicates “not angry” and “not hungry”, the action determination mechanism unit 52 sets the state recognition information to “eye When the palm is presented before, the action command information for taking the action of "hand" is generated in response to the palm being presented in front of the eyes, It is sent to the posture transition mechanism 53.
[0066]
In addition, for example, when the emotion / instinct state information indicates “not angry” and “stomach is hungry”, the behavior recognition mechanism unit 52 determines that the state recognition information is “ When the palm is displayed, the action command information for performing an action such as "palm licking the palm" is generated in response to the palm being displayed in front of the eyes. This is sent to the posture transition mechanism 53.
[0067]
In addition, for example, when the emotion / instinct state information indicates “angry”, the action determination mechanism unit 52 determines that the state recognition information indicates that “the palm has been presented in front of the eyes”. Even if the emotion / instinct status information indicates that you are hungry, or that you are expressing that you are not hungry, it will look like “turn to the side” The action instruction information for causing the user to perform an appropriate action is generated and transmitted to the posture transition mechanism unit 53.
[0068]
Further, the action determining mechanism 52 generates action command information for causing the robot to speak, in addition to the action command information for operating the robot's head and limbs as described above. The action command information for causing the robot to speak is supplied to the voice synthesis unit 55, and the action command information supplied to the voice synthesis unit 55 corresponds to the synthesized sound generated by the voice synthesis unit 55. And the like. Then, upon receiving the action command information from the action determination section 52, the speech synthesis section 55 determines the state of the emotion and the state of the instinct managed by the emotion / instinct model section 51 based on the text included in the action command information. For example, a synthesized voice is generated by performing, for example, regular voice synthesis while adding the synthesized voice, and is supplied to the acoustic processing unit 56.
[0069]
The posture transition mechanism unit 53 generates posture transition information for transitioning the posture of the robot from the current posture to the next posture based on the behavior command information supplied from the behavior determination mechanism unit 52, and controls the posture transition information. It is sent to the mechanism 54.
[0070]
Here, the posture that can be changed next from the current posture is, for example, the physical shape of the robot such as the shape and weight of the body, hands and feet, the connection state of each part, and the direction and angle at which the joint bends. Actuator 3AA 1 To 5A 1 And 5A 2 And the mechanism.
[0071]
The next posture includes a posture that can directly transition from the current posture and a posture that cannot directly transition. For example, a four-legged robot can directly transition from lying down with its limbs throwing down to lying down, but cannot directly transition to standing up. It is necessary to perform a two-stage operation of pulling down to a prone position and then standing up. There are also postures that cannot be safely executed. For example, a four-legged robot easily falls down when trying to banzai with both front legs raised from its standing posture.
[0072]
For this reason, the posture transition mechanism unit 53 pre-registers a posture to which a direct transition is possible, and when the action command information supplied from the behavior determination mechanism unit 52 indicates a posture to which a direct transition is possible, the behavior command The information is sent to the control mechanism unit 54 as the posture transition information as it is. On the other hand, when the action command information indicates a posture that cannot be directly changed, the posture transition mechanism unit 53 temporarily changes the posture to another possible posture and then changes the posture transition information to make a transition to the target posture. It is generated and sent to the control mechanism 54. As a result, it is possible to avoid a situation where the robot forcibly executes an untransitionable posture or a situation where the robot falls.
[0073]
That is, for example, as shown in FIG. 6, the posture transition mechanism unit 53 expresses the postures that the robot can take as nodes NODE1 to NODE5, and directs between the nodes corresponding to the two postures that can be transitioned. The digraphs connected by the arcs ARC1 to ARC10 are stored, and the posture transition information as described above is generated based on the digraphs.
[0074]
Specifically, when the behavior command information is supplied from the behavior determination mechanism unit 52, the posture transition mechanism unit 53 corresponds to the node NODE corresponding to the current posture and the posture to be taken next indicated by the behavior command information. Search for a path from the current node NODE to the next node NODE while following the direction of the directed arc ARC so as to connect to the node NODE, and take the posture corresponding to the node NODE on the searched path in order. Is generated.
[0075]
As a result, for example, when the current posture is in the node NODE2 indicating the posture of “turn off” and the action command information of “close” is supplied, the posture transition mechanism unit 53 displays “turn off” in the directed graph. Since it is possible to make a direct transition from the node NODE2 indicating the posture of “sit” to the node NODE5 indicating the posture of “sits”, the posture transition information corresponding to “sits” is generated and provided to the control mechanism unit 54.
[0076]
Also, when the current posture is in the node NODE2 indicating the posture of “turn off”, and the action command information of “walk” is supplied, the posture transition mechanism unit 53 determines from the node NODE2 of “turn off” in the directed graph. , Is searched for a route to the node NODE4 of "Aruku". In this case, the path of the node NODE2 corresponding to "Fusage", the path of NODE3 corresponding to "Tatsu", and the path of NODE4 corresponding to "Araku" are obtained. Is generated and sent to the control mechanism unit 54.
[0077]
The control mechanism unit 54 controls the actuator 3AA in accordance with the posture transition information from the posture transition mechanism unit 53. 1 To 5A 1 And 5A 2 And generates a control signal for driving the actuator 3AA. 1 To 5A 1 And 5A 2 To send to. Thereby, the actuator 3AA 1 To 5A 1 And 5A 2 Is driven according to a control signal, and the robot autonomously acts.
[0078]
On the other hand, the sound processing unit 56 receives the state recognition information output from the environment recognition unit 50D constituting the sensor input processing unit 50, and outputs the synthesized sound supplied from the voice synthesis unit 55 based on the state recognition information. Control. That is, the sound processing unit 56 can clearly hear the synthesized sound output from the speaker 18 with respect to the noise in the environment where the robot is used, the distance from the robot to the user, and the like as the state recognition information. Thus, the size (power), height (frequency), and the like are adjusted so as not to cause harshness, and the adjusted power is supplied to the speaker 18. As a result, the speaker 18 outputs a synthesized sound having an appropriate size and height.
[0079]
Next, FIG. 7 illustrates a configuration example of the ID recognition unit 50E of FIG. The ID collation unit 41 is supplied with an RFID signal output from the RFID reader unit 19. The ID table storage unit 42 stores an ID number of an RFID tag (wireless tag) registered in advance and a table of target related information corresponding to the ID number (hereinafter, referred to as an ID table). FIG. 8 shows an example of the ID table. In the example of FIG. 8, as the target related information, the target related information A of a relatively large category such as “desk”, “ball”, “vase”, etc., and the ball “foot” and “for soccer” of the desk , And more detailed target-related information B such as a vase for “flower arrangement”.
[0080]
7 determines whether or not the RFID signal output from the RFID reader unit 19 belongs to information recorded in the ID table of the ID table storage unit 42. Then, when it is determined that the RFID signal output from the RFID reader unit 19 is recorded in the ID pattern storage unit 42, the RFID signal corresponding to the ID number of the RFID signal is obtained from the ID table recorded in the ID pattern storage unit 42. The target related information is read out, and the state recognition information corresponding to the target related information is notified to the emotion / instinct model unit 51 and the action determination mechanism unit 52. Therefore, the behavior of the robot device is controlled according to the state recognition information based on the target related information. Note that the object recognition information may be used as it is as the state recognition information. Further, a plurality of target related information corresponding to the ID number may exist.
[0081]
As a format of the RFID signal, for example, a format having a header portion, an identifier portion, and a data portion and having a total of 128 bits can be used. In addition, various formats can be used. Generally, an RFID tag has a larger amount of information than a barcode, has a high ability to identify an object, and can include detailed data of the object. In addition, since the RFID system is capable of non-contact information communication, it has excellent durability, is not affected by dirt or dust, can be read while moving, and has optical detection means such as a camera. However, there is an advantage that object recognition can be performed even in darkness.
[0082]
In addition, since the RFID tag has a larger amount of information than a barcode or the like, data that already has its own meaning, such as ASCII code, sampling data of voice or image, or compression encoded data, is used for the RFID tag. May be stored in the memory. In this case, part or all of the information of the ID table as described above can be omitted, and further, the ID table itself can be omitted, and the target-related information or the like can be directly read from the RFID signal. is there.
[0083]
According to the above-described embodiment of the present invention, by providing the RFID reader unit 19 in the robot apparatus, it is possible to confirm information of an object and identify an object which is difficult to be detected by a microphone, a camera, and various sensors. It is possible to perform object recognition effectively and reliably even when the external environment is dark. Then, according to the recognized result, it is possible to cause the user to take a unique action.
[0084]
By using the robot apparatus having such an RFID reader unit 19, it is possible to apply to a game (sports), a restriction on an action range, a relation building with surroundings, an automatic mounting, and the like.
[0085]
For example, as an example of application to a game (sports), in the case of a ball game such as a soccer game, a tag is attached to a robot device, a ball, a ground (ground), etc., which are members (players), so that an opponent can play a ball and a court. It is possible to easily recognize the position or the like while moving, and to smoothly perform a ball game. In the case of an obstacle race, a tag is attached to the ground (ground) and the obstacle so that the current position and the obstacle can be recognized while moving, so that the game can proceed smoothly. In addition, it is possible to tag the skateboard (skateboard), recognize the position of the skateboard, and run on the skateboard.
[0086]
In addition, as a constraint on the action range, by attaching a tag to a wall or a stepped portion and making it recognized, it is possible to realize a constraint on the action range that prevents a collision with a wall or a fall from a stepped portion.
[0087]
Also, as an example of automatic mounting, you can attach a tag to the charger and charge it by yourself, or attach a tag to the robot's component parts (parts), let the robot body recognize the parts, and attach and detach the parts by yourself. It is also possible to tag a vehicle such as a skateboard or the like and ride it on its own.
[0088]
In addition, tags are attached to the skateboard and the ground to recognize location information, carry objects, and tag small objects such as cat strollers and pillows to make them recognized and comfortable / unpleasant according to the recognized small items. Various applications are possible, such as giving emotional expressions such as danger / safety.
[0089]
Further, when the robot device recognizes the information of the RFID tag, the robot device may act as a fatigue, heat or body temperature, pain, appetite or hunger, dryness, affection. Behavior based on instinct factors such as (affection), curiosity, elimination or sexuality, happiness, sadness, anger, surprise, disgust (Disgust), fear, frustration, boredom, sleep (somnolence), sociability (gregariousness), patience, tension, relaxed, alertness, Actions based on emotional factors, such as guilt, spite, loyalty, submission, or jealousy, may appear.
[0090]
Here, as a specific example, an example will be described in which a tag is attached to the wall, the step portion, or the like so that the wall, the step portion, or the like is prevented from hitting the wall or dropping from the step portion.
[0091]
FIG. 9 shows an example of an ID table indicating a relationship between an ID number for identifying a wall, a step portion, and the like in this case and the target related information. In the example of FIG. 9, for the ID number of the RFID tag, target related information C for identifying a wall, a step, a slope, and the like, and specific actions such as stop, backward, right turn, left turn, etc. Target related information D for identification is set. This ID table is stored in, for example, the ID table storage unit 42 described with reference to FIG. 7, and the ID collation unit 41 stores the ID number of the RFID signal transmitted from the RFID reader unit 19 in the ID table storage unit 42. It is determined whether the information belongs to the information stored in the ID table of FIG. 9 described above, and when it is determined that the information belongs, the target related information C and D corresponding to the ID number of the RFID signal are read from the ID table, and The above-mentioned state recognition information corresponding to the target related information (or the target related information as it is as state recognition information) is notified to the emotion / instinct model unit 51 and the action determination mechanism unit 52 as shown in FIG. Of course, the ID number and the target related information are not limited to the specific example of FIG.
[0092]
FIGS. 10 to 12 show an example of the operation when the robot apparatus 1 as described above approaches a place having a step. As the robot device 1, for example, a robot device of the type described with reference to FIGS. 1 to 7 can be used. In this case, the ID table shown in FIG. 9 is recorded in the ID table storage unit of the robot device 1, and the head unit 4 of the robot device 1 includes the RFID reader unit 19 for reading the information of the RFID tag. , Are arranged at predetermined positions.
[0093]
The RFID tags 100 to 112 are fixed at an interval of a predetermined distance d (for example, about 10 cm) inside the tape 118, for example. In the RFID tags 100 to 112, for example, 12000001 is recorded as an ID number. The tape 118 is fixed on the floor 114 along the side surfaces (side walls) 113 and 115 of the step. Specifically, the RFID tag can be easily manufactured by attaching an adhesive tape with a tag in which the RFID tag is provided in advance at a predetermined distance d inside the tape base to a desired position such as near a step. Can be installed in
[0094]
FIG. 10 shows how the robot apparatus 1 walks on the floor 114 and approaches the RFID 107 near the step (side wall 113). FIG. 11 shows a state in which the robot apparatus 1 has transitioned from the state of FIG. 10 and has reached a distance at which the RFID reader unit 19 can read the information recorded on the RFID tag 107. In FIG. 11, the RFID reader 19 reads information 117 (ID number 12000001) recorded on the RFID tag 107 by the radio wave 116. The RFID reader unit 19 outputs the read information 117 (ID number 12000001) to the ID collation unit 41 of the robot device 1. The ID collation unit 41 determines whether the information 117 (ID number 12000001) output from the RFID reader unit 19 belongs to the information of the ID table of FIG. 9 stored in the ID table storage unit 42. Since the ID number 12000001 is determined to belong to the information recorded in the ID table storage unit 42, the target related information C (step) and the target related information D corresponding to the ID number 12000001 of the RFID signal are determined based on the ID table. (Rearward) is notified to the emotion / instinct model unit 51 and the action determination mechanism unit 52. The action determination mechanism unit 52 performs state recognition information according to the target related information C (step) and the target related information D (backward movement), the emotion / instinct state information from the emotion / instinct model unit 51, the time lapse, and the like. The next action is determined to be “backward”, and the content of the determined action is sent to the attitude transition mechanism unit 53 as action command information. The posture transition mechanism unit 53 generates posture transition information for transitioning the posture of the robot from the current posture to the next backward posture based on the action command information of "backward movement" supplied from the behavior determination mechanism unit 52. It is generated and sent to the control mechanism 54. The control mechanism unit 54 controls the actuator 3AA in accordance with the posture transition information from the posture transition mechanism unit 53. 1 To 5A 1 And 5A 2 And generates a control signal for driving the actuator 3AA. 1 To 5A 1 And 5A 2 To send to. Thereby, the actuator 3AA 1 To 5A 1 And 5A 2 Is driven in accordance with the control signal, and the robot apparatus 1 performs an action of “backward”. FIG. 12 shows a state where the vehicle is moved backward from the state shown in FIG.
[0095]
13 to 15 show an example of the operation when the robot device 1 approaches a place with a wall. The robot device 1 is a robot device of the type described with reference to FIGS. 1 to 7, and the information in the ID table is as shown in FIG. In the head unit 4 of the robot device 1, the RFID reader 19 for reading information of the RFID tag is provided at a predetermined position.
[0096]
In the example shown in FIGS. 13 to 15, similarly to the examples shown in FIGS. 10 to 12, the RFID tags 120 to 122 are provided inside the tape 118 at predetermined intervals d (for example, about 10 cm). The RFID tags 120 to 122 record 11000001 as an ID number. The tape 118 is fixed (attached) to the surface of the wall 124.
[0097]
FIG. 13 shows how the robot apparatus 1 walks on the floor 123 and approaches the RFID tag 121. FIG. 14 shows a state in which the robot apparatus 1 has transitioned from the state shown in FIG. 13 and has reached a distance at which the RFID reader unit 19 can read information recorded on the RFID tag 121. FIG. 14 shows a state in which the RFID reader unit 19 is reading information 119 (ID number 11000001) recorded on the RFID tag 121 by the radio wave 116. The RFID reader section 19 outputs the read information 119 (ID number 11000001) to the ID collation section 41 of the robot device 1. The ID collation unit 41 determines whether the information 119 (ID number 11000001) output from the RFID reader unit 19 belongs to the information recorded in the ID table (FIG. 9) of the ID table storage unit 42. Since it is determined that the ID number 11000001 is recorded in the ID table storage unit 42, the target related information C (wall) and the target related information D (backward) corresponding to the ID number 11000001 of the RFID signal from the ID table are obtained. And notifies the emotion / instinct model unit 51 and the action determination mechanism unit 52 of the state recognition information corresponding to the target related information. The action determination mechanism unit 52 performs state recognition information according to the target related information C (step) and the target related information D (backward movement), the emotion / instinct state information from the emotion / instinct model unit 51, the time lapse, and the like. The next action is determined to be “backward”, and the content of the determined action is sent to the attitude transition mechanism unit 53 as action command information. The posture transition mechanism unit 53 generates posture transition information for transitioning the posture of the robot from the current posture to the next backward posture based on the action command information of "backward movement" supplied from the behavior determination mechanism unit 52. It is generated and sent to the control mechanism 54. The control mechanism unit 54 controls the actuator 3AA in accordance with the posture transition information from the posture transition mechanism unit 53. 1 To 5A 1 And 5A 2 And generates a control signal for driving the actuator 3AA. 1 To 5A 1 And 5A 2 To send to. Thereby, the actuator 3AA 1 To 5A 1 And 5A 2 Is driven in accordance with the control signal, and the robot performs a “backward” action. FIG. 15 shows a state in which the state is backward from the state of FIG.
[0098]
The behavior of the robot apparatus 1 described with reference to FIGS. 10 to 12 and FIGS. 13 to 15 is “backward”, but according to the environment, stops, retreats, moves forward, turns right, turns left, backwards, jumps, skips, Various simple actions such as prone, squatting, erect, handstand, supine, inversion, rotation, change of facial expression, change of tail, change of limbs, as well as fatigue (fatigue), heat or body temperature (temperature), pain ( happiness, behavior based on instinct factors such as pain, appetite or hunger, thirst, affection, affection, curiosity, elimination or sexuality. Sadness, anger, surprise, disgust, fear, fear, frustration, boredom, sleep (somnolence), sociality (gregariousness), patience , Tension, lira Generate actions based on emotional factors such as relaxed, alertness, guilt, spite, spontaneity, loyalty, submission, or jealousy Is also good.
[0099]
The target related information associated with the information recorded on the RFID tags in FIGS. 10 to 12 and FIGS. 13 to 15 is “wall” or “step”. Various information may be used according to the environment such as a corner, an entrance, a living room, a dining room, a Japanese-style room, a Western-style room, a bathroom, a window, a passage, and a living room.
[0100]
Although the RFID tags shown in FIGS. 10 to 12 and FIGS. 13 to 15 are fixed inside the tape 118, sheets such as paper and vinyl, tapes, stickers, strings, cables, cards, pens, Fixed to the surface or inside of members such as curtains, carpets, cloths, stuffed toys, stairs, floors, holes, pillars, corners, entrances, living rooms, dining rooms, Japanese-style rooms, Western-style rooms, bathrooms, windows, passages, living rooms It may be fixed to the surface or inside of the constituent member.
[0101]
Next, a system for establishing a relationship between the robot device having the RFID reader unit 19 as described above and objects including humans and animals around the robot device will be described.
[0102]
This means that in the case of pets such as animal dogs and cats, it is possible to distinguish between their owner and other humans, and their parents, children, siblings, etc. It is possible to act according to advanced relationships such as master-slave relationships and family relationships.However, in the conventional pet robot device, when there are multiple persons similar to the owner or when there are multiple similar pet robot devices In consideration of difficulties in discriminating between the owner and other humans and between the family and others, the robot apparatus must establish the advanced relationship described above with surrounding creatures ( It can be constructed between humans and animals) and objects (other robots and the like).
[0103]
Here, FIG. 16 is an ID number for identifying advanced relations (family relations, blood relations, master-slave relations, etc.) between surrounding organisms (humans, animals, etc.) and objects (other robots, etc.). 4 shows an example of an ID table indicating a relationship between the information and the target related information. In the example of FIG. 16, for the ID number of the RFID tag, target related information E indicating a relationship between the owner and the like, target related information F indicating a birthday, and target related information G indicating a gender are set. ing. This ID table is stored in, for example, the ID table storage unit 42 described with reference to FIG. 7, and the ID collation unit 41 stores the ID number of the RFID signal transmitted from the RFID reader unit 19 in the ID table storage unit 42. It is determined whether the information belongs to the information stored in the ID table of FIG. 16 described above, and when it is determined that the information belongs, the target related information E, F, G corresponding to the ID number of the RFID signal is read from the ID table. Then, it notifies the emotion / instinct model unit 51 and the action determination mechanism unit 52 as shown in FIG. Of course, the ID number and the target related information are not limited to the specific example of FIG.
[0104]
17 to 20 show an example of the operation when the robot device 1 as described above approaches a person having an RFID tag. As the robot device 1, for example, a robot device of the type described with reference to FIGS. 1 to 7 can be used. In this case, an ID table shown in FIG. 16 is recorded in the ID table storage unit of the robot device 1, and the head unit 4 of the robot device 1 includes an RFID reader unit 19 for reading information of an RFID tag. It is assumed that it is arranged at a predetermined position.
[0105]
Here, the human 130 shown in FIGS. 17 to 19 is an owner, for example, wearing a ring 141, and the ring 141 is provided with an RFID tag 142 as shown in FIG. In this RFID tag 142, an ID number 21000000 indicating the owner of the ID table in FIG. 16 is recorded.
[0106]
FIG. 17 shows a state in which the robot 1 apparatus has acquired image data 131 of the human 130 by the CCD camera 16 and is approaching the human 130 based on the image recognition result. FIG. 18 shows a state in which the robot apparatus 1 has transitioned from the state shown in FIG. 17 and has reached a distance at which the RFID reader unit 19 can read the information recorded on the RFID tag 142 of the ring 141. FIG. 18 shows a state in which the RFID reader unit 19 is reading information 146 recorded on the RFID tag 142 of the ring 141 by the radio wave 145. The RFID reader section 19 outputs the read information 146 to the ID collation section 41 of the robot device 1. The ID collation unit 41 determines whether the information 146 (ID number 21000000) output from the RFID reader unit 19 belongs to the information recorded in the ID table of the ID table storage unit 42. Since the ID number of the information 146 is 21000000 and it is determined that the ID number is recorded in the ID pattern storage unit 42, the target related information E corresponding to the ID number 21000000 of the RFID signal is determined based on the ID table of FIG. The “owner”, the target related information F “12/12/1948”, and the target related information G “man” are read out, and the state recognition information corresponding to the target related information is read into the emotion / instinct model unit 51 and the action determination. Notify the mechanism unit 52. The action determination mechanism unit 52 includes a ring with a built-in RFID tab 142 based on state recognition information corresponding to the target related information E, F, and G, the emotion / instinct state information from the emotion / instinct model unit 51, and the passage of time. It recognizes the human 130 wearing the 141 as the owner and decides to act in the future so as to establish a master-slave relationship with the human 130. In order to express the master-slave relationship with the owner, for example, “stand” is determined as the next action, and the content “stand” of the determined action is sent to the posture transition mechanism unit 53 as action command information. The posture transition mechanism unit 53 is configured to change the posture of the robot apparatus 1 from the current posture to the next standing posture based on the action command information of “standing” supplied from the behavior determining mechanism unit 52. It generates transition information and sends it to the control mechanism 54. The control mechanism unit 54 controls the actuator 3AA in accordance with the posture transition information from the posture transition mechanism unit 53. 1 To 5A 1 And 5A 2 And generates a control signal for driving the actuator 3AA. 1 To 5A 1 And 5A 2 To send to. Thereby, the actuator 3AA 1 To 5A 1 And 5A 2 Is driven in accordance with the control signal, and the robot apparatus 1 performs the action of “standing”. FIG. 19 shows a state of the robot apparatus 1 standing from the state of FIG.
[0107]
Next, an example in which 22000003 is recorded as the ID number instead of 21000000 in the RFID tag will be described below.
[0108]
It is assumed that the person 133 shown in FIG. 20 is wearing a ring 143 provided with an RFID tag in which 22000003 is recorded as an ID number. At this time, the robot apparatus 1 performs state recognition information corresponding to the target related information E “other”, the target related information F “1950/9/1”, and the target related information G “man” corresponding to the RFID signal ID number 22000003. To the emotion / instinct model unit 51 and the action determination mechanism unit 52. The action determination mechanism unit 52 is an RFID tag in which 22000003 is recorded based on state recognition information corresponding to the target related information E, F, and G, the emotion / instinct state information from the emotion / instinct model unit 51, and the passage of time. The person 133 wearing the ring 143 provided with is recognized as a red person, and it is determined that the person 133 will behave in the future so as to be unrelated to the person 133. In order to express that the action is unrelated to the human 133, “retreat” is determined as the next action, and the content “retreat” of the determined action is sent to the attitude transition mechanism unit 53 as action command information. The posture transition mechanism unit 53 is configured to change the posture of the robot 1 from the current posture to the next posture for retreating based on the action command information of “retreat” supplied from the behavior determination mechanism unit 52. It generates transition information and sends it to the control mechanism 54. The control mechanism unit 54 controls the actuator 3AA in accordance with the posture transition information from the posture transition mechanism unit 53. 1 To 5A 1 And 5A 2 And generates a control signal for driving the actuator 3AA. 1 To 5A 1 And 5A 2 To send to. Thereby, the actuator 3AA 1 To 5A 1 And 5A 2 Is driven in accordance with the control signal, and the robot apparatus 1 performs an action of “retreat”. FIG. 20 shows a state of the robot apparatus 1 which has retreated.
[0109]
Next, FIG. 22 to FIG. 24 show an example of the operation when the robot device 151 approaches the robot device 152. As these robot devices 151 and 152, for example, the robot devices of the type described with reference to FIGS. 1 to 7 can be used. In this case, an ID table as shown in FIG. 16 is recorded in the ID table storage unit of each of the robot devices 151 and 152, and the head unit 4 of each of the robot devices 151 and 152 stores the above-mentioned RFID for reading the information of the RFID tag. It is assumed that the reader unit 19 is provided at a predetermined position. An RFID tag 153 is attached to a predetermined position of the robot device 151, for example, a surface of the nose, and an RFID tag 154 is attached to a predetermined position of the robot device 152, for example, the surface of the nose. Further, the RFID tag 153 records 21000005 as an ID number, and the RFID tag 154 records 21000004 as an ID number.
[0110]
FIG. 22 shows a state in which the robot device 151 has obtained image data 155 of the robot device 152 by the CCD camera 16 and is approaching the robot device 152 based on the image recognition result. FIG. 23 illustrates a state in which the robot device 151 has transitioned from the state illustrated in FIG. 22 and has reached a distance at which the RFID reader 19 can read the information 156 recorded on the RFID tag 154. FIG. 23 shows a state in which the RFID reader unit 19 is reading information 156 recorded on the RFID tag 154 by the radio wave 157. The RFID reader section 19 outputs the read information 156 to the ID collation section 41 of the robot device 151. The ID collation unit 41 determines whether the information 156 (ID number 21000004) output from the RFID reader unit 19 belongs to the information recorded in the ID table (FIG. 16) of the ID table storage unit 42. Since the ID number of the information 156 is 21000004 and it is determined that the ID number is recorded in the ID pattern storage unit 42, the target related information E “mother” corresponding to the ID number 21000004 of the RFID signal is determined based on the ID table. , The subject-related information F “September 1, 1993” and the subject-related information G “woman” are read out, and state recognition information corresponding to these subject-related information is sent to the emotion / instinct model unit 51 and the action determination mechanism unit 52. Notice. The action determination mechanism 52 includes state recognition information corresponding to the target related information E “mother” / F “1993/9/1” / G “woman”, emotion / instinctive state information from the emotion / instinct model unit 51, and time. Based on the progress and the like, the robot device 152 is recognized as the mother, and it is determined that the robot device 152 will behave in the future so as to establish a family relationship with the robot device 152. In order to express the family relationship with the robot device 152, “follow the behavior of the robot device 152” is determined as the next behavior, and the content of the determined behavior “follow the behavior of the robot device 152” is specified by an action command. The information is sent to the posture transition mechanism 53 as information. The posture transition mechanism unit 53 changes the posture of the robot device 151 from the current posture to the next robot device 151 based on the action command information of “follow the action of the robot device 152” supplied from the action determination mechanism unit 52. Posture transition information for transitioning to the posture for following the action is generated and transmitted to the control mechanism unit 54. The control mechanism unit 54 controls the actuator 3AA in accordance with the posture transition information from the posture transition mechanism unit 53. 1 To 5A 1 And 5A 2 And generates a control signal for driving the actuator 3AA. 1 To 5A 1 And 5A 2 To send to. Thereby, the actuator 3AA 1 To 5A 1 And 5A 2 Is driven in accordance with the control signal, and the robot device 151 causes an action of “follow the action of the robot device 152”. FIG. 24 shows a state in which the robot device 151 is following the action of the robot device 152 from the state of FIG.
[0111]
In FIG. 19, the robot apparatus 1 has acted to establish a "master-slave relationship", and in FIG. 24, the robot apparatus 151 has acted to establish a "family relationship". The relationship may be various relationships such as a family relationship, a blood relationship, a friend relationship, a master-slave relationship, a local relationship, a sports member, a capitalist / worker relationship, a buying and selling relationship, a love relationship, a customer relationship, and the like. Also, based on such a relationship, the robotic device can be used by a grandfather, grandmother, father, mother, brother, sister, brother, sister, friend, neighbor, cousin, uncle, grandmother, alumni, teacher, student, teammate, rival, Enemies, relatives, others, acquaintances, masters, servants, servants, pets, guide dogs, women, men, lovers, boys, girls, adults, children, babies, the elderly, adolescents, married, unmarried, widowed, volunteer, nursing Woman, nurse, doctor, guide, waitress, waiter, stewardess, attendant, station worker, traffic officer, explainer, customer, seller, security guard, police, patrol, firefighter, guardman, salesman, cleaner, entertainer Is controlled to play at least one of the following.
[0112]
The action of the robot apparatus 1 in FIG. 19 is “stand” and the action of the robot apparatus 151 in FIG. 24 is “follow the action of the robot apparatus 152”. Stop, retreat, move forward, turn right, turn left, move backward, jump, skip, lie down, squat, erect, handstand, supine, flip, rotate, change facial expression, change tail, depending on the relationship established with the object Various simple actions, such as changes in limbs, as well as fatigue, heat or temperature, pain, appetite or hunger, thirst, affection, curiosity Behavior based on instinct factors, such as curiosity, elimination or sexuality, happiness, sadness, anger, surprise, disgust, fear (Fear), frustration ( frustration, boredom, sleep (somnolence), sociability (gregariousness), patience, tension (tense), relaxed (relaxed), alertness, guilt, spite, honesty The behavior may be based on emotional factors such as loyalty, submission, or jealousy.
[0113]
Further, in the above-described embodiment, an ID number is written in the RFID tag, an ID table is provided inside the robot device, and the corresponding target related information is referred to from the ID number stored in the RFID tag. However, the RFID tag itself may store data having meaning, such as target-related information. In this case, it is not necessary to store the ID table in the robot device, and the target-related information and the like can be obtained directly by reading the RFID signal.
[0114]
In the above-described embodiment of the present invention, the above-described series of processes is performed by causing the CPU 10A to execute a program. However, the series of processes may be performed by dedicated hardware.
[0115]
The program is stored in the memory 10B (FIG. 2) in advance, and is stored in a flexible disk, a compact disk read only memory (CD-ROM), a magnetic disk (MO), a digital versatile disk (DVD), a magnetic disk, It can be temporarily or permanently stored (recorded) in a removable recording medium such as a semiconductor memory. Then, such a removable recording medium can be provided as so-called package software, and can be installed in the robot (memory 10B).
[0116]
In addition to installing the program from a removable recording medium, the program can be wirelessly transferred from a download site via an artificial satellite for digital satellite broadcasting, or wired via a network such as a LAN (Local Area Network) or the Internet. It can be transferred and installed in the memory 10B.
[0117]
In this case, when the program is upgraded, the upgraded program can be easily installed in the memory 10B.
[0118]
Here, in the present specification, processing steps for describing a program for causing the CPU 10A to perform various types of processing do not necessarily have to be processed in chronological order in the order described in the flowchart, and may be performed in parallel or individually. The processing to be executed (for example, parallel processing or processing by an object) is also included.
[0119]
Further, the program may be processed by one CPU or may be processed in a distributed manner by a plurality of CPUs.
[0120]
As described above, the case where the present invention is applied to an entertainment robot (robot as a pseudo pet) has been described. However, the present invention is not limited to this. For example, an industrial robot or a humanoid robot Can be widely applied to various types of robots.
[0121]
Here, a humanoid robot device to which the present invention can be applied will be described with reference to the drawings.
[0122]
FIGS. 25 and 26 show the humanoid robot device 200 viewed from the front and the rear, respectively. Further, FIG. 27 schematically shows the configuration of the degrees of freedom of the joints included in the humanoid robot device 200.
[0123]
As shown in FIGS. 25 and 26, the humanoid robot device 200 includes two lower legs 201R and 201L that perform legged movement, a trunk 202, upper and lower legs 203R and 203L, and a head 204. Be composed.
[0124]
Each of the left and right lower limbs 201R, 201L includes a thigh 205R, 205L, a knee joint 206R, 206L, a shin 207R, 207L, an ankle 208R, 208L, and a foot 209R, 209L. The lower part of the trunk 202 is connected to the lowermost part of the trunk 202 by 210L. Each of the left and right upper limbs 203R and 203L includes an upper arm 211R and 211L, an elbow joint 212R and 212L, and a forearm 213R and 213L. Each of the left and right side edges above the trunk 202 by the shoulder joints 214R and 214L. Are linked. Further, the head 204 is connected to the center of the uppermost end of the trunk 202 by a neck joint 255.
[0125]
As shown in FIG. 27, there are three degrees of freedom of a neck joint yaw axis 302 supporting the head 204, a neck joint pitch axis 303, and a neck joint roll axis 304.
[0126]
The arm joints include a shoulder joint pitch axis 308, a shoulder joint roll axis 309, an upper arm yaw axis 310, an elbow joint pitch axis 311, a forearm yaw axis 312, a wrist joint pitch axis 313, and a wrist joint roll. It is composed of a shaft 314 and a hand 315. The hand part 315 is actually a multi-joint and multi-degree-of-freedom structure including a plurality of fingers. However, since the movement of the hand 315 has little contribution or influence on the posture control and walking control of the humanoid robot device 200, it is assumed that the degree of freedom is zero in this specification. Therefore, each arm has seven degrees of freedom.
[0127]
The trunk has three degrees of freedom: a trunk pitch axis 305, a trunk roll axis 306, and a trunk yaw axis 307.
[0128]
Each leg constituting the lower limb includes a hip joint yaw axis 316, a hip joint pitch axis 317, a hip joint roll axis 318, a knee joint pitch axis 319, an ankle joint pitch axis 320, and an ankle joint roll axis 321. , And a foot 322. In this specification, the intersection of the hip joint pitch axis 317 and the hip joint roll axis 318 defines the hip joint position of the humanoid robot device 200. The foot 322 of the human body is actually a structure including a sole with multiple joints and multiple degrees of freedom, but the sole of the humanoid robot device 200 has zero degrees of freedom. Therefore, each leg has six degrees of freedom.
[0129]
Summarizing the above, the entire humanoid robot device 200 has a total of 3 + 7 × 2 + 3 + 6 × 2 = 32 degrees of freedom. However, the humanoid robot device 200 for entertainment is not necessarily limited to 32 degrees of freedom. Needless to say, the degree of freedom, that is, the number of joints, can be appropriately increased or decreased according to design / production constraints and required specifications.
[0130]
Each degree of freedom of the humanoid robot device 200 as described above is actually implemented using an actuator. Actuators are required to be small and lightweight due to demands such as eliminating extra bulges in appearance and approximating the human body shape, and controlling the posture of unstable structures such as bipedal walking. preferable.
[0131]
FIG. 28 schematically shows a control system configuration of the humanoid robot device 200. As shown in the figure, the humanoid robot device 200 has each of the mechanism units 330, 340, 350R / L, and 360R / L representing human limbs, and adaptive control for realizing a cooperative operation between the mechanism units. (However, each of R and L is a suffix indicating each of right and left. The same applies hereinafter).
[0132]
The operation of the entire humanoid robot device 200 is totally controlled by the control unit 380. The control unit 380 exchanges data and commands between a main control unit 381 composed of main circuit components (not shown) such as a CPU (Central Processing Unit) and a memory, and a power supply circuit and each component of the humanoid robot device 200. It includes a peripheral circuit 382 including an interface (not shown) for transmitting and receiving. The installation place of the control unit 380 is not particularly limited. In FIG. 28, it is mounted on the trunk unit 340, but may be mounted on the head unit 330. Alternatively, the control unit 380 may be provided outside the humanoid robot device 200 to communicate with the body of the humanoid robot device 200 by wire or wirelessly.
[0133]
Each joint degree of freedom in the humanoid robot device 200 shown in FIG. 28 is realized by the corresponding actuator. That is, the head unit 330 includes a neck joint yaw axis actuator A2, a neck joint pitch axis actuator A3, and a neck joint roll axis actuator A4 representing the neck joint yaw axis 302, the neck joint pitch 303, and the neck joint roll axis 304, respectively. Are arranged.
[0134]
In addition, the head unit 330 is provided with a charge coupled device (CCD) camera for capturing an external situation, a distance sensor for measuring a distance to an object located in front of the head unit 330, and collecting external sounds. A microphone for sounding, a speaker for outputting sound, a touch sensor for detecting pressure received by a physical action such as “stroke” and “hit” from the user, and the like are provided. Further, an RFID reader (not shown) for reading information from the RFID tag (wireless tag) as described above is provided in the head unit 330. The RFID reader unit may be provided in a part other than the head unit 330.
[0135]
Also, the trunk unit 340 includes a trunk pitch axis actuator A5, a trunk roll axis actuator A6, and a trunk yaw axis actuator that represent each of the trunk pitch axis 305, the trunk roll axis 306, and the trunk yaw axis 307. A7 is provided. The torso unit 340 includes a battery serving as a power source for starting the humanoid robot device 200. This battery is constituted by a chargeable / dischargeable battery.
[0136]
The arm unit 350R / L is subdivided into an upper arm unit 351R / L, an elbow joint unit 352R / L, and a forearm unit 353R / L. The shoulder joint pitch axis 308, the shoulder roll axis 309, and the upper arm A shoulder joint pitch axis actuator A8, a shoulder joint roll axis actuator A9, an upper arm yaw axis actuator A10 expressing each of a yaw axis 310, an elbow joint pitch axis 311, a forearm yaw axis 312, a wrist joint pitch axis 313, and a wrist joint roll axis 314, An elbow joint pitch axis actuator A11, an elbow joint roll axis actuator A12, a wrist joint pitch axis actuator A13, and a wrist joint roll axis actuator A14 are provided.
[0137]
The leg unit 360R / L is subdivided into a thigh unit 361R / L, a knee unit 362R / L, and a shin unit 363R / L, and the hip joint yaw axis 316, the hip joint pitch axis 317, and the hip joint The hip joint yaw axis actuator A16, the hip joint pitch axis actuator A17, the hip joint roll axis actuator A18, and the knee joint pitch axis actuator A19 representing each of the roll axis 318, the knee pitch axis 319, the ankle pitch axis 320, and the ankle roll axis 321. , An ankle joint pitch axis actuator A20 and an ankle joint roll axis actuator A21. The actuators A2, A3,... Used for each joint are more preferably constituted by small AC servo actuators of the type directly connected to a gear and having a single-chip servo control system mounted in a motor unit. Can be.
[0138]
The sub-control units 335, 345, 355R / L, 365R / L of the actuator drive control unit are provided for each mechanism unit such as the head unit 330, the trunk unit 340, the arm unit 350, and each leg unit 360. ing. Further, grounding confirmation sensors 391 and 392 for detecting whether the soles of the legs 360R and L have landed are mounted, and a posture sensor 393 for measuring the posture is provided in the trunk unit 340. ing.
[0139]
Each of the ground contact confirmation sensors 391 and 392 includes, for example, a proximity sensor or a micro switch installed on a sole. The posture sensor 393 is configured by, for example, a combination of an acceleration sensor and a gyro sensor.
[0140]
Based on the outputs of the ground contact confirmation sensors 391 and 392, it is possible to determine whether each of the left and right legs is currently in a standing or idle state during an operation such as walking or running. Further, the inclination and posture of the trunk can be detected from the output of the posture sensor 393.
[0141]
The main control unit 381 can dynamically correct the control target in response to the output of each of the sensors 391 to 393. More specifically, adaptive control is performed for each of the sub-control units 335, 345, 355R / L, and 365R / L, and the upper limb, the trunk, and the lower limb of the humanoid robot device 200 are driven in a coordinated manner. To achieve a whole-body exercise pattern.
[0142]
As described above, in the humanoid robot device 200, each of the sub-control units 335, 345, and so on interprets the command received from the main control unit 381 and sends a command to each of the actuators A2, A3. And outputs a drive control signal to control the drive of each unit. Accordingly, the humanoid robot device 200 stably transitions to the target posture and can walk in a stable posture.
[0143]
In the control unit 380 of the humanoid robot device 200, in addition to the posture control described above, various sensors such as an acceleration sensor, a touch sensor, and a ground check sensor, image information from a CCD camera, and audio information from a microphone Etc. are managed. In the control unit 380, although not shown, various sensors such as an acceleration sensor, a gyro sensor, a touch sensor, a distance sensor, a microphone, and a speaker, each actuator, a CCD camera, and a battery are connected to the main control unit 381 via corresponding hubs. Have been. Although not shown, the RFID reader unit is also connected to the main control unit 381.
[0144]
The main control unit 381 sequentially fetches sensor data, image data, and audio data supplied from each of the above-described sensors, or RFID information from the RFID reader unit, and stores these in predetermined positions in the DRAM via the respective internal interfaces. Store sequentially. Further, the main control unit 381 sequentially takes in the battery remaining amount data indicating the battery remaining amount supplied from the battery, and stores the data at a predetermined position in the DRAM. The sensor data, image data, audio data, and remaining battery data stored in the DRAM are used when the main control unit 381 controls the operation of the humanoid robot device 200.
[0145]
The main control unit 381 reads the control program at the initial stage when the power of the humanoid robot device 200 is turned on, and stores the control program in the DRAM. In addition, the main control unit 381, based on the sensor data, image data, audio data, and battery remaining amount data sequentially stored in the DRAM from the main control unit 381, as described above, and from the user, Judge whether or not there is an instruction and the action. Further, the main control unit 381 determines an action according to its own situation based on the determination result and the control program stored in the DRAM, and drives the necessary actuator based on the determination result, thereby making the humanoid robot The device 200 is caused to take actions such as so-called “gesture” and “hand gesture”.
[0146]
Therefore, the humanoid robot device 200 can determine its own and surrounding conditions based on the control program, and can act autonomously according to instructions and actions from the user.
[0147]
【The invention's effect】
According to the present invention, there is provided a robot apparatus in which an action appears autonomously and the action is controlled in accordance with input information from the outside, wherein a wireless tag (a so-called RFID tag) provided on an object existing outside is provided. ) To read the data stored in the wireless tag, and control the action based on the data read by the wireless tag reading means. Confirmation of the information of the object and identification of the object, which were difficult to be detected by various sensors, are performed by the information related to the object according to the data stored in the wireless tag (RFID tag) by the wireless tag reading means. It can be performed by reading certain target-related information, and can effectively perform object recognition and the like even when the external environment is dark.
[0148]
Here, by including, as the target-related information, behavior information on the behavior of the robot device, a method of operation, and environmental information on an external environment that regulates the behavior and operation of the robot device, a stepped portion, a wall, or the like. When approaching, the user can recognize the step, the wall, and the like, and can take an action to avoid the step, the wall, and the like, such as stopping or moving backward.
[0149]
In addition, by including, as the target related information, relation information (family relation, master-slave relation, and the like) related to a relation constructed by the robot apparatus with an external target (a human, an animal, another robot apparatus, and the like), It is possible to easily realize an action to build a high-level relationship such as a parent-child relationship or a master-slave relationship.
[0150]
In this case, by providing a storage unit in which a table in which the data read by the wireless tag reading unit and the target related information are associated is recorded, the control unit can obtain the data associated with the data read by the wireless tag reading unit. The behavior can be controlled based on the obtained target-related information.
[0151]
In addition, by directly storing the target related information in the wireless tag itself, the above behavior can be controlled according to the state recognition information based on the target related information directly read from the data from the wireless tag. .
[0152]
Therefore, according to the robot apparatus of the present invention, it is possible to easily recognize information of an external target which has been difficult to detect with a microphone, a CCD camera, or a touch sensor, which is a conventional sensor of the robot. .
[Brief description of the drawings]
FIG. 1 is a perspective view illustrating an example of an external configuration of a robot apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing an example of an internal configuration of the robot device shown in FIG.
FIG. 3 is a block diagram showing a functional configuration example of a controller 10 in the configuration of FIG. 2;
FIG. 4 is a diagram for explaining data processing by an emotion / instinct model unit.
FIG. 5 is a diagram showing an action model.
FIG. 6 is a diagram for explaining processing of a posture transition mechanism unit 54;
FIG. 7 is a block diagram illustrating a configuration example of an ID recognition unit 50E.
FIG. 8 is a diagram illustrating a specific example of a table of ID numbers of RFID tags and target related information corresponding to the ID numbers.
FIG. 9 is a diagram showing a specific example of an ID table representing a relationship between an ID number for identifying a wall, a step portion, and the like and target related information.
10 is a diagram for explaining a specific example of an operation when the robot device having the ID table shown in FIG. 9 approaches a place having a step.
11 is a diagram illustrating an operation in which a robot apparatus having the ID table illustrated in FIG. 9 approaches a place having a step and reads information of an RFID tag.
12 is a diagram illustrating a state in which the robot apparatus having the ID table illustrated in FIG. 9 moves backward after approaching a place having a step and reading information of the RFID tag.
13 is a diagram for explaining a specific example of an operation when a robot device having the ID table shown in FIG. 9 approaches a wall.
14 is a diagram illustrating an operation in which a robot apparatus having the ID table illustrated in FIG. 9 approaches a wall and reads information of an RFID tag.
FIG. 15 is a diagram illustrating a backward movement of the robot apparatus having the ID table illustrated in FIG. 9 after approaching a wall and reading information of the RFID tag.
FIG. 16 is a diagram showing a specific example of an ID table representing a relationship between an ID number for identifying a master-slave relationship, a parent-child relationship, and the like and target related information.
17 is a diagram for explaining a specific example of an operation when the robot apparatus having the ID table shown in FIG. 16 approaches the owner.
18 is a diagram illustrating an operation in which a robot apparatus having the ID table illustrated in FIG. 16 approaches an owner and reads information of an RFID tag.
FIG. 19 is a diagram illustrating a “standing” operation after the robot apparatus having the ID table illustrated in FIG. 16 approaches the owner and reads information of the RFID tag.
20 is a diagram illustrating an operation in which the robot apparatus having the ID table illustrated in FIG. 16 moves back toward another person who is not the owner.
FIG. 21 is a diagram illustrating an example of a ring provided with an RFID tag.
22 is a diagram for explaining a specific example of an operation when the robot device having the ID table shown in FIG. 16 approaches the mother robot device.
23 is a diagram illustrating an operation in which a robot device having the ID table shown in FIG. 16 approaches the mother robot device and reads information of an RFID tag.
24 is a diagram illustrating a “follow-up” operation after the robot device having the ID table illustrated in FIG. 16 approaches the mother robot device and reads information of the RFID tag.
FIG. 25 is an external view illustrating an external appearance of a humanoid robot device viewed from the front as one configuration example of another embodiment of the robot device to which the present invention is applied.
26 is an external view illustrating the external appearance of the humanoid robot device shown in FIG. 25 when viewed from behind.
FIG. 27 is a diagram schematically illustrating a degree-of-freedom configuration model of the humanoid robot device illustrated in FIG. 25;
FIG. 28 is a diagram illustrating a control system configuration of the humanoid robot device shown in FIG. 25.
[Explanation of symbols]
Reference Signs List 10 controller, 10A CPU, 10B memory, 15 microphone, 16 CCD camera, 17 touch sensor, 18 speaker, 19 RFID reader section 41 collation section 42 ID table storage section 50 sensor input processing section, 50A voice recognition section, 50B image recognition section, 50C pressure processing section, 50D environment recognition section, 51 emotion / instinct model section, 52 action decision mechanism section, 53 posture transition mechanism section, 54 control mechanism section, 55 voice synthesis section, 56 sound processing section

Claims (30)

自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置であって、
外部に存在する対象に設けられた無線タグから該無線タグに記憶されているデータを読み取る無線タグ読取手段と、
上記無線タグ読取手段により読み取られた上記無線タグのデータに応じた上記対象に関連する情報である対象関連情報に基づいて上記行動を制御する制御手段と
を有することを特徴とするロボット装置。
A robot device that causes an action to appear autonomously and controls the action according to input information from the outside,
Wireless tag reading means for reading data stored in the wireless tag from a wireless tag provided on an object existing outside;
A robot device comprising: control means for controlling the behavior based on target-related information that is information related to the target corresponding to data of the wireless tag read by the wireless tag reading unit.
上記無線タグ読取手段により読み取られたデータと上記外部の対象に関する情報である上記対象関連情報とを関連付けたテーブルが記録された記憶手段を有し、
上記制御手段は、上記無線タグ読取手段により読み取られたデータに関連付けられて上記記憶手段から読み出した上記対象関連情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置。
A storage unit in which a table that associates the data read by the wireless tag reading unit with the target related information that is information on the external target is recorded,
2. The robot apparatus according to claim 1, wherein the control unit controls the behavior based on the target related information read from the storage unit in association with data read by the wireless tag reading unit. .
上記無線タグには上記外部の対象に関する情報である上記対象関連情報が記録されており、
上記無線タグ読取手段は、上記無線タグに記憶されているデータから上記対象関連情報を読み取り、
上記制御手段は、上記無線タグ読取手段により読み取られた上記対象関連情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置。
The target related information, which is information on the external target, is recorded in the wireless tag,
The wireless tag reading means reads the target-related information from data stored in the wireless tag,
2. The robot apparatus according to claim 1, wherein the control unit controls the behavior based on the target related information read by the wireless tag reading unit.
上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作の方法に関する行動情報を含み、
上記制御手段は、上記対象関連情報に含まれる上記行動情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置。
The target-related information, which is information on the external target, includes behavior information on a behavior of the robot apparatus, an operation method,
The robot apparatus according to claim 1, wherein the control unit controls the behavior based on the behavior information included in the target related information.
上記行動情報は、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化の内の少なくとも1つであることを特徴とする請求項4記載のロボット装置。The above behavior information includes at least one of stop, retreat, forward, right turn, left turn, backward movement, jump, skip, face down, squatting, upright, handstand, supine, inversion, rotation, facial expression change, tail change, limb change The robot apparatus according to claim 4, wherein the number is one. 上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作を規制する外部の環境に関する環境情報を含み、
上記制御手段は、上記対象関連情報に含まれる上記環境情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置。
The target-related information, which is information on the external target, includes environmental information on an external environment that regulates the behavior and operation of the robot device,
The robot apparatus according to claim 1, wherein the control unit controls the behavior based on the environment information included in the target related information.
上記環境情報は、階段、床、壁、段差、穴、柱、角、玄関、居間、食堂、和室、洋室、浴室、窓、通路、リビング、部屋の位置情報、の内の少なくとも1つであることを特徴とする請求項6記載のロボット装置。The environmental information is at least one of stairs, floors, walls, steps, holes, pillars, corners, entrances, living rooms, dining rooms, Japanese-style rooms, Western-style rooms, bathrooms, windows, passageways, living rooms, and room location information. 7. The robot device according to claim 6, wherein: 上記外部の対象に関する情報である上記対象関連情報は、上記環境情報と、ロボット装置の行動、動作の方法に関する行動情報とを含み、
上記制御手段は、上記対象関連情報に含まれる上記環境情報及び上記行動情報に基づいて、上記行動を制御することを特徴とする請求項6記載のロボット装置。
The target-related information, which is information about the external target, includes the environmental information, the behavior of the robot device, and behavior information on a method of operation,
7. The robot apparatus according to claim 6, wherein the control unit controls the behavior based on the environment information and the behavior information included in the target related information.
上記行動情報は、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化の内の少なくとも1つであることを特徴とする請求項8記載のロボット装置。The above behavior information includes at least one of stop, retreat, forward, right turn, left turn, backward movement, jump, skip, face down, squatting, upright, handstand, supine, inversion, rotation, facial expression change, tail change, limb change 9. The robot apparatus according to claim 8, wherein the number is one. 上記外部の対象に関する情報である上記対象関連情報は、ロボット装置が上記外部の対象と構築する関係に関する関係情報を含み、
上記制御手段は、上記対象関連情報に含まれる上記関係情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置。
The target related information, which is information on the external target, includes relationship information on a relationship that the robot apparatus builds with the external target,
The robot apparatus according to claim 1, wherein the control unit controls the action based on the related information included in the target related information.
上記関係情報は、家族関係、血縁関係、友人関係、主従関係、地域関係、スポーツのメンバー、資本家・労働者関係、売り買い関係、恋愛関係、顧客関係の内の少なくとも1つであり、
上記制御手段は、上記関係情報に基づいて、当該ロボット装置が、祖父、祖母、父、母、兄、姉、弟、妹、友人、隣人、いとこ、叔父、祖母、学友、先生、生徒、チームメイト、ライバル、敵、親戚、他人、知人、主人、使用人、従者、ペット、盲導犬、女性、男性、恋人、少年、少女、大人、子供、赤ちゃん、老人、青年、既婚者、未婚者、未亡人、ボランティア、看護婦、看護士、医者、案内人、ウェイトレス、ウェイター、スチュワーデス、アテンダント、駅員、交通係、説明員、お客、販売人、警備員、警察、パトロール、消防士、ガードマン、セールスマン、清掃人、芸人の内の少なくとも1つを演じるように行動を制御することを特徴とする請求項10記載のロボット装置。
The relationship information is at least one of a family relationship, a blood relationship, a friend relationship, a master-slave relationship, a regional relationship, a sports member, a capitalist / worker relationship, a buying and selling relationship, a romance relationship, and a customer relationship,
The control means may be configured such that the robot apparatus is based on the relation information, and the grandfather, grandmother, father, mother, brother, sister, brother, sister, friend, neighbor, cousin, uncle, grandmother, alumni, teacher, student, team Mate, rival, enemy, relative, others, acquaintance, master, servant, servant, pet, guide dog, woman, male, lover, boy, girl, adult, child, baby, old man, adolescent, married, unmarried, widow , Volunteers, nurses, nurses, doctors, guides, waitresses, waiters, stewardess, attendants, station staff, traffic clerks, clerks, customers, sellers, security guards, police, patrols, firefighters, guardmen, salesmen, The robot apparatus according to claim 10, wherein the action is controlled so as to play at least one of a cleaning person and an entertainer.
上記行動で感情を表現する表出手段と、
上記表出手段を駆動する駆動手段とを有し、
上記制御手段は、上記無線タグ読取手段により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に基づいて、上記駆動手段を制御することを特徴とする請求項1記載のロボット装置。
An expression means for expressing an emotion by the above action,
Driving means for driving the above-mentioned expression means,
2. The robot according to claim 1, wherein the control unit controls the driving unit based on target related information that is information related to the target according to the data read by the wireless tag reading unit. apparatus.
上記表出手段は、可動部、音響出力手段又は発光手段の内の少なくとも1つであることを特徴とする請求項12記載のロボット装置。13. The robot apparatus according to claim 12, wherein the display unit is at least one of a movable unit, a sound output unit, and a light emitting unit. 上記表出手段は複数種類の表出部であって、上記制御手段は上記記憶手段から読み出した上記動作情報に基づいて、上記複数種類の表出部の駆動を制御することを特徴とする請求項12記載のロボット装置。The expression means is a plurality of types of expression parts, and the control means controls the driving of the plurality of types of expression parts based on the operation information read from the storage means. Item 13. The robot device according to item 12. 上記対象関連情報に基づいて、出現するロボットの行動は、少なくとも本能的要素又は情動的要素からなるもので構成されていることを特徴とする請求項1記載のロボット装置。2. The robot apparatus according to claim 1, wherein the robot action that appears based on the target-related information is configured by at least an instinct element or an emotion element. 上記本能的要素が、疲れ(fatigue)、熱或いは体内温度(temperature)、痛み(pain)、食欲或いは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、排泄(elimination)又は性欲(sexual)のうちの少なくとも1つであり、上記情動的要素が、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)の内の少なくとも1つであることを特徴とする請求項15記載のロボット装置。The instinct factors are fatigue, heat or body temperature, pain, appetite or hunger, dryness, thirst, affection, curiosity, elimination. ) Or at least one of sexual, wherein the emotional component is happiness, sadness, anger, surprise, disgust, fear. , Frustration, boredom, sleep (somnolence), sociability (gregariousness), patience, tense, relaxed, relaxed, alertness, guilt, spite 16. The robot apparatus according to claim 15, wherein the robot apparatus is at least one of loyalty, loyalty, submission, and jealousy. 上記ロボット装置の外観が動物に模した外観形状をなしており、上記無線タグ読取手段が上記動物の顔部分に備えられていることを特徴とする請求項1記載のロボット装置。2. The robot device according to claim 1, wherein the appearance of the robot device has an appearance shape imitating an animal, and the wireless tag reading means is provided on a face portion of the animal. 接触を検出する接触検出手段を備え、上記接触検出手段による検出結果は上記制御手段へ伝達され、上記制御手段が上記検出結果により接触を検出した場合に、一定時間の間、上記無線タグ読取手段の動作を実行することを特徴とする請求項1記載のロボット装置。A contact detection unit for detecting a contact; a detection result by the contact detection unit is transmitted to the control unit; and when the control unit detects a contact based on the detection result, the wireless tag reading unit for a certain period of time. 2. The robot apparatus according to claim 1, wherein the operation is performed. 物体の有無や状態を光学的に検出する光学的検出手段を備え、上記光学的検出手段による検出結果は上記制御手段へ伝達され、上記制御手段が上記光学的検出結果により物体の有無や状態を検出した場合に、一定時間の間、上記無線タグ読取手段の動作を実行することを特徴とする請求項1記載のロボット装置。Optical detection means for optically detecting the presence or absence or state of an object is provided, and the detection result by the optical detection means is transmitted to the control means, and the control means determines the presence or absence or state of the object based on the optical detection result. 2. The robot apparatus according to claim 1, wherein when detected, the operation of the wireless tag reading unit is performed for a predetermined time. 自律的に行動を出現させると共に、外部からの入力情報に応じて上記行動が制御されるロボット装置の制御方法であって、
外部に存在する対象に設けられた無線タグから該無線タグに記憶されているデータを読み取る無線タグ読取工程と、
上記無線タグ読取工程により読み取られたデータに応じた上記対象に関連する情報である対象関連情報に基づいて上記行動を制御する制御工程と
を有することを特徴とするロボット装置の制御方法。
A method of controlling a robot apparatus in which an action is caused to appear autonomously and the action is controlled according to input information from the outside,
A wireless tag reading step of reading data stored in the wireless tag from a wireless tag provided on an object existing outside;
A control step of controlling the behavior based on target-related information that is information related to the target in accordance with the data read in the wireless tag reading step.
上記ロボット装置は、上記無線タグ読取手段により読み取られたデータと上記外部の対象に関する情報である上記対象関連情報とを関連付けたテーブルが記録された記憶手段を有し、
上記制御工程では、上記無線タグ読取手段により読み取られたデータに関連付けられて上記記憶手段から読み出した上記対象関連情報に基づいて、上記行動を制御することを特徴とする請求項20記載のロボット装置の制御方法。
The robot apparatus has a storage unit in which a table in which the data read by the wireless tag reading unit and the target related information that is information on the external target are stored is recorded.
21. The robot apparatus according to claim 20, wherein, in the control step, the behavior is controlled based on the target-related information read from the storage means in association with data read by the wireless tag reading means. Control method.
上記無線タグには上記外部の対象に関する情報である上記対象関連情報が記録されており、
上記無線タグ読取工程では、上記無線タグに記憶されているデータから上記対象関連情報を読み取り、
上記制御工程では、上記無線タグ読取手段により読み取られた上記対象関連情報に基づいて、上記行動を制御することを特徴とする請求項1記載のロボット装置の制御方法。
The target related information, which is information on the external target, is recorded in the wireless tag,
In the wireless tag reading step, the target related information is read from the data stored in the wireless tag,
2. The control method according to claim 1, wherein, in the control step, the behavior is controlled based on the target related information read by the wireless tag reading unit.
上記外部の対象に関する情報である上記対象関連情報は、ロボット装置の行動、動作の方法に関する行動情報を含み、
上記行動情報は、停止、後退、前進、右折、左折、後ずさり、ジャンプ、スキップ、伏せ、しゃがむ、直立、逆立ち、仰向け、反転、回転、表情の変化、尻尾の変化、手足の変化の内の少なくとも1つであり、
上記制御工程では、上記対象関連情報に含まれる上記行動情報に基づいて、上記行動を制御することを特徴とする請求項20記載のロボット装置の制御方法。
The target-related information, which is information on the external target, includes behavior information on a behavior of the robot apparatus, an operation method,
The above behavior information includes at least one of stop, retreat, forward, right turn, left turn, backward movement, jump, skip, face down, squatting, upright, handstand, supine, inversion, rotation, facial expression change, tail change, limb change One,
21. The control method for a robot device according to claim 20, wherein, in the control step, the behavior is controlled based on the behavior information included in the target-related information.
上記ロボット装置の行動や動作の方法に関連した上記行動情報が記録された上記無線タグが、所定の部材の表面や、内部又は裏面に取り付けられ、上記部材を外部に存在する対象に設置することにより、上記ロボット装置の上記行動を制御することを特徴とする請求項23記載のロボット装置の制御方法。The wireless tag in which the behavior information related to the behavior or the method of operation of the robot device is recorded is attached to a front surface, inside or back surface of a predetermined member, and the member is installed on a target existing outside. The control method of a robot device according to claim 23, wherein the behavior of the robot device is controlled by the following. 上記無線タグが取り付けられる上記部材は、紙やビニールなどのシート、テープ、シール、ひも、ケーブル、カード、ペン、カーテン、絨毯、布、縫ぐるみ、の少なくとも1つであることを特徴とする請求項24記載のロボット装置の制御方法。The member to which the wireless tag is attached is at least one of a sheet of paper or vinyl, a tape, a seal, a string, a cable, a card, a pen, a curtain, a carpet, a cloth, and a stuffed animal. Item 30. The control method for a robot device according to item 24. 上記部材に取り付けられた上記無線タグが複数であり、その複数の上記無線タグが上記部材の表面や、内部又は裏面で間隔を空けて設置されていることを特徴とする請求項24記載のロボット装置の制御方法。25. The robot according to claim 24, wherein there are a plurality of the wireless tags attached to the member, and the plurality of the wireless tags are spaced from each other on a front surface, an inside, or a back surface of the member. How to control the device. 上記外部の対象に関する情報である上記対象関連情報は、ロボット装置が上記外部の対象と構築する関係に関する関係情報を含み、
上記制御工程では、上記対象関連情報に含まれる上記関係情報に基づいて、上記行動を制御することを特徴とする請求項20記載のロボット装置の制御方法。
The target related information, which is information on the external target, includes relationship information on a relationship that the robot apparatus builds with the external target,
21. The control method of a robot device according to claim 20, wherein in the control step, the action is controlled based on the relation information included in the target related information.
上記ロボット装置が上記無線タグから上記関係情報をリードした場合に、上記ロボット装置は、上記関係情報に基づいて、上記無線タグを付けた外部の対象との間に、生物が周囲の対象と構築する関係と同じような擬似関係を構築するように行動や動作することを特徴とする請求項27記載のロボット装置の制御方法。When the robot device reads the related information from the wireless tag, the robot device constructs a creature with a surrounding object between the external device attached with the wireless tag based on the related information. 28. The control method of a robot device according to claim 27, wherein the action or operation is performed so as to construct a pseudo-relation similar to the relationship in which the robot is related. 上記関係情報は、家族関係、血縁関係、友人関係、主従関係、地域関係、スポーツのメンバー、資本家・労働者関係、売り買い関係、恋愛関係、顧客関係の内の少なくとも1つであり、
上記制御工程では、上記関係情報に基づいて、当該ロボット装置が、祖父、祖母、父、母、兄、姉、弟、妹、友人、隣人、いとこ、叔父、祖母、学友、先生、生徒、チームメイト、ライバル、敵、親戚、他人、知人、主人、使用人、従者、ペット、盲導犬、女性、男性、恋人、少年、少女、大人、子供、赤ちゃん、老人、青年、既婚者、未婚者、未亡人、ボランティア、看護婦、看護士、医者、案内人、ウェイトレス、ウェイター、スチュワーデス、アテンダント、駅員、交通係、説明員、お客、販売人、警備員、警察、パトロール、消防士、ガードマン、セールスマン、清掃人、芸人の内の少なくとも1つを演じるように行動を制御することを特徴とする請求項27記載のロボット装置の制御方法。
The relationship information is at least one of a family relationship, a blood relationship, a friend relationship, a master-slave relationship, a regional relationship, a sports member, a capitalist / worker relationship, a buying and selling relationship, a romance relationship, and a customer relationship,
In the control step, based on the relation information, the robot apparatus may be a grandfather, grandmother, father, mother, brother, sister, brother, sister, friend, neighbor, cousin, uncle, grandmother, alumni, teacher, student, team Mate, rival, enemy, relative, others, acquaintance, master, servant, servant, pet, guide dog, woman, male, lover, boy, girl, adult, child, baby, old man, adolescent, married, unmarried, widow , Volunteers, nurses, nurses, doctors, guides, waitresses, waiters, stewardess, attendants, station staff, traffic clerks, clerks, customers, sellers, security guards, police, patrols, firefighters, guardmen, salesmen, The control method of a robot device according to claim 27, wherein the action is controlled so as to play at least one of a cleaning person and an entertainer.
上記無線タグは、上記外部の対象が装着する小物に設けられており、上記小物は、指輪、首輪、ネックレス、時計、ベルト、カード、ペン、ボタン、ビニールなどのシート、テープ、シール、コイン、ひも、ケーブル、布、金属、プラスチック、木材、石、ガラス、紙、の少なくとも1つで構成されていることを特徴とする請求項27記載のロボット装置の制御方法。The wireless tag is provided on a small object worn by the external object, and the small object is a sheet such as a ring, a collar, a necklace, a clock, a belt, a card, a pen, a button, a vinyl, a sheet, a tape, a seal, a coin, 28. The control method for a robot device according to claim 27, wherein the control device is configured by at least one of a string, a cable, a cloth, a metal, a plastic, wood, stone, glass, and paper.
JP2002339853A 2002-09-27 2002-11-22 Robot device and controlling method of the same Withdrawn JP2004160630A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002339853A JP2004160630A (en) 2002-09-27 2002-11-22 Robot device and controlling method of the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002284178 2002-09-27
JP2002339853A JP2004160630A (en) 2002-09-27 2002-11-22 Robot device and controlling method of the same

Publications (1)

Publication Number Publication Date
JP2004160630A true JP2004160630A (en) 2004-06-10

Family

ID=32827850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002339853A Withdrawn JP2004160630A (en) 2002-09-27 2002-11-22 Robot device and controlling method of the same

Country Status (1)

Country Link
JP (1) JP2004160630A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1672456A2 (en) 2004-12-14 2006-06-21 Honda Motor Co., Ltd. Target object detection apparatus and robot provided with the same
JP2006212732A (en) * 2005-02-02 2006-08-17 Fujitsu Ltd Guide and explanation method and system by robot, server, and robot
KR100666487B1 (en) * 2006-02-17 2007-01-11 (주) 이니투스 Educational toy using rfid tag recognition
KR100698943B1 (en) * 2006-07-25 2007-03-22 주식회사 지팡이 Story teller toy using story statement and the method for operating the same
CN100377162C (en) * 2004-09-21 2008-03-26 富士施乐株式会社 Control system, apparatus and method, wireless tag and wireless tag information management method
JP2009034806A (en) * 2007-07-31 2009-02-19 Ind Technol Res Inst Structure for applying radio recognizing technique to electronic robot operation sequential control
KR100913817B1 (en) 2008-11-27 2009-08-26 주식회사 지팡이 Apparatus and method for delivering message for interactive toy
KR100914309B1 (en) 2007-08-03 2009-08-27 한양대학교 산학협력단 Intelligent Agent System And Method Of Generating Emotion Of Intelligent Agent
US8121728B2 (en) 2007-06-08 2012-02-21 Hong Fu Jin Precision Industry (Shen Zhen) Co., Ltd. Robot apparatus and output control method thereof
KR20140100353A (en) * 2013-02-06 2014-08-14 한국전자통신연구원 Method and apparatus for percepting human information
KR20170022717A (en) * 2015-08-21 2017-03-02 최성 Pet robot that elderly people get around just in time to eat
WO2017095077A1 (en) * 2015-11-30 2017-06-08 얄리 주식회사 Smart mannequin, and store management apparatus and method using same
KR101778843B1 (en) * 2015-01-23 2017-09-26 김형철 Staircase passable driving apparatus
WO2017187620A1 (en) * 2016-04-28 2017-11-02 富士通株式会社 Robot
JP2018511125A (en) * 2015-03-17 2018-04-19 アマゾン テクノロジーズ インコーポレイテッド System and method for promoting human / robot interaction
CN108970142A (en) * 2017-06-05 2018-12-11 奥飞娱乐股份有限公司 Induction toy
JP2019003283A (en) * 2017-06-12 2019-01-10 シャープ株式会社 Information processing device, control method of information processing device, and program for allowing computer as information processing device
RU2718513C1 (en) * 2019-07-12 2020-04-08 федеральное государственное автономное образовательное учреждение высшего образования "Казанский (Приволжский) федеральный университет" (ФГАОУ ВО КФУ) Small anthropomorphic robot educational and research complex
JP2021131699A (en) * 2020-02-19 2021-09-09 株式会社ソニー・インタラクティブエンタテインメント Information processing device and action mode setting method
CN113794250A (en) * 2021-08-25 2021-12-14 山东建筑大学 Indoor charging system and method for inspection robot

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100377162C (en) * 2004-09-21 2008-03-26 富士施乐株式会社 Control system, apparatus and method, wireless tag and wireless tag information management method
EP1672456A2 (en) 2004-12-14 2006-06-21 Honda Motor Co., Ltd. Target object detection apparatus and robot provided with the same
US7769203B2 (en) 2004-12-14 2010-08-03 Honda Motor Co., Ltd. Target object detection apparatus and robot provided with the same
JP2006212732A (en) * 2005-02-02 2006-08-17 Fujitsu Ltd Guide and explanation method and system by robot, server, and robot
JP4701731B2 (en) * 2005-02-02 2011-06-15 富士通株式会社 Robot guidance method
KR100666487B1 (en) * 2006-02-17 2007-01-11 (주) 이니투스 Educational toy using rfid tag recognition
KR100698943B1 (en) * 2006-07-25 2007-03-22 주식회사 지팡이 Story teller toy using story statement and the method for operating the same
WO2008013356A1 (en) * 2006-07-25 2008-01-31 Gfunny Inc. Story teller toy using story statement and the method for operating the same
US8121728B2 (en) 2007-06-08 2012-02-21 Hong Fu Jin Precision Industry (Shen Zhen) Co., Ltd. Robot apparatus and output control method thereof
JP2009034806A (en) * 2007-07-31 2009-02-19 Ind Technol Res Inst Structure for applying radio recognizing technique to electronic robot operation sequential control
KR100914309B1 (en) 2007-08-03 2009-08-27 한양대학교 산학협력단 Intelligent Agent System And Method Of Generating Emotion Of Intelligent Agent
KR100913817B1 (en) 2008-11-27 2009-08-26 주식회사 지팡이 Apparatus and method for delivering message for interactive toy
KR101993243B1 (en) 2013-02-06 2019-09-30 한국전자통신연구원 Method and apparatus for percepting human information
KR20140100353A (en) * 2013-02-06 2014-08-14 한국전자통신연구원 Method and apparatus for percepting human information
KR101778843B1 (en) * 2015-01-23 2017-09-26 김형철 Staircase passable driving apparatus
JP2018511125A (en) * 2015-03-17 2018-04-19 アマゾン テクノロジーズ インコーポレイテッド System and method for promoting human / robot interaction
KR20170022717A (en) * 2015-08-21 2017-03-02 최성 Pet robot that elderly people get around just in time to eat
WO2017095077A1 (en) * 2015-11-30 2017-06-08 얄리 주식회사 Smart mannequin, and store management apparatus and method using same
JPWO2017187620A1 (en) * 2016-04-28 2018-11-22 富士通株式会社 robot
WO2017187620A1 (en) * 2016-04-28 2017-11-02 富士通株式会社 Robot
US11331808B2 (en) 2016-04-28 2022-05-17 Fujitsu Limited Robot
CN108970142A (en) * 2017-06-05 2018-12-11 奥飞娱乐股份有限公司 Induction toy
CN108970142B (en) * 2017-06-05 2023-10-27 奥飞娱乐股份有限公司 Induction toy
JP2019003283A (en) * 2017-06-12 2019-01-10 シャープ株式会社 Information processing device, control method of information processing device, and program for allowing computer as information processing device
RU2718513C1 (en) * 2019-07-12 2020-04-08 федеральное государственное автономное образовательное учреждение высшего образования "Казанский (Приволжский) федеральный университет" (ФГАОУ ВО КФУ) Small anthropomorphic robot educational and research complex
JP2021131699A (en) * 2020-02-19 2021-09-09 株式会社ソニー・インタラクティブエンタテインメント Information processing device and action mode setting method
JP7323475B2 (en) 2020-02-19 2023-08-08 株式会社ソニー・インタラクティブエンタテインメント Information processing device and action mode setting method
CN113794250A (en) * 2021-08-25 2021-12-14 山东建筑大学 Indoor charging system and method for inspection robot
CN113794250B (en) * 2021-08-25 2024-05-07 山东建筑大学 Indoor charging system and method for inspection robot

Similar Documents

Publication Publication Date Title
JP2004160630A (en) Robot device and controlling method of the same
US8483873B2 (en) Autonomous robotic life form
Hersh Overcoming barriers and increasing independence–service robots for elderly and disabled people
JP2019063543A (en) Autonomous action type robot
CN109108961A (en) Robot, the control method of robot and storage medium
JP2004148439A (en) Spherical robot and spherical robot control method
CN107596698A (en) A kind of control system and implementation method of Intelligent bionic machinery dog
GB2570405A (en) Autonomous-action type robot, server, and action control program
US10953542B2 (en) Autonomously acting robot having emergency stop function
Shibata et al. Human interactive robot for psychological enrichment and therapy
JP2003071763A (en) Leg type mobile robot
AU2015230802B2 (en) Interactive intelligent toy
Aylett et al. Living with robots: What every anxious human needs to know
JP2004130427A (en) Robot device and method for controling operation of robot device
JP2004255529A (en) Robot device, control method thereof, and movement control system for robot device
US11833441B2 (en) Robot
Rogers Robot: Meet the Machines of the Future
WO2022113771A1 (en) Autonomous moving body, information processing device, information processing method, and program
Spyridon et al. Classification of domestic robots
Henig The real transformers
Kopacek Automation in sports and entertainment
JP2001283019A (en) System/method for transmitting information, robot, information recording medium, system/method for online sales and sales server
JP2004255528A (en) Robot device and control method thereof
JP2003071765A (en) Robot device and input method therefor
JP2003266364A (en) Robot device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060207