JP2004255529A - Robot device, control method thereof, and movement control system for robot device - Google Patents

Robot device, control method thereof, and movement control system for robot device Download PDF

Info

Publication number
JP2004255529A
JP2004255529A JP2003049930A JP2003049930A JP2004255529A JP 2004255529 A JP2004255529 A JP 2004255529A JP 2003049930 A JP2003049930 A JP 2003049930A JP 2003049930 A JP2003049930 A JP 2003049930A JP 2004255529 A JP2004255529 A JP 2004255529A
Authority
JP
Japan
Prior art keywords
information
wireless tag
unit
robot device
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003049930A
Other languages
Japanese (ja)
Inventor
Kensuke Motomura
謙介 本村
Tsunetaro Matsuoka
恒太郎 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003049930A priority Critical patent/JP2004255529A/en
Publication of JP2004255529A publication Critical patent/JP2004255529A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • G05D1/0261Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means using magnetic plots

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To leave a trace and a locus of movement, and to decide a following action on the basis of the information about the left trace and louse. <P>SOLUTION: This robot device 1 is provided with a RFID reading unit (radio tag reading means) 19 for reading information (ID data or the like) of a RFID tag (radio tag) provided in an external body, a RFID writing unit 20 for writing information in a RFID tag, and a RFID processing unit 57 for processing a RFID signal read by the RFID reading unit 19 or a RFID signal written by the RFID writing unit 20. The RFID processing unit 57 receives the condition recognizing information related to the action corresponding to the ID number recognized by an ID recognizing unit 50E, and supplies the received information to an action deciding mechanism unit 52, a feeling/instinct model unit 51 and a sound processing unit 56. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、ロボット装置およびその制御方法に関するものであり、例えば、自律的に行動を出現させるとともに、外部からの入力情報に応じて上記行動が制御されるロボット装置およびそのロボット装置の制御方法、並びにロボット装置移動制御システムに関するものである。
【0002】
【従来の技術】
人間や動物等の動作に類似した運動を、例えば電気的または磁気的作用を用いて行う機械装置のことを一般に「ロボット装置」という。わが国においてロボット装置が普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボット装置などの産業用ロボット装置(Industrial Robot)であった。
【0003】
アーム式ロボット装置のように、ある特定の場所に設置して用いる据置きタイプのロボット装置は、部品の組立・選別作業といった固定的・局所的な作業空間でのみ活動する。これに対し、移動式ロボット装置は、非限定的な作業空間の所定経路上または無経路上を自在に移動して、所定または任意の人的作業を代行したり、ヒトやイヌ或いはその他の生命体に置き換わるような種々の幅広いサービスを提供することができる。
【0004】
移動手段としては、クローラ式やタイヤ式等があるが、なかでも脚式の移動ロボット装置は、不安定で姿勢制御や歩行制御が難しくなるが、階段や梯子の昇降、障害物の乗り越え、整地・不整地の区別を間わない柔軟な歩行・走行動作を実現できるという点で優れている。
【0005】
最近では、イヌやネコのように4足歩行の動物の身体メカニズムやその動作を模した、いわゆるペット型ロボット装置、或いはヒトのような2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」のロボット装置(Humanoid Robot)など、脚式移動ロボット装置に関する研究開発が進展し、実用化への期待もますます高まってきている。
【0006】
イヌやネコ等の愛玩動物を模したエンターテインメント向けのペット型ロボット装置の場合、生活密着型、すなわち人間との「共生」という性質が強い。ペット型ロボット装置は、実際の動物を扱うよりも手軽であるだけでなく、従来の玩具に比べて高機能・高付加価値を有する。
【0007】
人間型ロボット装置は、人間の住環境下で人間と共存し、産業活動や生産活動等における各種の単純作業や危険作業、難作業の代行をすることができる。例えば、原子力発電プラントや火力発電プラント、石油化学プラントにおけるメンテナンス作業、製造工場における部品の搬送・組立作業、高層ビルにおける清掃作業、火災現場その他における救助活動といったように、様々な場面において活躍の場が見出されている。人間型ロボット装置は、2足歩行により障害物を好適に乗り越えたり迂回しながら、所望の現場まで自律的に移動して、指示された作業を忠実に遂行する。
【0008】
従来の玩具機械は、ユーザ操作と応答動作との関係が固定的であって、ユーザは物足りなさを覚えるが、上述したペット型ロボット装置や人間型ロボット装置は、動作生成の時系列モデルにしたがって動作し、その上ユーザ操作等の外部からの刺激を検出したことに応答してこの時系列モデルを変更することができる。すなわち「学習効果」を有するため、ユーザが飽きない、ユーザの嗜好に合わせた動作パターンを提供できる。
【0009】
このようなロボット装置は、所定の自由度をもつアクチュエータと所定の物理量を検出するセンサ等を所定の位置に配置された機構部とを有し、マイクロコンピュータを用いた制御部によって、外部からの情報に対して所定の動作を行うように構成されている(例えば、特許文献1参照。)。そのため、ユーザによる「褒める」、「遊んであげる(可愛がる)」、「撫でる」、「叱る」、「叩く」等のユーザ入力に対して動的に反応して、「喜ぶ」、「甘える」、「すねる」、「叱る」、「吠える」、「尻尾を振る」等の感情的動作を実行するようにプログラムすることによって育成シミュレーションを享受することができる。また、このようなロボット装置は、一般家庭内を動作空間として、2足または4足歩行により障害物を好適に乗り越えたり迂回しながら、動作空間内を自由に自律的に行動できる。
【0010】
このように、ロボット装置が実際の動物の示す行動により近づくことができれば、ロボット装置の生物感が一層増し、ユーザは、ロボット装置に一層の親近感や満足感を感じる。またこれにより、ロボット装置のエンターテインメント性、アミューズメント性が向上する。
【0011】
イヌ、クマ、パンダ、狼などの動物は、季節変動はあるものの、その生活圏は無秩序でなく、生活空間の範囲や領域が生物的習性によりほぼ決まっている。その範囲は、“ナワバリ”と呼ばれることもある。動物が自分の生活空間の範囲や領域を所有するために、他の動物にその領域を示す方法として様々な方法があるが、一般的に自分の生活空間の範囲や領域を移動したときに、痕跡として爪跡、足跡や、排出物およびその匂いを残す方法が知られている。イヌ、クマなどの動物は、自分の生活空間の範囲を所有することによって、他の動物から餌、家族の安全等を確保することができる。また動物が移動して、再度過去に残した自分の爪跡、足跡の痕跡を発見することは、自分の移動の軌跡を確認することができ、自分の位置情報を把握するために大変有効である。
【0012】
【特許文献1】
特開2001−154679
【0013】
【発明が解決しようとする課題】
ところで、上述した各種のロボット装置が自律的に移動したときに移動の痕跡や軌跡を残せるようにする方法としては、(1)物理的な働きかけ(圧力)によって再度認識できるような凹凸(形状)を残す方法、(2)「匂い」や「色」のような検出可能な要素をもつ物質を残す方法等がある。
【0014】
しかしながら、動作空間(作業空間が)硬い部材で構成される場合、物理的な働きかけで凹凸を残すことは困難であるし、「匂い」や「色」のような検出可能な要素をもつ物質を残す方法は、被検対象のもつ情報量が少なく、ユーザの多種多様な嗜好に対応できないという問題点がある。
【0015】
そこで本発明は、このような実情に鑑みて提案されたものであり、移動の痕跡や軌跡を残すことができ、更に再び過去の痕跡や軌跡に遭遇した場合、この痕跡や軌跡を参考にして自分の位置情報を算出し、次の移動や行動を決めることができるロボット装置、痕跡や軌跡を残し過去の痕跡や軌跡を参考にして次の行動を決定するロボット装置の制御方法、並びに痕跡や軌跡を残し過去の痕跡や軌跡を参考にして次の行動を決定するようにロボット装置を制御するロボット装置移動制御システムを提供することを目的とする。
【0016】
【課題を解決するための手段】
上述した目的を達成するために、本発明に係るロボット装置は、内部状態に応じて自律的に行動を出現させるとともに外部からの入力情報に応じて行動が制御されるロボット装置において、外部から情報を取得する情報取得手段と、外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取手段と、無線タグへデータを書き込む無線タグ書込手段と、外部から取得された情報、無線タグから読み取られたデータおよび無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶する記憶手段と、情報取得手段により取得した情報と無線タグ読取手段にて読み取ったデータと記憶手段に格納されたデータとに基づいて行動を制御する制御手段とを備えることを特徴としている。
【0017】
ここで付加情報は、位置情報、走行距離、書込日時情報、無線タグへ書き込んだデータ、書き込み時に情報取得手段にて取得した情報を含む。
【0018】
また、このロボット装置は、行動を表現する表出手段と、表出手段を駆動する駆動手段とをさらに有し、制御手段は、情報取得手段により取得した情報と、無線タグ読取手段によって読み取ったデータと、記憶手段に格納されたデータとに基づいて、駆動手段を制御することが好ましい。
【0019】
ここで、情報取得手段を接触を検出する接触検出手段として、制御手段が接触検出手段にて接触が検出されたとき、一定期間上記無線タグ読取手段における読み取り動作を実行する、または無線タグ書込手段における書込動作を実行するようにもできる。また、情報取得手段を非接触により外部の状態を検出する非接触検出手段として、制御手段が非接触検出手段により外部の状態を検出したとき、一定期間、無線タグ読取手段における読み取り動作または無線タグ書込手段における書込動作を実行することもできる。
【0020】
また、無線タグに記録されたデータは、情報の内容に対応する認証番号であって、記憶手段には情報の内容と該認証番号とを関連付けたテーブルとして記憶する。
【0021】
上述した目的を達成するために、本発明に係るロボット装置の制御方法は、内部状態に応じて自律的に行動を出現させるとともに外部からの入力情報に応じて行動が制御されるロボット装置の制御方法であって、ロボット装置において外部から情報を取得する情報取得工程と、外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取工程と、無線タグへデータを書き込む無線タグ書込工程と、外部から取得された情報、無線タグから読み取られたデータおよび無線タグ書込工程にて無線タグへデータを書き込んだときの付加情報の履歴を記憶手段に記憶する記憶工程と、情報取得工程にて取得した情報と無線タグ読取工程にて読み取ったデータと記憶手段に格納されたデータとに基づいて行動を制御する制御工程とを有することを特徴とする。
【0022】
ここで付加情報は、位置情報、走行距離、書込日時情報、無線タグへ書き込んだデータ、書き込み時に情報取得工程にて取得した情報を含む。
【0023】
また、このロボット装置の制御方法では、行動を表現する表出手段を駆動する駆動工程をさらに設け、制御工程にて、情報取得工程にて取得した情報と、無線タグ読取工程にて読み取ったデータと、記憶手段に格納されたデータとに基づいて、駆動工程における表出手段の駆動を制御することが好ましい。
【0024】
また、上述した目的を達成するために、本発明に係るロボット装置移動制御システムは、所定エリア内をロボット装置が移動するロボット装置移動システムにおいて、所定エリア内には複数の無線タグが設置され、ロボット装置は、所定エリアを移動して無線タグと遭遇した場合、遭遇した無線タグへデータを書き込むまたは無線タグからデータを読み取ることを特徴としている。
【0025】
ここで、ロボット装置は、外部から情報を取得する情報取得手段と、外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取手段と、無線タグへデータを書き込む無線タグ書込手段と、外部から取得された情報、無線タグから読み取られたデータおよび無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶する記憶手段と、情報取得手段により取得した情報と無線タグ読取手段にて読み取ったデータと記憶手段に格納されたデータとに基づいて行動を制御する制御手段とを備え、所定エリアを移動して無線タグと遭遇した場合、遭遇した無線タグに対して、無線タグ書込手段にてデータを書き込むことを特徴としている。
【0026】
このとき無線タグ書込手段により書き込まれるデータは、当該ロボット装置に関する情報であって、当該ロボット装置の識別情報、無線タグへの遭遇日時、過去に遭遇した他の無線タグからの移動距離や方向、今後移動する方向、走行距離、情報取得手段にて取得した情報のうち少なくとも1つを含む。
【0027】
また、このロボット装置が所定エリアを移動して無線タグと遭遇した場合、無線タグ読取手段は、遭遇した無線タグに記録されたデータを読み出し、制御手段は、読み出したデータと情報取得手段により取得した情報と記録手段に格納されたデータとに基づいて、自己の位置情報の算出、次の移動目標の決定、若しくは次の移動目標までの距離および方向の算出を実行する。
【0028】
付加情報には、位置情報、走行距離、書込日時情報、無線タグへ書き込んだデータ、書き込み時に情報取得手段にて取得した情報が含まれる。
【0029】
また、このロボット装置は、行動を表現する表出手段と、表出手段を駆動する駆動手段とを有し、制御手段は、情報取得手段により取得した情報と、無線タグ読取手段によって読み取ったデータと、記憶手段に格納されたデータとに基づいて、駆動手段を制御する。
【0030】
【発明の実施の形態】
本発明は、動作範囲内を制限なく自由に移動できるバッテリ駆動式の移動ロボット装置が動作範囲内に設けられた無線タグから情報を取得することによって、この情報に基づいて動作できるようにしたものである。とりわけ、無線タグに「形跡」にあたる情報を書き込む書込手段を設けることによって、動作範囲を共有するほかのロボット装置に自分の存在を示すことができるようにし、「縄張(テリトリ)」をもつことを実現した技術である。
【0031】
本発明は、特定の経路上のみを移動するタイプの移動ロボット装置に対しても、好適に適用できる。また、以下に示す具体例では、4足歩行のロボット装置を用いて説明しているが、ロボット装置は、2足、4足、6足等の脚式歩行方式を採用したロボット装置のほか、クローラ式、タイヤ式等の移動方式を採用したロボット装置にも適用できる。
【0032】
以下、図面を参照して本発明の具体例について詳細に説明する。図1は、本発明の具体例として示すロボット装置の外観構成例を示す斜視図であり、図2は、その電気的構成例を示すブロック図である。このロボット装置は、周囲の環境(外的要因)や内部の状態(内的要因)に応じて自律的に行動をする自律型のロボット装置であり、特に「イヌ」を模した形状の、いわゆるペットロボットであるが、ロボット装置の形態は、これに限らず、他の動物形や人間等を模した2足歩行ロボットでもよい。
【0033】
図1において、ロボット装置1は、胴体部ユニット2の前後左右に、それぞれ脚部ユニット3A,3B,3C,3Dが連結されるとともに、胴体部ユニット2の前端部および後端部にそれぞれ頭部ユニット4および尻尾部ユニット5が連結されて構成されている。尻尾部ユニット5は、胴体部ユニット2の上面に設けられたベース部から、尻尾5Aが2自由度をもって湾曲または揺動自在に引き出されている。
【0034】
胴体部ユニット2には、図2に示すように、ロボット全体の制御を行うコントローラ10、ロボットの動力源となるバッテリ11、並びにバッテリセンサ12および熱センサ13からなる内部センサ部14などが収納されている。
【0035】
頭部ユニット4には、外部音を集音するための「耳」に相当するマイク(マイクロフォン)15、外部の状況を視覚的に検出する「目」に相当するCCD(Charge Coupled Device)カメラ16、外部からの圧力等を検出する触覚に相当するタッチセンサ17、音声等を出力する「口」に相当するスピーカ18、外部の物体に設けられたRFIDタグ(無線タグ)の情報(IDデータ等)を読み取るRFIDリード部(無線タグ読取手段)19、RFIDタグに情報を書き込むRFIDライト部20が、それぞれ所定位置に配設されている。
【0036】
ここで、RFID(Radio Frequency Identification)とは、非接触型の自動認識技術のことであり、例えばICと小型アンテナが組み込まれたタグ等の媒体から、電波等を介して情報を読み取る。媒体となるタグ(付け札)は、RFIDタグ、無線タグ、ICタグ等と称され、カード状やラベル状、マイクロチップ状等、種々の形状がある。RFIDには、バッテリ内包型とバッテリレス型とがあり、バッテリ内包型は電波発振が可能である。また、読み出し専用に用いられるもの、1回のみ書き込み可能なもの、複数回の書き込みが可能なもの等がある。使用周波数は、使用条件に合わせて、例えば、125〜135KHzの中波帯、13.56MHzの短波帯、2.45GHzのマイクロ波帯を選択できる。RFID識別技術は、RFIDタグをあらゆる製品に埋め込んで製品情報を管理できるため、バーコードに代わる技術として期待されているのみならず、ゲートやドアの開閉、通過管理、小包や荷物の配送管理等の種々の利用形態が提案されている。
【0037】
RFIDリード部19は、このようなRFIDタグ(無線タグ)に記憶されているデータ(IDデータ等)を読み取るためのものであり、RFIDライト部20は、RFIDタグにデータを書き込むためのものである。
【0038】
なお、RFIDシステムの情報伝送方式には、電磁誘導方式、電磁結合方式、マイクロ波方式、静電結合方式、光方式等が挙げられるが、RFIDリード部19およびRFIDライト部20としては、何れの方式に対応する情報読取手段を用いてもよく、また、複数の方式に対応させてもよい。更に、これらは、読み取り機能と書き込み機能とを有するリードライト部として構成されていてもよい。
【0039】
脚部ユニット3A乃至3Dそれぞれの関節部分や、脚部ユニット3A乃至3Dそれぞれと胴体部ユニット2の連結部分、頭部ユニット4と胴体部ユニット2の連結部分、並びに尻尾部ユニット5と胴体部ユニット2の連結部分等には、図2に示すように、それぞれアクチュエータ3AA乃至3AA、3BA乃至3BA、3CA乃至3CA、3DA乃至3DA、4A乃至4A、5Aおよび5Aが配設されている。これにより、各連結部分は、所定の自由度をもって回転できる。
【0040】
頭部ユニット4におけるマイク15は、ユーザからの発話を含む周囲の音声(音)を集音し、得られた音声信号をコントローラ10に送出する。CCDカメラ16は、周囲の状況を撮像し、得られた画像信号をコントローラ10に送出する。RFIDリード部19は、周囲の物体に備え付けられたRFIDタグから、そのRFIDタグに記録された情報(IDデータ等)を非接触または接触により読み取り、その読み取った信号をRFID信号として、コントローラ10に送出する。また、RFIDライト部20は、コントローラ10からの情報(IDデータ等)をRFID信号として周囲の物体に備え付けられたRFIDタグに非接触または接触により書き込む。
【0041】
タッチセンサ17は、例えば、頭部ユニット4の上部に設けられており、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出し、その検出結果を圧力検出信号としてコントローラ10に送出する。
【0042】
胴体部ユニット2におけるバッテリセンサ12は、バッテリ11の残量を検出し、その検出結果を、バッテリ残量検出信号としてコントローラ10に送出する。熱センサ13は、ロボット内部の熱を検出し、その検出結果を、熱検出信号としてコントローラ10に送出する。
【0043】
コントローラ10は、CPU(Central Processing Unit)10Aやメモリ10B等を内蔵しており、CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。
【0044】
すなわち、コントローラ10は、マイク15や、CCDカメラ16、タッチセンサ17、RFIDリード部19、バッテリセンサ12、熱センサ13から与えられる音声信号、画像信号、圧力検出信号、RFID信号、バッテリ残量検出信号、熱検出信号に基づいて、周囲の状況や、ユーザからの指令、ユーザからの働きかけなどの有無を判断する。
【0045】
また、コントローラ10は、この判断結果等に基づいて、続く行動を決定し、その決定結果に基づいて、アクチュエータ3AA乃至3AA、3BA乃至3BA、3CA乃至3CA、3DA乃至3DA、4A乃至4A、5Aおよび5Aのうちの必要なものを駆動させ、これにより、頭部ユニット4を上下左右に振ったり、尻尾部ユニット5を動かしたり、各脚部ユニット3A乃至3Dを駆動してロボットを歩行させる等の行動をさせる。
【0046】
また、コントローラ10は、必要に応じて合成音を生成し、スピーカ18に供給して出力させたり、必要に応じてRFIDの書き込みデータを生成し、RFIDライト部20に供給して外部のRFIDタグに書き込むよう制御する。また、ロボットの「目」の位置に設けられた図示しないLED(Light Emitting Diode)を点灯、消灯または点滅させる。
【0047】
更に、コントローラ10は、マイク15、CCDカメラ16、タッチセンサ17等からの音声信号、画像信号、圧力検出信号等に基づいて、上記RFIDリード部19の読取動作およびRFIDライト部20の書込動作を制御するようにしてもよい。例えば、コントローラ10は、タッチセンサ17等の接触を検出する接触検出手段からの検出結果により接触を検出した場合に、一定時間の間、RFIDリード部19およびRFIDライト部20の動作を実行する。また、コントローラ10は、CCDカメラ16や赤外線センサ等のような物体の有無や状態を光学的に検出する光学的検出手段からの光学的検出結果により物体の有無や状態を検出した場合に、一定時間の間、RFIDリード部19およびRFIDライト部20の動作を実行する。
【0048】
以上のようにして、ロボット装置1は、周囲の状況等に基づいて自律的に行動でき、RFIDタグに遭遇した際に、このRFIDタグからデータを読み出したり、RFIDタグに対してデータを書き込んだりできるようになっている。
【0049】
次に、コントローラ10の機能的構成例について図3を用いて説明する。なお、図3に示す機能的構成は、CPU10Aがメモリ10Bに記憶された制御プログラムを実行することで実現される。
【0050】
コントローラ10は、特定の外部状態を認識するセンサ入力処理部50、センサ入力処理部50の認識結果等を累積して、感情および本能の状態を表現する感情/本能モデル部51、センサ入力処理部50の認識結果等に基づいて、続く行動を決定する行動決定機構部52、行動決定機構部52の決定結果に基づいて、実際にロボットに行動を起こさせる姿勢遷移機構部53、各アクチュエータ3AA乃至5Aおよび5Aを駆動制御する制御機構部54、合成音を生成する音声合成部55、並びに音声合成部55の出力を制御する音響処理部56、RFIDリード部19にて読み取ったRFID信号またはRFIDライト部20にて書き込むRFID信号を処理するRFID処理部57とから構成されている。
【0051】
センサ入力処理部50は、マイク15、CCDカメラ16、タッチセンサ17、RFIDリード部19等から与えられる音声信号、画像信号、圧力検出信号やRFID信号等に基づいて、特定の外部状態や、ユーザからの特定の働きかけ、ユーザからの指示等を認識し、その認識結果を表す状態認識情報を感情/本能モデル部51および行動決定機構部52に通知する。
【0052】
すなわち、センサ入力処理部50は、音声認識部50Aを有しており、音声認識部50Aは、行動決定機構部52からの制御にしたがい、マイク15から与えられる音声信号を用いて音声認識を行う。そして、音声認識部50Aは、その音声認識結果としての、例えば、「歩け」、「伏せ」、「ボールを追いかけろ」等の指令その他を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0053】
また、センサ入力処理部50は、画像認識部50Bを有しており、画像認識部50Bは、CCDカメラ16から与えられる画像信号を用いて、画像認識処理を行う。そして、画像認識部50Bは、その処理の結果、例えば、「赤い丸いもの」や「地面に対して垂直で所定高さ以上の平面」等を検出したときには、「ボールがある」や「壁がある」といった画像認識結果を状態認識情報として感情/本能モデル部51および行動決定機構部52に通知する。
【0054】
更に、センサ入力処理部50は、圧力処理部50Cを有する。圧力処理部50Cは、タッチセンサ17から与えられる圧力検出信号を処理する。圧力処理部50Cは、その処理の結果、所定の閾値以上で、且つ短時間の圧力を検出したときには、「叩かれた(叱られた)」と認識し、所定の閾値未満で、且つ長時間の圧力を検出したときには、「撫でられた(褒められた)」と認識して、その認識結果を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0055】
また、センサ入力処理部50は、環境認識部50Dを有する。環境認識部50Dは、マイク15から与えられる音声信号やCCDカメラ16から与えられる画像信号を用いて、例えば、ロボット装置からユーザや物体までの距離といったロボット装置が使用される環境を認識し、その認識結果を状態認識情報として音響処理部56に出力する。
【0056】
また、センサ入力処理部50は、ID認識部50Eを有する。ID認識部50Eは、RFIDリード部19から与えられるRFID信号を用いてRFIDに記録された信号の認識処理を行う。認識処理の結果、例えば、「ボール」や「花瓶」といった物体の種類や、発現する動作の種類等を認識し、その認識結果を状態認識情報として感情/本能モデル部51および行動決定機構部52に通知する。特に、行動を規制する用途として用いる場合、特徴ある物体や特徴ある場所からの距離や方角に関する情報、現時点から次に向かうべき場所(RFIDタグの位置)に関する情報、以前に訪れて形跡を残した場所(以前に情報を書き込んだRFIDタグ)であればそのとき残した情報や、数回訪れているならばその履歴情報等を認識し、この認識結果を状態認識情報として感情/本能モデル部51および行動決定機構部52に通知する。ID認識部50Eの構成例に関しては、後述する。
【0057】
ここで、コントローラ10は、センサ入力処理部50の音声認識部50A、画像認識部50B、圧力認識部50C等からの認識結果に応じて、RFIDリード部19やID認識部50Eの動作を制御している。例えば、本具体例では、CCDカメラ16からの画像信号を画像認識部50Bで画像認識することによりボールらしき丸いものの認識結果が得られた場合に、RFIDリード部19を動作させて、「ボールらしき物体」に設けられたRFIDタグを読み取り、RFIDリード部19から得られたRFID信号をID認識部50Eに送って認識処理を行わせ、正確に「ボール」であることを認識できるようにしている。
【0058】
また、例えば、RFIDタグから情報を読み出して、以前にこのタグを認識したか否か、すなわち以前にその場所を訪れたか否か、他のロボット装置が訪れているか否かといった更に詳細な情報を認識できるようになっている。また、CCDカメラ16やマイク15から得た情報をRFIDタグに記録することもできる。
【0059】
感情/本能モデル部51は、図4に示すような、ロボットの感情と本能の状態を表現する感情モデルと本能モデルをそれぞれ管理している。感情モデルは、例えば、3つの感情ユニット60A,60B,60Cで構成され、これらの感情ユニット60A乃至60Cは、「うれしさ」、「悲しさ」、「怒り」の感情の状態(度合い)を、例えば、0乃至100の範囲の値によってそれぞれ表し、センサ入力処理部50からの状態認識情報や時間経過等に基づいてこの値を変化させる。なお、感情モデルには、「うれしさ」、「悲しさ」、「怒り」のほか、「楽しさ」に対応する感情ユニットを設けることも可能である。
【0060】
本能モデルは、例えば、3つの本能ユニット61A,61B,61Cで構成され、これらの本能ユニット61A乃至61Cは、「食欲」、「睡眠欲」、「運動欲」という本能による欲求の状態(度合い)を、例えば、0乃至100の範囲の値によってそれぞれ表し、センサ入力処理部50からの状態認識情報や時間経過等に基づいて、その値を変化させる。
【0061】
感情/本能モデル部51は、上述のようにして変化する感情ユニット60A乃至60Cの値で表される感情の状態および本能ニット61A乃至61Cの値で表される本能の状態を、感情/本能状態情報として、センサ入力処理部50、行動決定機構部52、および音声合成部55に送出する。
【0062】
行動決定機構部52は、センサ入力処理部50からの状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、次の行動を決定し、決定された行動の内容を行動指令情報として姿勢遷移機構部53に送出する。すなわち、行動決定機構部52は、図5の状態遷移図に示すように、ロボットがとり得る行動をステート(状態:state)に対応させた有限オートマトンをロボット装置の行動を規定する行動モデルとして管理しており、この行動モデルとしての有限オートマトンにおけるステートをセンサ入力処理部50からの状態認識情報、感情/本能モデル部51における感情モデル、本能モデルの値、時間経過等に基づいて遷移させ、遷移後のステートに対応する行動を次にとるべき行動として決定する。
【0063】
具体的には、例えば、図5において、ステートST3は、「立っている」という行動を表し、ステートST4は、「寝ている」という行動を表し、ステートST5は、「ボールを追いかけている」という行動を表している。例えば、「ボールを追いかけている」というステートST5において、「ボールが見えなくなった」という状態認識情報が供給されると、ステートST5からST3に遷移する。この結果、ステートST3に対応する「立っている」という行動を次にとることが決定される。また、例えば、「寝ている」というステートST4において、「起きろ」という状態認識情報が供給されると、ステートST4からST3に遷移する。この結果、ステートST3に対応する「立っている」という行動を次にとることが決定される。
【0064】
ここで、行動決定機構部52は、所定のトリガ(trigger)があったことを検出するとステートを遷移させる。すなわち、行動決定機構部52は、例えば、現在のステートに対応する行動を実行している時間が所定時間に達したとき、特定の状態認識情報を受信したとき、感情/本能モデル部51から供給される感情/本能状態情報が示す感情の状態の値(感情ユニット60A乃至60Cの値)や本能の状態の値(本能ユニット61A乃至61Cの値)が所定の閾値以下又は以上となったとき等にステートを遷移させる。
【0065】
なお、行動決定機構部52は、上述したように、センサ入力処理部50からの状態認識情報だけでなく、感情/本能モデル部51における感情モデルおよび本能モデルの値等に基づいて、図5に示す有限オートマトンにおけるステートを遷移させることから、同一の状態認識情報が入力されても、感情モデルや本能モデルの値(感情/本能状態情報)によってステートの遷移先が異なる。
【0066】
この結果、行動決定機構部52は、例えば、感情/本能状態情報が「怒っていない」および「お腹がすいていない」ことを表し、状態認識情報が「目の前に手のひらが差し出された」ことを表しているときには、目の前に手のひらが差し出されたことに対して、「お手」という行動をとらせる行動指令情報を生成し、これを姿勢遷移機構部53に送出する。
【0067】
また、行動決定機構部52は、例えば、感情/本能状態情報が「怒っていない」および「お腹がすいている」ことを表し、状態認識情報が「目の前に手のひらが差し出された」ことを表しているときには、目の前に手のひらが差し出されたことに対して、「手のひらをぺろぺろなめる」ような行動をとらせる行動指令情報を生成し、これを姿勢遷移機構部53に送出する。
【0068】
また、行動決定機構部52は、例えば、感情/本能状態情報が「怒っている」ことを表し、状態認識情報が「目の前に手のひらが差し出された」ことを表しているときには、感情/本能状態情報が「お腹がすいている」ことを表していても「お腹がすいていない」ことを表していても、「ぷいと横を向く」ような行動をとらせる行動指令情報を生成し、これを姿勢遷移機構部53に送出する。
【0069】
更に、行動決定機構部52では、上述したような、ロボットの頭部や手足等を動作させる行動指令情報のほか、ロボットに発話を行わせる行動指令情報も生成される。ロボットに発話を行わせる行動指令情報は、音声合成部55に供給されるようになっており、音声合成部55に供給される行動指令情報には、音声合成部55に生成させる合成音に対応するテキスト等が含まれる。音声合成部55は、行動決定部52から行動指令情報を受信すると、その行動指令情報に含まれるテキストに基づき、感情/本能モデル部51で管理されている感情の状態や本能の状態を加味しながら、例えば、規則音声合成等を行うことで合成音を生成し、音響処理部56に供給する。
【0070】
姿勢遷移機構部53は、行動決定機構部52から供給される行動指令情報に基づいて、ロボットの姿勢を現在の姿勢から次の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54に送出する。
【0071】
ここで、現在の姿勢から次に遷移可能な姿勢は、例えば、胴体や手や足の形状、重さ、各部の結合状態のようなロボットの物理的形状と、関節が曲がる方向や角度のようなアクチュエータ3AA乃至5Aおよび5Aの機構とによって決定される。
【0072】
また、次の姿勢としては、現在の姿勢から直接遷移可能な姿勢と、直接には遷移できない姿勢とがある。例えば、4本足のロボットは、手足を大きく投げ出して寝転んでいる状態から、伏せた状態へ直接遷移することはできるが、立った状態へ直接遷移することはできず、一旦、手足を胴体近くに引き寄せて伏せた姿勢になり、それから立ち上がるという2段階の動作が必要である。また、安全に実行できない姿勢も存在する。例えば、4本足のロボットは、その4本足で立っている姿勢から、両前足を挙げてバンザイをしようとすると、簡単に転倒してしまう。
【0073】
このため、姿勢遷移機構部53は、直接遷移可能な姿勢を予め登録しておき、行動決定機構部52から供給される行動指令情報が直接遷移可能な姿勢を示す場合には、この行動指令情報を姿勢遷移情報として制御機構部54に送出する。一方、行動指令情報が直接遷移不可能な姿勢を示す場合には、姿勢遷移機構部53は、遷移可能なほかの姿勢に一旦遷移した後に、目的の姿勢まで遷移させるような姿勢遷移情報を生成し制御機構部54に送出する。これによりロボットが、遷移不可能な姿勢を無理に実行しようとする事態や、転倒するような事態を回避することができるようになっている。
【0074】
すなわち、姿勢遷移機構部53は、例えば、図6に示すように、ロボットがとり得る姿勢をノードNODE1乃至NODE5として表現するとともに、遷移可能な2つの姿勢に対応するノード間を、有向アークARC1乃至ARC10で結合した有向グラフを記憶しており、この有向グラフに基づいて、上述したような姿勢遷移情報を生成する。
【0075】
具体的には、姿勢遷移機構部53は、行動決定機構部52から行動指令情報が供給されると、現在の姿勢に対応したノードNODEと、行動指令情報が示す次にとるべき姿勢に対応するノードNODEとを結ぶように有向アークARCの向きにしたがいながら、現在のノードNODEから次のノードNODEに至る経路を探索し、探索した経路上にあるノードNODEに対応する姿勢を順番にとっていくように指示する姿勢遷移情報を生成する。
【0076】
その結果、姿勢遷移機構部53は、例えば、現在の姿勢が「伏せる」という姿勢を示すノードNODE2にあるときに、「すわれ」という行動指令情報が供給されると、直接遷移可能な行動であれば、姿勢遷移情報を生成して制御機構部54に与える。図6に示す有向グラフでは、「伏せる」という姿勢を示すノードNODE2から「すわる」という姿勢を示すノードNODE5へは、直接遷移可能であることから、「すわる」に対応する姿勢遷移情報を生成して制御機構部54に与える。
【0077】
また、姿勢遷移機構部53は、現在の姿勢が「伏せる」という姿勢を示すノードNODE2にあるときに、「歩け」という行動指令情報が供給されると、有向グラフにおいて「伏せる」というノードNODE2から「歩く」というノードNODE4に至る経路を探索する。この場合、「伏せる」に対応するノードNODE2、「たつ」に対応するNODE3、「歩く」に対応するNODE4の経路が得られるから、姿勢遷移機構部53は、「たつ」、「歩く」という順番の姿勢遷移情報を生成し、制御機構部54に送出する。
【0078】
制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報にしたがって、アクチュエータ3AA乃至5Aおよび5Aを駆動するための制御信号を生成し、これをアクチュエータ3AA乃至5Aおよび5Aに送出する。これにより、アクチュエータ3AA乃至5Aおよび5Aは、制御信号にしたがって駆動し、ロボット装置が自律的に行動を起こす。
【0079】
一方、音響処理部56は、センサ入力処理部50を構成する環境認識部50Dが出力する状態認識情報を受信し、その状態認識情報に基づいて音声合成部55から供給される合成音の出力を制御する。すなわち、音響処理部56は、ロボットが使用されている環境における雑音やロボットからユーザまでの距離等に応じて、スピーカ18から出力される合成音がユーザに明確に聞こえ、且つ耳障りとならないような大きさ(パワー)や高さ(周波数)等を調整してスピーカ18に供給する。これにより、スピーカ18からは、音響処理部56により調整された適切な大きさおよび高さ等を有する合成音が出力される。
【0080】
RFID処理部57は、ID認識部50Eで認識されたID番号に対応する動作に関する状態認識情報を受け取り、行動決定機構部52、感情/本能モデル部51、音響処理部56等へ供給する。また、RFIDタグへ情報を書き込む場合には、RFIDの書き込みデータを生成し、RFIDライト部20に供給する。書き込みデータは、RFIDタグに書き込み可能なRFID信号に変換される。このとき、書き込みデータの容量が大きくなる場合には、書き込む情報の内容に対応した新たなID番号を生成し、IDテーブル記憶部42の対応テーブルに書き込む情報の内容を記憶し、対応するID番号をRFIDライト部20に送る。
【0081】
なお、ロボット装置1は、上述した構成のほかにも、例えば、東西南北の方角を検出できる方角検出手段や、更に詳細な経度緯度等の位置情報を取得するGPS(Global Positioning System)を備えていてもよく、これらから検出および取得された情報をRFIDタグとともに自身の記憶部に書き込むことができる。
【0082】
図7は、図3のID認識部50Eの構成例を示している。ID照合部41には、RFIDリード部19から出力されるRFID信号が供給されるようになっている。またID照合部41には、RFID処理部71から出力されるデータ(RFIDライタ部70の書き込みデータ)が供給されるようになっている。ID照合部41は、RFID処理部71から出力されるデータおよび、RFIDライタ部70が書き込んだときの履歴として、例えば、位置情報、走行距離、時刻情報(書き込み日時など)を、IDテーブル記憶部42のIDテーブルに格納する。またID照合部41は、図には記載していないが、RFIDライタ部70が書き込んだときに、RFIDリード部19以外のセンサ入力処理部50から取得したデータをIDテーブル記憶部42のIDテーブルに格納することも可能である。IDテーブル記憶部42の例としては、予め登録されたRFIDタグ(無線タグ)のID番号およびそのID番号に対応した状態認識情報のテーブル(以下、IDテーブルと記す。)が記録されている。
【0083】
図7のID照合部41は、RFIDリード部19から出力されたRFID信号がIDテーブル記憶部42のIDテーブルに記録された情報に属するかどうかを判定する。そして、RFIDリード部19から出力されたRFID信号がIDテーブル記憶部42に記録されたものであると判定した場合、IDテーブル記憶部42に記録されたIDテーブルに基づいて、RFID信号のID番号に対応する状況認識情報を、感情/本能モデル部51および行動決定機構部52へ通知する。ID番号に対応する状況認識情報は複数存在してもよい。
【0084】
ここで、RFID信号のフォーマットを図8を用いて説明する。RFID信号フォーマット70は、ヘッダ部71と、識別子部72と、データ部73とを有し、全体として128ビットで構成されている。データ部73には、RFIDタグのID番号が書き込まれる。ロボット装置1は、RFIDタグのID番号とRFIDタグに書き込まれた情報とを対応付けてテーブルとして記憶している。この記憶テーブルの内容は、実際のロボット装置1のRFIDタグ読み取り・書き込み動作とともに後述する。
【0085】
また、RFIDタグには、全体容量が大きく、データ部73にROM(Read Only Memory)領域74とRAM(Random Access Memory)のように使用可能で書き込み可能な書込領域75とを有し、コマンドや音声データ等の実データをアスキーコードやMIDIデータで直接書き込むことができるタイプもある。
【0086】
この場合、ROM領域74には、例えば、このRFIDタグの種類を示す情報、このRFIDタグを製造したメーカコード、RFIDタグのID番号、RFIDタグの位置情報等が各番地に分けられて予め書き込まれる。このRFIDタグを使用するときの互いのRFIDタグの配置関係が予め決まっている場合には、配置すべきRFIDタグの互いの位置関係を示す情報や、所定の物体からの距離・方向といった位置情報もROM領域74に予め書き込まれている。書込領域75は、更に領域75,75,・・・,75の各番地に分けられており、複数の情報が書き込める。ここで書き込まれる情報は、このロボット装置1のロボットID、書き込みをした日時、前回遭遇したRFIDタグからの距離や方角、今後進行する方向といった位置情報等がある。
【0087】
後段では、後者の書き込み可能な領域を備えたRFIDタグを用いた場合について説明する。
【0088】
一般に、RFIDタグは、バーコードに比べて記憶できる情報量が多いため、物体の識別能力が高く、物体の詳細なデータ等を盛り込むことができる。また、RFIDは、非接触で情報通信ができるため、耐久性に優れ、汚れやほこり等の影響を受けないという利点がある。また、リード部とRFIDタグとが相対的に移動していても読み取りできたり、光量に関係なく暗闇でも物体認識が行えたりと非常に認識能力が高いのも特徴である。RFID信号のフォーマットとしては、このほか、種々のフォーマットが使用可能である。
【0089】
上述した具体例によれば、RFIDリード部19をロボット装置に設けることにより、マイク、カメラや種々のセンサで検出することが困難であった物体の情報の確認や物体の識別が可能となり、また、外部環境が暗くとも物体認識が有効且つ確実に行える。そして、認識した結果に応じて、それぞれ独自の行動をとらせることができる。また、RFIDライト部20を設けることによって、RFIDタグに、一度訪れた場所(認識したタグ)であるといった情報を書き込むことができるようになり、ロボット装置の「縄張」を構築したり、同じ動作空間をもつほかのロボット装置の存在を認識させたりできる。また、この認識した結果に応じた行動をとらせることができる。
【0090】
このように、RFIDリード部19、RFIDライト部20を設けることによって、ロボット装置に、ゲーム、スポーツ、行動範囲の制約、周囲との関係構築、部品の自動装着等の応用動作をさせることができる。
【0091】
以下では、ロボット装置1がある動作領域を移動してRFIDタグから情報を読み取る場合、RFIDタグに情報を書き込む場合について説明する。
【0092】
図9に示すように、ロボット装置1が行動するエリアAには、複数のRFIDタグ80(0,0)〜80(n,n)が設置されている。ここでは、エリアAには読み書きが可能なRFIDタグが等間隔(1メートル間隔とする。)に配置されている。
【0093】
本具体例では、RFIDタグは、エリアA内に格子状に配置され、個々のRFIDタグは配置位置が予め決定されているものとして説明する。ロボット装置1は、これらRFIDタグのID番号と位置情報との対応関係をIDテーブル記憶部42に記憶している。
【0094】
ロボット装置1は、頭部ユニット4に備えたRFIDタグの情報をリードするRFIDリード部19およびRFIDタグへ情報を書き込むRFIDライト部20により、エリア内を移動してエリアAに設置されたRFIDタグと遭遇した場合、遭遇したRFIDタグに書き込まれた情報を読み出し、必要に応じて新たな情報を書き込む。ここでは、説明の便宜上、書込領域75に情報が記録されていないRFIDタグを白四角マークで示し、書込領域75に情報が書き込まれたRFIDタグを黒四角マークで示す。
【0095】
図9は、ロボット装置1がエリアAのRFIDタグ80(a,b)の位置から太い点線の経路を通って途中にあるRFIDタグに情報を書き込みながら自律歩行し、RFIDタグ80(k,l)の位置に差し掛かった様子を示している。最初、RFIDタグ80(k,l)の書込領域75には、何も記録されていない。
【0096】
まず、ロボット装置1は、RFIDリード部19によってRFIDタグ80(k,l)に記録された情報を読み取り、IDテーブル記憶部42に含まれる記憶領域に、RFIDタグのID番号、RFIDタグの位置情報といったRFIDタグの情報を記憶する。
【0097】
ID照合部41は、RFIDリード部19で読み取ったRFIDタグ80(k ,l)に記録された情報とIDテーブルとを参照して、RFIDタグ80(k,l)に情報が記録されていないことを感情/本能モデル部51および行動決定機構部52へ通知する。RFIDタグに直接情報を書き込めるタイプであれば、ID照合部41は、RFID信号として読み出した情報を感情/本能モデル部51および行動決定機構部52へ通知する。
【0098】
行動決定機構部52は、ID照合部41から「RFIDタグ80(k,l)に情報が記録されていない」ことと、感情/本能モデル部51からの感情/本能状態情報・時間経過等に基づいて、次に実行する行動を「RFIDタグ80(k,l)へロボット装置1に関する情報を書き込む」ことに決定し、決定された行動の内容(「ロボット装置1に関する情報の書き込み」)を行動指令情報としてRFID処理部57へ送出する。
【0099】
ここで、ロボット装置1に関する情報とは、ロボット装置1に付されたID番号を含めた行動の記録を示しており、このRFIDタグに遭遇した日時、進む方向等の情報を含む。ここでは、以下、履歴と記す。RFID処理部57は、行動決定機構部52から供給された「ロボット装置1の履歴の書き込み」の行動指令情報に基づいて、ロボット装置1の履歴に対応するID番号を発行し、このID番号をRFIDタグ80(k,l)へ書き込むとともに、発行したID番号に対応付けて履歴の内容をIDテーブルに記憶する。
【0100】
ロボット装置1の履歴の項目としては、ロボット装置1のID、RFIDタグへの書き込み日時、前回遭遇したRFIDタグからの移動距離および方角、この後移動する方角が挙げられる。図示しないが、ロボット装置1は、東西南北の方角検出手段を備えており、例えば、北が0度、東が90度、南が180度、西が270度と示される。
【0101】
RFIDタグに対して直接データが書き込める場合は、RFID処理部57は、RFIDライト部20にて、例えば、(1)ID、(2)書き込み日時、(3)前回遭遇したRFIDタグからの移動距離、(4)前回遭遇したRFIDタグからの方角、(5)今後移動する方角といった情報をこの順番でRFIDタグ80(k,l)に書き込む。したがって、このロボット装置1のIDが「1」であるとし、RFIDタグ80(k,l)への書き込み日時が1月1日1時20分であれば「01010120」が、前回遭遇したRFIDタグからの移動距離が1メートルであれば「1」が、前回遭遇したRFIDタグからの方角が西であれば「270」が、今後移動する方角が北であれば「0」が、順番に「1/01010120/1/270/0」のようなデータがRFIDタグに書き込まれる。また、このデータがIDテーブルにも記憶される。ここで生成される「1/01010120/1/270/0」といったデータ列をそのままID番号として用いてもよい。
【0102】
RFID処理部57は、書き込みデータ「1/01010120/1/270/0」をID照合部41へ出力する。ID照合部41は、書き込みデータ「1/01010120/1/270/0」をIDテーブルに格納する。
【0103】
図11にIDテーブル記憶部42に作成されるIDテーブルの例を、図12にRFIDタグのRFID信号フォーマットを示す。
【0104】
図11に示すIDテーブルには、各RFIDタグのID番号に対応した情報の内容が対応付けて記憶されている。例えば、RFIDタグ80(k,l)のID番号に対応付けされてIDテーブル内に、ロボット装置1のID「1」、RFIDタグ80(k,l)への書き込み日時「01010120」、前回遭遇したRFIDタグからの移動距離「1」、前回遭遇したRFIDタグからの方角「270」が、今後移動する方角「90」が書き込まれる。また、RFIDタグに直接情報の内容が書き込める場合は、図12に示すように、書込領域75の所定の番地にそれぞれの情報が書き込まれる。
【0105】
RFIDタグ80(k,l)への書き込み後、ロボット装置1は、自由且つ自律的に移動する。ここでは、北へ向かって移動する。この後もロボット装置1は、RFIDタグに遭遇すると、上述した履歴の記録動作を繰り返す。
【0106】
続いて、ロボット装置1がRFIDタグを検出して書き込まれた情報を読み出す場合について、図10を用いて説明する。
【0107】
ロボット装置1は、RFIDタグに遭遇したときに、遭遇したRFIDタグに記録されている情報をRFIDリード部19にて読み取り、IDテーブル記憶部42に含まれる記憶領域に、RFIDタグのID番号、RFIDタグの位置情報といったRFIDタグの情報を記憶する。
【0108】
ID照合部41は、RFIDタグ80(k,l)からのRFID信号がIDテーブルに格納された情報に属するかを判定する。または、ID照合部41は、RFIDタグに直接書き込まれた実データを読み出す。図10は、ロボット装置1が徘徊しているときに、上述の記録動作の説明に用いたRFIDタグ80(k,l)に再び遭遇した場合である。
【0109】
判定の結果、IDテーブル記憶部42に記録されたものであると判ると、対応するデータをIDテーブルから抽出して状態認識情報として感情/本能モデル部51および構造決定機構部52へ送る。また、RFIDタグに直接書き込まれている場合には、ID照合部41は、IDテーブルに格納されたデータ「1/01010120/1/270/0」を状態認識情報として感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、「1/01010120/1/270/0」というデータから、このRFIDタグ80(k,l)の地点にこのロボット装置1が過去の1月1日1時20分に訪れて、更に北に向かって進んだ痕跡を知る。またこのとき、西の方角、距離1メートルの地点(RFIDタグ80(k+1,l))からこのRFIDタグ80(k,l)に移動してきたことも知る。
【0110】
行動決定機構部52は、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて次の行動を「西に移動」と決定し、以前に通ったルートを辿る。ここで、行動決定機構部52は、以前のルートを辿る動作に限らず、以前に訪れた場所であることを表現する特定の動作、例えば、「吠える」、「喜ぶ」等を起こすようにもできる。また、他のロボット装置の痕跡を検出した場合も同様であって、他のロボット装置の痕跡を辿ったり、特定の動作を起こしたりできる。
【0111】
ロボット装置1がRFIDタグを発見する方法としては、RFIDリード部20を定期的に起動させて読み取り用電波を発生しRFIDタグを探索する方法、バッテリを備えてアクティブな電波を発振可能なタイプのRFIDタグを用いる方法等が挙げられる。また、CCDカメラ、接触センサ等のほかの検出手段における検出結果に応じてRFIDタグの読み取り動作および書き込み動作を実行することもできる。例えば、CCDカメラによって視覚的にRFIDタグを発見したとき、一定期間RFIDタグの読み取り動作や書き込み動作を実行するようにしてもよい。
【0112】
上述したようにロボット装置1は、動作範囲内に設けられたRFIDタグから情報を取得し、この情報に基づいて動作できる。また、RFIDタグに「痕跡」に相当する情報を書き込むことによって、動作範囲を共有するほかのロボット装置に自分の存在を示すことができ、「縄張(テリトリ)」をもつことができる。
【0113】
なお、ロボット装置がRFIDタグに書き込むデータは、上記ロボット装置のID、日時、前回遭遇したRFIDタグからの移動距離、前回遭遇したRFIDタグからの方角、今後移動する方角に限定されず、ロボット装置のセンサ部が取得した外部からの入力情報等、様々な情報であってもよい。
【0114】
本具体例では、RFIDタグは、格子状に配置され、個々のRFIDタグは配置位置が予め決定されているように説明しているが、RFIDタグは、整然と配置されている必要はなく、ロボット装置1の動作範囲内に不規則に設けられていてもよい。この場合、RFIDタグには位置情報も予め書き込まれている必要はない。例えば、ロボット装置1が無造作に配置されたRFIDタグを端から順番に読み取り、読み取ったID番号とRFIDタグの位置関係とをIDテーブルに記憶する方法、または、ロボット装置1がエリア内のRFIDタグに順番にこのRFIDタグの位置情報等を直接書き込む方法を用いてエリア内のタグ配置を認識できるようにすれば、上述した具体例が実施できる。
【0115】
本具体例では、上述した一連の処理をCPU10Aにプログラムを実行させて行うようにしたが、一連の処理は、専用のハードウェアによって行うこともできる。なお、プログラムは、予めメモリ10Bに記憶させておくほか、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク、DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に一時的または永続的に格納(記録)できる。このようなリムーバブル記録媒体を、いわゆるパッケージソフトウエアとして提供し、ロボット(メモリ10B)にインストールするようにもできる。
【0116】
プログラムは、リムーバブル記録媒体からインストールする方法のほかに、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して無線で転送したり、LAN(Local Area Network)・インターネットといったネットワークを介して有線で転送したりする方法にてメモリ10Bにインストールすることができる。この場合、プログラムがバージョンアップされたとき等には、バージョンアップされたプログラムをメモリ10Bに容易にインストールできるという利点がある。
【0117】
本具体例で説明したCPU10Aに各種の処理を行わせるためのプログラムを記述する処理ステップは、フローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的または個別に実行される処理(例えば、並列処理またはオブジェクトによる処理。)も含む。また、プログラムは、単独のCPUにより処理されるものであってもよいし、複数のCPUによって分散処理されるものであってもよい。
【0118】
以上、本発明をペット類似のロボット装置に適用した場合について説明したが、本発明は、これに限定されるものではなく、例えば、産業用のロボット、人間型ロボット等の各種ロボット装置に広く適用できる。
【0119】
具体的に、本発明を人間型ロボット装置に適用した例について、図面を参照しながら説明する。図13および図14に、人間型ロボット装置200を前方および後方の各々から眺望した様子を示す。更に、図15に、この人間型ロボット装置200が具備する関節自由度構成を模式的に示す。
【0120】
人間型ロボット装置200は、脚式移動を行う左右2足の下肢201R,201Lと、体幹部202と、左右の上肢203R,203Lと、頭部204とで構成される。
【0121】
左右各々の下肢201R,201Lは、大腿部205R,205Lと、膝関節206R,206Lと、脛部207R,207Lと、足首208R,208Lと、足平209R,209Lとで構成され、股関節210R,210Lによって体幹部202の略最下端にて連結されている。また、左右各々の上肢203R,203Lは、上腕211R,211Lと、肘関節212R,212Lと、前腕213R,213Lとで構成され、肩関節214R,214Lによって体幹部202上方の左右各側縁にて連結されている。また、頭部204は、首関節255によって体幹部202の略最上端中央に連結されている。
【0122】
この人間型ロボット装置200は、図15に示すように、頭部204を支持する首関節ヨー軸302と、首関節ピッチ軸303と、首関節ロール軸304という3自由度を有している。また、腕関節は、肩関節ピッチ軸308と、肩関節ロール軸309と、上腕ヨー軸310と、肘関節ピッチ軸311と、前腕ヨー軸312と、手首関節ピッチ軸313と、手首関節ロール軸314と、手部315とで構成される。
【0123】
手部315は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部315の動作は人間型ロボット装置200の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書では0自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0124】
体幹部は、体幹ピッチ軸305と、体幹ロール軸306と、体幹ヨー軸307という3自由度を有する。
【0125】
下肢を構成する各々の脚部は、股関節ヨー軸316と、股関節ピッチ軸317と、股関節ロール軸318と、膝関節ピッチ軸319と、足首関節ピッチ軸320と、足首関節ロール軸321と、足部322とで構成される。本明細書中では、股関節ピッチ軸317と股関節ロール軸318の交点は、人間型ロボット装置200の股関節位置を定義する。人体の足部322は、実際には多関節・多自由度の足底を含んだ構造体であるが、人間型ロボット装置200の足底は、0自由度とする。したがって、各脚部は、6自由度で構成される。
【0126】
以上を総括すれば、人間型ロボット装置200全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けの人間型ロボット装置200が必ずしも32自由度に限定される訳ではなく、この自由度、すなわち関節数は、設計・制作上の制約条件や要求仕様等に応じて適宜増減できる。
【0127】
上述した人間型ロボット装置200がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定な構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
【0128】
図16には、人間型ロボット装置200の制御システム構成を模式的に示している。同図に示すように、人間型ロボット装置200は、ヒトの四肢を表現した各機構ユニット330,340,350R/L,360R/Lと、各機構ユニット間の協調動作を実現するための適応制御を行う制御ユニット380とで構成される(ただし、R、Lの各々は、右、左の各々を示す接尾辞である。以下同様)。
【0129】
人間型ロボット装置200全体の動作は、制御ユニット380によって統括的に制御される。制御ユニット380は、CPU(Central Processing Unit)やメモリ等の主要回路コンポーネント(図示しない)で構成される主制御部381と、電源回路や人間型ロボット装置200の各構成要素とのデータやコマンドの授受を行うインターフェイス(何れも図示しない)などを含んだ周辺回路382とで構成される。この制御ユニット380の設置場所は、特に限定されない。図16では体幹部ユニット340に搭載されているが、頭部ユニット330に搭載してもよい。または、人間型ロボット装置200外に制御ユニット380を配備して、人間型ロボット装置200の機体と有線または無線で交信するようにしてもよい。
【0130】
図15に示した人間型ロボット装置200内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット330には、首関節ヨー軸302、首関節ピッチ303、首関節ロール軸304の各々を表現する首関節ヨー軸アクチュエータA2、首関節ピッチ軸アクチュエータA3、首関節ロール軸アクチュエータA4が配設されている。
【0131】
また、頭部ユニット330には、外部の状況を撮像するためのCCD(Charge Coupled Device)カメラが設けられているほか、前方に位置する物体までの距離を測定するための距離センサ、外部音を集音するためのマイク、音声を出力するためのスピーカ、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ等が配設されている。更に、上述したようなRFIDタグ(無線タグ)からの情報を読み取るためのRFIDリード部(図示せず)およびRFIDライト部が頭部ユニット330に設けられている。このRFIDリード部およびRFIDライト部は、手指先や足先等、頭部ユニット330以外の部位に設けられていてもよい。
【0132】
また、体幹部ユニット340には、体幹ピッチ軸305、体幹ロール軸306、体幹ヨー軸307の各々を表現する体幹ピッチ軸アクチュエータA5、体幹ロール軸アクチュエータA6、体幹ヨー軸アクチュエータA7が配設されている。また、体幹部ユニット340には、この人間型ロボット装置200の起動電源となるバッテリを備えている。このバッテリは、充放電可能な電池によって構成されている。
【0133】
また、腕部ユニット350R/Lは、上腕ユニット351R/Lと、肘関節ユニット352R/Lと、前腕ユニット353R/Lに細分化されるが、肩関節ピッチ軸308、肩関節ロール軸309、上腕ヨー軸310、肘関節ピッチ軸311、前腕ヨー軸312、手首関節ピッチ軸313、手首関節ロール軸314の各々表現する肩関節ピッチ軸アクチュエータA8、肩関節ロール軸アクチュエータA9、上腕ヨー軸アクチュエータA10、肘関節ピッチ軸アクチュエータA11、肘関節ロール軸アクチュエータA12、手首関節ピッチ軸アクチュエータA13、手首関節ロール軸アクチュエータA14が配備されている。
【0134】
また、脚部ユニット360R/Lは、大腿部ユニット361R/Lと、膝ユニット362R/Lと、脛部ユニット363R/Lに細分化されるが、股関節ヨー軸316、股関節ピッチ軸317、股関節ロール軸318、膝関節ピッチ軸319、足首関節ピッチ軸320、足首関節ロール軸321の各々を表現する股関節ヨー軸アクチュエータA16、股関節ピッチ軸アクチュエータA17、股関節ロール軸アクチュエータA18、膝関節ピッチ軸アクチュエータA19、足首関節ピッチ軸アクチュエータA20、足首関節ロール軸アクチュエータA21が配備されている。各関節に用いられるアクチュエータA2,A3・・・は、より好ましくは、ギア直結型で旦つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することができる。
【0135】
頭部ユニット330、体幹部ユニット340、腕部ユニット350、各脚部ユニット360などの各機構ユニット毎に、アクチュエータ駆動制御部の副制御部335,345,355R/L,365R/Lが配備されている。更に、各脚部360R,Lの足底が着床したか否かを検出する接地確認センサ391および392を装着するとともに、体幹部ユニット340内には、姿勢を計測する姿勢センサ393を装備している。
【0136】
接地確認センサ391および392は、例えば足底に設置された近接センサまたはマイクロ・スイッチなどで構成される。また、姿勢センサ393は、例えば、加速度センサとジャイロ・センサの組み合わせによって構成される。
【0137】
接地確認センサ391および392の出力によって、歩行・走行などの動作期間中において、左右の各脚部が現在立脚または遊脚何れの状態であるかを判別することができる。また、姿勢センサ393の出力により、体幹部分の傾きや姿勢を検出することができる。
【0138】
主制御部381は、各センサ391〜393の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部335,345,355R/L,365R/Lの各々に対して適応的な制御を行い、人間型ロボット装置200の上肢、体幹、および下肢が協調して駆動する全身運動パターンを実現できる。
【0139】
以上のように、人間型ロボット装置200は、各々の副制御部335,345,・・・等が、主制御部381からの受信コマンドを解釈して、各アクチュエータA2,A3・・・に対して駆動制御信号を出力し、各ユニットの駆動を制御している。これにより、人間型ロボット装置200は、目標の姿勢に安定して遷移し、安定した姿勢で歩行できる。
【0140】
また、人間型ロボット装置200における制御ユニット380では、上述したような姿勢制御のほかに、加速度センサ、タッチセンサ、接地確認センサ等の各種センサ、およびCCDカメラからの画像情報、マイクからの音声情報等を統括して処理している。制御ユニット380では、図示しないが加速度センサ、ジャイロ・センサ、タッチセンサ、距離センサ、マイク、スピーカなどの各種センサ、各アクチュエータ、CCDカメラおよびバッテリが各々対応するハブを介して主制御部381と接続されている。また、図示しないが上記RFIDリード部も主制御部381と接続されている。
【0141】
主制御部381は、上述の各センサから供給されるセンサデータや画像データおよび音声データ、或いは上記RFIDリード部からのRFID情報を順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM内の所定位置に順次格納する。また、主制御部381は、バッテリから供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM内の所定位置に格納する。DRAMに格納された各センサデータ、画像データ、音声データおよびバッテリ残量データは、主制御部381がこの人間型ロボット装置200の動作制御を行う際に利用される。
【0142】
主制御部381は、人間型ロボット装置200の電源が投入された初期時、制御プログラムを読み出し、これをDRAMに格納する。また、主制御部381は、上述のように主制御部381よりDRAMに順次格納される各センサデータ、画像データ、音声データおよびバッテリ残量データに基づいて自己および周囲の状況や、使用者からの指示および働きかけの有無などを判断する。更に、主制御部381は、この判断結果およびDRAMに格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータを駆動させることにより人間型ロボット装置200に、いわゆる「身振り」、「手振り」といった行動をとらせる。
【0143】
したがって、人間型ロボット装置200は、制御プログラムに基づいて自己および周囲の状況を判断し、使用者からの指示および働きかけに応じて自律的に行動できる。
【0144】
このような人間型ロボット装置200であっても同様に、動作範囲内に設けられたRFIDタグから情報を取得し、この情報に基づいて動作できる。また、RFIDタグに「痕跡」に相当する情報を書き込むことによって、動作範囲を共有するほかのロボット装置に自分の存在を示すことができ、「縄張(テリトリ)」をもつことができる。
【0145】
なお、ロボット装置がRFIDタグに書き込むデータは、上記ロボット装置のID、日時、前回遭遇したRFIDタグからの移動距離、前回遭遇したRFIDタグからの方角、今後移動する方角に限定されず、ロボット装置のセンサ部が取得した外部からの入力情報等、様々な情報であってもよい。
【0146】
【発明の効果】
以上詳細に説明したように、本発明に係るロボット装置は、外部から情報を取得する情報取得手段と、外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取手段と、無線タグへデータを書き込む無線タグ書込手段と、外部から取得された情報、無線タグから読み取られたデータおよび無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶する記憶手段と、情報取得手段により取得した情報と無線タグ読取手段により読み取ったデータと記憶手段に格納されたデータとに基づいて行動を制御する制御手段とを備えることによって、無線タグから情報を取得し、この情報に基づいて動作できる。また、無線タグに移動の痕跡や軌跡を残すことができる。更に、過去に検出したロボット装置の痕跡や軌跡に再び遭遇した場合、その痕跡や軌跡に基づいて次の動作を決めることができる。
【0147】
また、無線タグ読取手段で読み取られたデータと該データに対応する情報とを関連付けたテーブルを記憶手段に記憶することによって、無線タグに書き込む情報量を低減できる。
【0148】
また、本発明に係るロボット装置の制御方法によれば、外部から情報を取得する情報取得工程と、外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取工程と、無線タグへデータを書き込む無線タグ書込工程と、外部から取得された情報、無線タグから読み取られたデータおよび無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶手段に記憶する記憶工程と、情報取得工程にて取得した情報と無線タグ読取工程にて読み取ったデータと記憶手段に格納されたデータとに基づいて行動を制御する制御工程とを有することによって、無線タグから情報を取得し、この情報に基づいて動作できる。また、無線タグに移動の痕跡や軌跡を残すことができる。更に、過去に検出したロボット装置の痕跡や軌跡に再び遭遇した場合、その痕跡や軌跡に基づいて次の動作を決めることができる。
【0149】
また、本発明に係るロボット装置移動制御システムは、所定エリア内をロボット装置が移動するロボット装置移動システムにおいて、所定エリア内には複数の無線タグが設置され、ロボット装置は、所定エリアを移動して無線タグと遭遇した場合、遭遇した無線タグへデータを書き込むまたは無線タグからデータを読み取ることにより、無線タグからの情報に基づいて動作できる。また、無線タグに移動の痕跡や軌跡を残すことができる。更に、過去に検出したロボット装置の痕跡や軌跡に再び遭遇した場合、その痕跡や軌跡に基づいて次の動作を決めることができる。
【図面の簡単な説明】
【図1】本発明の具体例として示すロボット装置の外観構成を説明する斜視図である。
【図2】上記ロボット装置の内部構成を説明するブロック図である。
【図3】上記ロボット装置におけるコントローラの機能的構成を説明する図である。
【図4】上記ロボット装置の感情/本能モデル部によって管理される感情モデルと本能モデルを説明する図である。
【図5】上記ロボット装置の行動モデルを説明する状態遷移図である。
【図6】上記ロボット装置の姿勢遷移機構部が記憶するノードとアークとで関連付けされた有向グラフを示す図である。
【図7】上記ロボット装置のID認識部を説明する構成図である。
【図8】本具体例で用いるRFIDタグのRFID信号のフォーマットを説明する図である。
【図9】上記ロボット装置がRFIDタグから情報を読み取る場合について説明する図である。
【図10】上記ロボット装置がRFIDタグに情報を書き込む場合について説明する図である。
【図11】IDテーブル記憶部に作成されるIDテーブルの例を説明する図である。
【図12】RFID信号フォーマットに基づいてRFIDタグに直接書き込まれるデータの例を説明する図である。
【図13】本発明を適用した人間型ロボット装置を前方から眺望した斜視図である。
【図14】本発明を適用した人間型ロボット装置を後方から眺望した斜視図である。
【図15】上記人間型ロボット装置の関節自由度構成を説明する模式図である。
【図16】上記人間型ロボット装置の制御システム構成を説明する模式図である。
【符号の説明】
1 ロボット装置、10 コントローラ、11 バッテリ、12 バッテリセンサ、13 熱センサ、14 内部センサ部、15 マイク(マイクロフォン)、16 CCDカメラ、17 タッチセンサ、18 スピーカ、19 RFIDリード部、20 RFIDライト部、50 センサ入力処理部、51 感情/本能モデル部、52 行動決定機構部、53 姿勢遷移機構部、54 制御機構部、55 音声合成部、56 音響処理部、57 RFID処理部、70 RFIDフォーマット、71 ヘッダ部、72 識別子部、73 データ部、74 ROM領域、75 書込領域
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a robot apparatus and a control method thereof, for example, a robot apparatus in which an action appears autonomously and the action is controlled in accordance with externally input information, and a control method of the robot apparatus. And a robot device movement control system.
[0002]
[Prior art]
A mechanical device that performs a motion similar to the motion of a human or animal using, for example, an electric or magnetic action is generally called a “robot device”. Robotic devices have begun to spread in Japan since the late 1960s, and many of them have been industrial robotic devices (Industrial) such as manipulators and transfer robotic devices for the purpose of automation and unmanned production work in factories. Robot).
[0003]
A stationary type robot apparatus, such as an arm type robot apparatus, which is installed and used at a specific place, operates only in a fixed and local work space such as an assembly and sorting operation of parts. On the other hand, a mobile robot device can freely move on a predetermined path or a non-path in a non-restricted work space to perform predetermined or arbitrary human work, or perform human or dog or other life A wide variety of services that can replace the body can be provided.
[0004]
There are crawler type and tire type as a means of movement. Among them, a leg type mobile robot device is unstable and makes posture control and walking control difficult.However, climbing up and down stairs and ladders, climbing over obstacles, leveling -It is excellent in that it can realize a flexible walking / running operation without distinguishing between rough terrain.
[0005]
Recently, we have modeled the so-called pet-type robot device that imitates the body mechanism and operation of a four-legged animal such as a dog and cat, or the body mechanism and operation of an animal that walks two-legged upright such as a human. Research and development on legged mobile robots, such as “humanoid robots” designed in the form of “humanoid robots,” are progressing, and expectations for practical use are increasing.
[0006]
In the case of a pet-type robot device for entertainment that imitates pet animals such as dogs and cats, it has a strong property of coherence with life, that is, "symbiosis" with humans. The pet type robot device is not only easier than handling actual animals, but also has higher functions and higher added value than conventional toys.
[0007]
The humanoid robot device coexists with a human in a human living environment and can perform various simple tasks, dangerous tasks, and difficult tasks in industrial activities and production activities. For example, maintenance work in nuclear power plants, thermal power plants, petrochemical plants, transport and assembly of parts in manufacturing factories, cleaning work in high-rise buildings, rescue activities in fire sites and other places, etc. Have been found. The humanoid robot device autonomously moves to a desired site while bipedally walking over or bypassing obstacles, and faithfully performs the instructed work.
[0008]
In the conventional toy machine, the relationship between the user operation and the response operation is fixed, and the user feels unsatisfactory, but the above-described pet-type robot device and the human-type robot device follow the time series model of the motion generation. This time-series model can be changed in response to detecting an external stimulus such as a user operation. That is, since it has a "learning effect", it is possible to provide an operation pattern that does not get tired of the user and matches the user's preference.
[0009]
Such a robot device has an actuator having a predetermined degree of freedom and a mechanical unit in which a sensor or the like for detecting a predetermined physical quantity is arranged at a predetermined position, and a control unit using a microcomputer controls an external device. It is configured to perform a predetermined operation on information (for example, see Patent Document 1). Therefore, it dynamically responds to user input such as “praise”, “play (love)”, “stroke”, “scold”, and “hit”, and “rejoices” A training simulation can be enjoyed by programming to perform emotional actions such as "snail", "scratch", "bark", and "shake the tail". In addition, such a robot device can freely and autonomously move in an operation space while appropriately moving over and bypassing obstacles by walking on two or four legs in a general home as an operation space.
[0010]
As described above, if the robot device can approach the behavior of the actual animal more, the biological feeling of the robot device further increases, and the user feels a closer feeling and satisfaction with the robot device. This also improves the entertainment and amusement properties of the robot device.
[0011]
Although animals such as dogs, bears, pandas, and wolves have seasonal variations, their living spheres are not disorderly, and the range and area of their living space are almost determined by biological habits. The range is sometimes called "Nawabali". In order for an animal to own the area or area of its living space, there are various ways to indicate that area to other animals, but generally when moving the area or area of its own living space, There are known methods of leaving nail marks and footprints as traces, and exudates and their odors. Animals, such as dogs and bears, can secure food from other animals, secure family safety, etc. by possessing their own living space. In addition, finding the traces of your nails and footprints that the animal moved and left in the past again can be used to confirm the trajectory of your movement and is very effective for grasping your own positional information .
[0012]
[Patent Document 1]
JP 2001-154679 A
[0013]
[Problems to be solved by the invention]
By the way, as a method for leaving traces and trajectories of movement when the above-mentioned various robot devices move autonomously, (1) unevenness (shape) that can be recognized again by physical action (pressure) And (2) a method of leaving a substance having a detectable element such as "smell" or "color".
[0014]
However, when the working space (working space) is made of a hard member, it is difficult to leave irregularities by physical action, and a substance having a detectable element such as “smell” or “color” is used. The method of leaving has a problem that the amount of information of the subject to be examined is small and it is not possible to cope with various kinds of preferences of the user.
[0015]
Therefore, the present invention has been proposed in view of such a situation, it is possible to leave traces and trajectories of movement, and when encountering traces and trajectories of the past again, referring to these traces and trajectories A robot device that calculates its own position information and can determine the next movement or action, a control method of a robot device that leaves a trace or trajectory and determines the next action with reference to past traces or trajectories, An object of the present invention is to provide a robot device movement control system that controls a robot device so as to determine a next action with reference to traces and trajectories in the past while leaving a trajectory.
[0016]
[Means for Solving the Problems]
In order to achieve the above-described object, a robot apparatus according to the present invention includes a robot apparatus in which an action appears autonomously according to an internal state and an action is controlled according to external input information. Information acquisition means for acquiring the data, a wireless tag reading means for reading data recorded on the wireless tag from a wireless tag provided on an external object, a wireless tag writing means for writing data to the wireless tag, Storage means for storing the acquired information, data read from the wireless tag, and a history of additional information when the wireless tag writing means has written data to the wireless tag, and information and wireless tag reading obtained by the information obtaining means Control means for controlling an action based on the data read by the means and the data stored in the storage means.
[0017]
Here, the additional information includes position information, mileage, writing date and time information, data written to the wireless tag, and information acquired by the information acquiring means at the time of writing.
[0018]
Further, the robot apparatus further includes an expression unit that expresses an action, and a driving unit that drives the expression unit, and the control unit reads the information acquired by the information acquisition unit and the information read by the wireless tag reading unit. It is preferable to control the driving unit based on the data and the data stored in the storage unit.
[0019]
Here, the information acquisition means is a contact detection means for detecting a contact. When the control means detects the contact by the contact detection means, the control means executes the reading operation in the wireless tag reading means for a certain period of time or writes the wireless tag. The writing operation in the means may be performed. The information acquisition means may be a non-contact detection means for detecting an external state by non-contact. When the control means detects the external state by the non-contact detection means, a reading operation by the wireless tag reading means or a radio tag It is also possible to execute a writing operation in the writing means.
[0020]
The data recorded on the wireless tag is an authentication number corresponding to the content of the information, and is stored in the storage unit as a table in which the content of the information is associated with the authentication number.
[0021]
In order to achieve the above-described object, a control method of a robot device according to the present invention includes a method of controlling a robot device in which an action appears autonomously according to an internal state and the action is controlled according to input information from outside. A method for acquiring information from outside in a robot device, a wireless tag reading step of reading data recorded on a wireless tag from a wireless tag provided on an external object, And a history of information acquired from outside, data read from the wireless tag, and additional information when data is written to the wireless tag in the wireless tag writing step. Control the behavior based on the storage step, the information acquired in the information acquisition step, the data read in the wireless tag reading step, and the data stored in the storage means. And having a that control step.
[0022]
Here, the additional information includes position information, mileage, writing date and time information, data written to the wireless tag, and information obtained in the information obtaining step at the time of writing.
[0023]
Further, in the control method of the robot apparatus, a driving step of driving an expression means expressing an action is further provided, and in the control step, information obtained in the information obtaining step and data read in the wireless tag reading step are provided. It is preferable to control the driving of the expression means in the driving step based on the data stored in the storage means.
[0024]
In order to achieve the above object, a robot device movement control system according to the present invention is a robot device movement system in which a robot device moves in a predetermined area, wherein a plurality of wireless tags are installed in the predetermined area, The robot apparatus is characterized in that when moving in a predetermined area and encountering a wireless tag, data is written to or read from the encountered wireless tag.
[0025]
Here, the robot apparatus includes: an information acquisition unit that acquires information from the outside; a wireless tag reading unit that reads data recorded on the wireless tag from a wireless tag provided on an external object; and data to the wireless tag. Wireless tag writing means for writing, information obtained from outside, data read from the wireless tag, and storage means for storing a history of additional information when the wireless tag writing means writes data to the wireless tag; A control unit for controlling an action based on the information obtained by the obtaining unit, the data read by the wireless tag reading unit, and the data stored in the storage unit; It is characterized in that data is written to the encountered wireless tag by the wireless tag writing means.
[0026]
The data written by the wireless tag writing means at this time is information on the robot device, such as identification information of the robot device, the date and time of encounter with the wireless tag, and the moving distance and direction from other wireless tags encountered in the past. , The traveling direction, the traveling distance, and the information acquired by the information acquiring means.
[0027]
Also, when the robot device moves in a predetermined area and encounters a wireless tag, the wireless tag reading means reads data recorded on the encountered wireless tag, and the control means obtains the read data and the information by the information obtaining means. Based on the information thus obtained and the data stored in the recording means, calculation of own position information, determination of the next movement target, or calculation of the distance and direction to the next movement target are executed.
[0028]
The additional information includes position information, mileage, writing date and time information, data written to the wireless tag, and information obtained by the information obtaining means at the time of writing.
[0029]
Further, the robot device has an expression unit that expresses an action, and a driving unit that drives the expression unit, and the control unit controls the information acquired by the information acquisition unit and the data read by the wireless tag reading unit. And the driving unit is controlled based on the data stored in the storage unit.
[0030]
BEST MODE FOR CARRYING OUT THE INVENTION
According to the present invention, a battery-operated mobile robot device that can freely move within an operation range without limitation is obtained by acquiring information from a wireless tag provided within the operation range, and thereby can operate based on this information. It is. In particular, by providing a wireless tag with a writing means for writing information corresponding to "signs", it is possible to indicate its own existence to other robot devices sharing an operation range, and to have a "territory" It is the technology that realized.
[0031]
The present invention can be suitably applied to a mobile robot device that moves only on a specific route. Further, in the specific examples shown below, a four-legged walking robot device is used. However, in addition to the two-legged, four-legged, six-legged, etc., legged walking robot device, The present invention can also be applied to a robot device employing a moving method such as a crawler type or a tire type.
[0032]
Hereinafter, specific examples of the present invention will be described in detail with reference to the drawings. FIG. 1 is a perspective view showing an external configuration example of a robot device shown as a specific example of the present invention, and FIG. 2 is a block diagram showing an electrical configuration example thereof. This robot device is an autonomous robot device that behaves autonomously according to the surrounding environment (external factors) and the internal state (internal factors). Although it is a pet robot, the form of the robot device is not limited to this, and may be a bipedal walking robot imitating other animal shapes, humans, or the like.
[0033]
In FIG. 1, a robot unit 1 has leg units 3A, 3B, 3C, and 3D connected to the front, rear, left, and right of a body unit 2, respectively, and a head unit at a front end and a rear end of the body unit 2, respectively. The unit 4 and the tail unit 5 are connected to each other. In the tail unit 5, the tail 5A is drawn out from a base provided on the upper surface of the body unit 2 so as to bend or swing freely with two degrees of freedom.
[0034]
As shown in FIG. 2, the body unit 2 houses a controller 10 for controlling the entire robot, a battery 11 as a power source of the robot, and an internal sensor unit 14 including a battery sensor 12 and a heat sensor 13. ing.
[0035]
The head unit 4 includes a microphone (microphone) 15 corresponding to “ears” for collecting external sounds, and a CCD (Charge Coupled Device) camera 16 corresponding to “eyes” for visually detecting an external situation. , A touch sensor 17 corresponding to a tactile sense for detecting external pressure and the like, a speaker 18 corresponding to a “mouth” for outputting a voice and the like, and information (ID data etc.) of an RFID tag (wireless tag) provided on an external object. ), And an RFID writer 20 for writing information to the RFID tag are provided at predetermined positions.
[0036]
Here, the RFID (Radio Frequency Identification) is a non-contact type automatic recognition technology, and reads information via a radio wave or the like from a medium such as a tag in which an IC and a small antenna are incorporated, for example. Tags (tags) serving as media are called RFID tags, wireless tags, IC tags, and the like, and have various shapes such as a card shape, a label shape, and a microchip shape. The RFID includes a battery-incorporated type and a battery-less type, and the battery-incorporated type is capable of radio wave oscillation. In addition, there are a type that is used only for reading, a type that can be written only once, and a type that can be written multiple times. For example, a medium frequency band of 125 to 135 KHz, a short wave band of 13.56 MHz, and a microwave band of 2.45 GHz can be selected as the operating frequency according to the operating conditions. RFID identification technology can manage product information by embedding an RFID tag in any product, so it is not only expected to replace barcodes, but also gates and doors, management of passage, delivery management of parcels and packages, etc. Have been proposed.
[0037]
The RFID read unit 19 is for reading data (ID data and the like) stored in such an RFID tag (wireless tag), and the RFID write unit 20 is for writing data to the RFID tag. is there.
[0038]
Note that the information transmission method of the RFID system includes an electromagnetic induction method, an electromagnetic coupling method, a microwave method, an electrostatic coupling method, an optical method, and the like. Information reading means corresponding to the method may be used, or a plurality of methods may be used. Furthermore, these may be configured as a read / write unit having a reading function and a writing function.
[0039]
Joint portions of the leg units 3A to 3D, connecting portions of the leg units 3A to 3D and the body unit 2, connecting portions of the head unit 4 and the body unit 2, and tail units 5 and the body unit. As shown in FIG. 2, actuators 3AA1To 3AAK, 3BA1Or 3BAK, 3CA1To 3CAK, 3DA1Or 3DAK, 4A1To 4AL, 5A1And 5A2Are arranged. Thus, each connecting portion can rotate with a predetermined degree of freedom.
[0040]
The microphone 15 in the head unit 4 collects surrounding sounds (sounds) including utterances from the user, and sends out the obtained sound signals to the controller 10. The CCD camera 16 captures an image of the surrounding situation and sends the obtained image signal to the controller 10. The RFID read unit 19 reads information (ID data or the like) recorded on the RFID tag from an RFID tag provided on a surrounding object by non-contact or contact, and sends the read signal to the controller 10 as an RFID signal. Send out. The RFID writer 20 writes information (such as ID data) from the controller 10 as an RFID signal to an RFID tag provided on a surrounding object in a non-contact or contact manner.
[0041]
The touch sensor 17 is provided, for example, on the upper part of the head unit 4 and detects a pressure received by a physical action such as “stroke” or “hit” from the user, and uses the detection result as a pressure detection signal. Send it to the controller 10.
[0042]
The battery sensor 12 in the body unit 2 detects the remaining amount of the battery 11 and sends the detection result to the controller 10 as a remaining battery amount detection signal. The heat sensor 13 detects the heat inside the robot and sends the detection result to the controller 10 as a heat detection signal.
[0043]
The controller 10 has a built-in CPU (Central Processing Unit) 10A, a memory 10B, and the like. The CPU 10A executes various processes by executing a control program stored in the memory 10B.
[0044]
That is, the controller 10 includes a microphone 15, a CCD camera 16, a touch sensor 17, an RFID read unit 19, a battery sensor 12, and a voice signal, a pressure detection signal, an RFID signal, and a battery remaining amount detection signal supplied from the heat sensor 13. Based on the signal and the heat detection signal, it is determined whether or not there is a surrounding situation, a command from the user, an action from the user, and the like.
[0045]
Further, the controller 10 determines a subsequent action based on the determination result and the like, and based on the determination result, the actuator 3AA1To 3AAK, 3BA1Or 3BAK, 3CA1To 3CAK, 3DA1Or 3DAK, 4A1To 4AL, 5A1And 5A2Of the head unit 4 up and down, left and right, moving the tail unit 5 and driving the leg units 3A to 3D to cause the robot to walk. Let
[0046]
Further, the controller 10 generates a synthesized sound as necessary, and supplies the synthesized sound to the speaker 18 for output. Alternatively, the controller 10 generates RFID write data as necessary, supplies the data to the RFID write unit 20, and supplies the RFID write unit 20 with the external RFID tag. Control to write to. In addition, an unillustrated LED (Light Emitting Diode) provided at the position of the “eye” of the robot is turned on, off, or blinks.
[0047]
Further, the controller 10 performs a read operation of the RFID read unit 19 and a write operation of the RFID write unit 20 based on sound signals, image signals, pressure detection signals, and the like from the microphone 15, the CCD camera 16, the touch sensor 17, and the like. May be controlled. For example, the controller 10 executes the operations of the RFID read unit 19 and the RFID write unit 20 for a certain period of time when detecting a contact based on a detection result from a contact detection unit such as the touch sensor 17 that detects a contact. When the controller 10 detects the presence / absence or state of an object based on an optical detection result from an optical detection unit that optically detects the presence / absence or state of an object such as a CCD camera 16 or an infrared sensor, the controller 10 performs a predetermined operation. During the time, the operations of the RFID read unit 19 and the RFID write unit 20 are executed.
[0048]
As described above, the robot apparatus 1 can act autonomously based on the surrounding conditions and the like, and when encountering an RFID tag, reads data from the RFID tag or writes data to the RFID tag. I can do it.
[0049]
Next, a functional configuration example of the controller 10 will be described with reference to FIG. Note that the functional configuration shown in FIG. 3 is realized by the CPU 10A executing a control program stored in the memory 10B.
[0050]
The controller 10 includes a sensor input processing unit 50 that recognizes a specific external state, an emotion / instinct model unit 51 that accumulates recognition results and the like of the sensor input processing unit 50 and expresses an emotion and an instinct state, and a sensor input processing unit. 50, an action determining mechanism 52 for determining a subsequent action based on the recognition result, etc., a posture transition mechanism 53 for actually causing the robot to perform an action based on the determination result of the action determining mechanism 52, and each actuator 3AA.1To 5A1And 5A2Control unit 54 for driving and controlling the voice signal, a voice synthesizing unit 55 for generating a synthesized voice, an acoustic processing unit 56 for controlling the output of the voice synthesizing unit 55, an RFID signal read by the RFID reading unit 19 or the RFID writing unit 20. And an RFID processing unit 57 that processes an RFID signal to be written.
[0051]
The sensor input processing unit 50 performs a specific external state or a user based on a sound signal, an image signal, a pressure detection signal, an RFID signal, and the like provided from the microphone 15, the CCD camera 16, the touch sensor 17, the RFID reading unit 19, and the like. , And recognizes an instruction from the user, etc., and notifies the emotion / instinct model unit 51 and the action determination mechanism unit 52 of state recognition information representing the recognition result.
[0052]
That is, the sensor input processing unit 50 has a voice recognition unit 50A, and the voice recognition unit 50A performs voice recognition using a voice signal given from the microphone 15 in accordance with control from the action determination mechanism unit 52. . Then, the voice recognition unit 50A uses the emotion / instinct model unit 51 and the action determination as the state recognition information, for example, commands such as “walk”, “down”, “chase the ball” and the like as the voice recognition result. Notify the mechanism unit 52.
[0053]
Further, the sensor input processing unit 50 has an image recognition unit 50B, and the image recognition unit 50B performs an image recognition process using an image signal given from the CCD camera 16. When the image recognition unit 50B detects, for example, a “red round object” or a “plane that is perpendicular to the ground and has a predetermined height or more” as a result of the processing, the “ball exists” or the “wall An image recognition result such as “Yes” is notified to the emotion / instinct model unit 51 and the action determination mechanism unit 52 as state recognition information.
[0054]
Further, the sensor input processing unit 50 has a pressure processing unit 50C. The pressure processing unit 50C processes a pressure detection signal provided from the touch sensor 17. When the pressure processing unit 50C detects a short-time pressure that is equal to or higher than a predetermined threshold value as a result of the processing, the pressure processing unit 50C recognizes that the pressure processing unit 50C has been “hit (scorched)”, and is less than the predetermined threshold value for a long time. When the pressure is detected, it is recognized as “stroke (praised)”, and the recognition result is notified to the emotion / instinct model unit 51 and the action determination mechanism unit 52 as state recognition information.
[0055]
The sensor input processing unit 50 has an environment recognition unit 50D. The environment recognition unit 50D recognizes an environment in which the robot device is used, such as a distance from the robot device to a user or an object, using an audio signal provided from the microphone 15 or an image signal provided from the CCD camera 16, and recognizes the environment. The recognition result is output to the acoustic processing unit 56 as state recognition information.
[0056]
Further, the sensor input processing unit 50 has an ID recognition unit 50E. The ID recognizing unit 50E performs a process of recognizing a signal recorded in the RFID using the RFID signal provided from the RFID reading unit 19. As a result of the recognition process, for example, the type of an object such as a “ball” or a “vase”, the type of a motion to be expressed, and the like are recognized, and the recognition result is used as state recognition information as an emotion / instinct model unit 51 and an action determination mechanism unit 52 Notify. In particular, when used as an application for regulating behavior, information on a characteristic object or a distance or direction from a characteristic place, information on a place to go to from the present time (the position of an RFID tag), and a trace of a previous visit If it is a place (an RFID tag in which information was previously written), the information left at that time, or if it has been visited several times, its history information, etc., is recognized, and the recognition result is used as state recognition information as an emotion / instinct model unit 51. And the action determination mechanism unit 52 is notified. A configuration example of the ID recognition unit 50E will be described later.
[0057]
Here, the controller 10 controls the operations of the RFID read unit 19 and the ID recognition unit 50E according to the recognition results from the voice recognition unit 50A, the image recognition unit 50B, the pressure recognition unit 50C, and the like of the sensor input processing unit 50. ing. For example, in this specific example, when the image recognition unit 50B recognizes an image signal from the CCD camera 16 and obtains a recognition result of a round thing like a ball, the RFID read unit 19 is operated to “ The RFID tag provided on the "object" is read, and the RFID signal obtained from the RFID reading unit 19 is sent to the ID recognizing unit 50E to perform the recognition process so that the "ball" can be accurately recognized. .
[0058]
Further, for example, information is read from the RFID tag, and further detailed information such as whether or not the tag has been recognized before, that is, whether or not the place has been visited before, or whether or not another robot device has been visited, can be obtained. It has become recognizable. Further, information obtained from the CCD camera 16 and the microphone 15 can be recorded on the RFID tag.
[0059]
The emotion / instinct model unit 51 manages an emotion model and an instinct model expressing the emotion of the robot and the state of the instinct as shown in FIG. The emotion model is composed of, for example, three emotion units 60A, 60B, and 60C. These emotion units 60A to 60C indicate the emotional states (degrees) of “joy”, “sadness”, and “anger” by: For example, each value is represented by a value in the range of 0 to 100, and the value is changed based on state recognition information from the sensor input processing unit 50, elapsed time, or the like. It should be noted that in the emotion model, it is also possible to provide an emotion unit corresponding to "fun" in addition to "joy", "sadness", and "anger".
[0060]
The instinct model is composed of, for example, three instinct units 61A, 61B, and 61C, and these instinct units 61A to 61C each have a state (degree) of instinct of “appetite”, “sleep desire”, and “exercise desire”. Is represented by, for example, a value in a range of 0 to 100, and the value is changed based on state recognition information from the sensor input processing unit 50, elapsed time, or the like.
[0061]
The emotion / instinct model unit 51 converts the emotion state represented by the values of the emotion units 60A to 60C and the instinct state represented by the values of the instinct nits 61A to 61C, which change as described above, into the emotion / instinct state. The information is sent to the sensor input processing unit 50, the action determination mechanism unit 52, and the speech synthesis unit 55 as information.
[0062]
The action determining mechanism unit 52 determines the next action based on the state recognition information from the sensor input processing unit 50, the emotion / instinct state information from the emotion / instinct model unit 51, the passage of time, and the like, and determines the determined action. Is sent to the posture transition mechanism 53 as action command information. That is, as shown in the state transition diagram of FIG. 5, the behavior determination mechanism unit 52 manages a finite state automaton in which a behavior that can be taken by the robot corresponds to a state (state) as a behavior model that defines the behavior of the robot device. The state in the finite state automaton as the behavior model is transitioned based on the state recognition information from the sensor input processing unit 50, the emotion model in the emotion / instinct model unit 51, the value of the instinct model, the passage of time, and the like. The action corresponding to the later state is determined as the action to be taken next.
[0063]
Specifically, for example, in FIG. 5, the state ST3 represents an action of “standing”, the state ST4 represents an action of “sleeping”, and the state ST5 is “chasing the ball”. It represents the action of. For example, in state ST5 of “following the ball”, when state recognition information that “the ball is no longer visible” is supplied, the state transits from state ST5 to ST3. As a result, it is determined that the action of "standing" corresponding to the state ST3 is to be taken next. Further, for example, in the state ST4 of “sleeping”, when the state recognition information of “get up” is supplied, the state transits from the state ST4 to ST3. As a result, it is determined that the action of "standing" corresponding to the state ST3 is to be taken next.
[0064]
Here, when the behavior determining mechanism unit 52 detects that a predetermined trigger has occurred, it changes the state. That is, for example, when the time during which the action corresponding to the current state is being executed has reached a predetermined time, when specific state recognition information is received, the action determining mechanism 52 supplies the action / instinct model 51 When the value of the emotional state (the value of the emotional unit 60A to 60C) or the value of the state of the instinct (the value of the instinct unit 61A to 61C) indicated by the emotion / instinctive state information to be performed becomes equal to or less than a predetermined threshold value or the like. State transition.
[0065]
In addition, as described above, the action determination mechanism unit 52 performs the processing shown in FIG. 5 based on not only the state recognition information from the sensor input processing unit 50 but also the values of the emotion model and the instinct model in the emotion / instinct model unit 51. Since the state in the finite state automaton shown is changed, even if the same state recognition information is input, the destination of the state changes depending on the value of the emotion model or the instinct model (emotion / instinct state information).
[0066]
As a result, the behavior determination mechanism unit 52 indicates, for example, that the emotion / instinct state information is “not angry” and “not hungry”, and the state recognition information is “the palm is presented in front of the eyes. In response to the fact that the palm is put in front of the user, action command information for taking the action of “hand” is generated and sent to the posture transition mechanism unit 53.
[0067]
In addition, the behavior determination mechanism unit 52 indicates, for example, that the emotion / instinct state information indicates “not angry” and “stomach is hungry”, and the state recognition information indicates “the palm has been presented in front of the eyes”. In response to the fact that the palm is presented in front of the user, action command information that causes the user to take an action such as "palm licking the palm" is generated and transmitted to the posture transition mechanism 53. I do.
[0068]
For example, when the emotion / instinct state information indicates “angry” and the state recognition information indicates “the palm is put in front of the eyes”, / Even if the instinct status information indicates that you are hungry or that you are not hungry, generate action command information that allows you to take an action such as "turn to the side" This is sent to the posture transition mechanism 53.
[0069]
Further, the action determining mechanism 52 generates action command information for causing the robot to speak, in addition to the action command information for operating the head and limbs of the robot, as described above. The action command information for causing the robot to speak is supplied to the voice synthesis unit 55, and the action command information supplied to the voice synthesis unit 55 corresponds to the synthesized sound generated by the voice synthesis unit 55. And the like. Upon receiving the action command information from the action determination section 52, the voice synthesis section 55 takes into account the state of emotion and the state of instinct managed by the emotion / instinct model section 51 based on the text included in the action command information. Meanwhile, for example, a synthesized voice is generated by performing a rule voice synthesis or the like, and is supplied to the acoustic processing unit 56.
[0070]
The posture transition mechanism unit 53 generates posture transition information for transitioning the posture of the robot from the current posture to the next posture, based on the behavior command information supplied from the behavior determination mechanism unit 52, and transmits the generated posture transition information to the control mechanism. To the unit 54.
[0071]
Here, the posture that can be changed next from the current posture is, for example, the physical shape of the robot such as the shape and weight of the body, hands and feet, the connection state of each part, and the direction and angle at which the joint bends. Actuator 3AA1To 5A1And 5A2And the mechanism.
[0072]
The next posture includes a posture that can directly transition from the current posture and a posture that cannot directly transition. For example, a four-legged robot can directly transition from lying down with its limbs throwing down to lying down, but cannot directly transition to standing up. It is necessary to perform a two-stage operation of pulling down to a prone position and then standing up. There are also postures that cannot be safely executed. For example, a four-legged robot easily falls down when trying to banzai with both front legs raised from its standing posture.
[0073]
For this reason, the posture transition mechanism unit 53 pre-registers a posture to which a direct transition can be made, and when the behavior command information supplied from the behavior determination mechanism unit 52 indicates a posture to which a direct transition is possible, the behavior command information Is sent to the control mechanism unit 54 as posture transition information. On the other hand, when the action command information indicates a posture that cannot directly make a transition, the posture transition mechanism unit 53 generates posture transition information that makes a transition to a target posture after temporarily making a transition to another posture that can make a transition. And sends it to the control mechanism 54. As a result, it is possible to avoid a situation where the robot forcibly executes an untransitionable posture or a situation where the robot falls.
[0074]
That is, for example, as shown in FIG. 6, the posture transition mechanism unit 53 expresses the postures that the robot can take as nodes NODE1 to NODE5, and sets a directed arc ARC1 between the nodes corresponding to the two transitionable postures. The directed graph combined by the ARC 10 is stored, and the above-described posture transition information is generated based on the directed graph.
[0075]
Specifically, when the behavior command information is supplied from the behavior determination mechanism 52, the posture transition mechanism unit 53 corresponds to the node NODE corresponding to the current posture and the next posture indicated by the behavior command information. While searching for a route from the current node NODE to the next node NODE while following the direction of the directed arc ARC so as to connect the node NODE, the posture corresponding to the node NODE on the searched route is taken in order. Is generated.
[0076]
As a result, for example, when the action command information of “close” is supplied when the current attitude is at the node NODE2 indicating the attitude of “down”, the attitude transition mechanism unit 53 performs an action that can directly make a transition. If so, posture transition information is generated and given to the control mechanism unit 54. In the directed graph shown in FIG. 6, since it is possible to make a direct transition from the node NODE2 indicating the posture of “down” to the node NODE5 indicating the posture of “sit”, the posture transition information corresponding to “sit” is generated. This is given to the control mechanism 54.
[0077]
In addition, when the current state is in the node NODE2 indicating the posture of “down” and the action command information of “walking” is supplied, the posture transition mechanism unit 53 changes the node NODE2 of “down” in the directed graph from the node NODE2 of “down”. A route to the node NODE4 of "walk" is searched. In this case, the path of the node NODE2 corresponding to “down”, the path of NODE3 corresponding to “tatsu”, and the path of NODE4 corresponding to “walk” are obtained. Therefore, the posture transition mechanism unit 53 determines the order of “tatsu” and “walk”. Is generated and sent to the control mechanism 54.
[0078]
The control mechanism unit 54 controls the actuator 3AA according to the posture transition information from the posture transition mechanism unit 53.1To 5A1And 5A2And generates a control signal for driving the actuator 3AA.1To 5A1And 5A2To send to. Thereby, the actuator 3AA1To 5A1And 5A2Is driven according to the control signal, and the robot device autonomously acts.
[0079]
On the other hand, the sound processing unit 56 receives the state recognition information output from the environment recognition unit 50D included in the sensor input processing unit 50, and outputs the output of the synthesized sound supplied from the voice synthesis unit 55 based on the state recognition information. Control. That is, the sound processing unit 56 is configured so that the synthesized sound output from the speaker 18 is clearly heard by the user according to the noise in the environment in which the robot is used, the distance from the robot to the user, and the like, and is not annoying. The size (power) and height (frequency) are adjusted and supplied to the speaker 18. As a result, the speaker 18 outputs a synthesized sound having an appropriate size and height adjusted by the sound processing unit 56.
[0080]
The RFID processing unit 57 receives the state recognition information related to the operation corresponding to the ID number recognized by the ID recognition unit 50E, and supplies it to the action determination mechanism unit 52, the emotion / instinct model unit 51, the sound processing unit 56, and the like. In addition, when writing information to the RFID tag, RFID write data is generated and supplied to the RFID write unit 20. The write data is converted to an RFID signal that can be written to an RFID tag. At this time, if the capacity of the write data becomes large, a new ID number corresponding to the content of the information to be written is generated, the content of the information to be written is stored in the corresponding table of the ID table storage unit 42, and the corresponding ID number is stored. To the RFID write unit 20.
[0081]
In addition to the above-described configuration, the robot apparatus 1 includes, for example, a direction detecting unit that can detect north, south, east, and west and a GPS (Global Positioning System) that obtains more detailed position information such as longitude and latitude. Alternatively, information detected and obtained from the above information can be written to its own storage unit together with the RFID tag.
[0082]
FIG. 7 shows a configuration example of the ID recognition unit 50E of FIG. The ID collation unit 41 is supplied with an RFID signal output from the RFID read unit 19. The data output from the RFID processing unit 71 (write data of the RFID writer unit 70) is supplied to the ID collation unit 41. The ID collation unit 41 stores, for example, position information, mileage, and time information (writing date and time) as data output from the RFID processing unit 71 and history when the RFID writer unit 70 has written the ID table storage unit. 42 in the ID table. Although not shown in the figure, the ID collation unit 41 stores data acquired from the sensor input processing unit 50 other than the RFID read unit 19 when the RFID writer unit 70 writes the data in the ID table storage unit 42. Can also be stored. As an example of the ID table storage unit 42, an ID number of an RFID tag (wireless tag) registered in advance and a table of state recognition information corresponding to the ID number (hereinafter, referred to as an ID table) are recorded.
[0083]
7 determines whether or not the RFID signal output from the RFID read unit 19 belongs to the information recorded in the ID table of the ID table storage unit 42. When it is determined that the RFID signal output from the RFID reading unit 19 is recorded in the ID table storage unit 42, the ID number of the RFID signal is determined based on the ID table recorded in the ID table storage unit 42. Is notified to the emotion / instinct model unit 51 and the action determination mechanism unit 52. A plurality of pieces of situation recognition information corresponding to the ID number may exist.
[0084]
Here, the format of the RFID signal will be described with reference to FIG. The RFID signal format 70 has a header section 71, an identifier section 72, and a data section 73, and is composed of 128 bits as a whole. In the data section 73, the ID number of the RFID tag is written. The robot device 1 stores the ID number of the RFID tag and the information written in the RFID tag in association with each other as a table. The contents of this storage table will be described later together with the actual RFID tag reading / writing operation of the robot device 1.
[0085]
The RFID tag has a large overall capacity, and has a data area 73 having a ROM (Read Only Memory) area 74 and a write area 75 usable and writable like a RAM (Random Access Memory). There is also a type in which real data such as audio data and audio data can be directly written in ASCII code or MIDI data.
[0086]
In this case, in the ROM area 74, for example, information indicating the type of the RFID tag, a maker code for manufacturing the RFID tag, an ID number of the RFID tag, position information of the RFID tag, and the like are divided into respective addresses and written in advance. It is. When the arrangement relationship of the RFID tags when using these RFID tags is predetermined, information indicating the mutual positional relationship of the RFID tags to be arranged, and positional information such as the distance and direction from a predetermined object. Are also written in the ROM area 74 in advance. The writing area 75 further includes an area 751, 752, ..., 75nAddress, and multiple pieces of information can be written. The information to be written here includes the robot ID of the robot device 1, the date and time of writing, the distance and direction from the RFID tag encountered last time, and the positional information such as the direction to proceed in the future.
[0087]
In the latter part, the latter case in which an RFID tag having a writable area is used will be described.
[0088]
In general, since an RFID tag has a larger amount of information that can be stored than a barcode, it has a high object identification capability and can include detailed data of the object. In addition, since RFID can perform information communication in a non-contact manner, it has an advantage in that it has excellent durability and is not affected by dirt, dust, and the like. It is also characterized by a very high recognition ability, such as being able to read even if the lead portion and the RFID tag are relatively moved, and being able to recognize an object even in the dark regardless of the amount of light. Various other formats can be used as the format of the RFID signal.
[0089]
According to the above-described specific example, by providing the RFID read unit 19 in the robot device, it is possible to confirm information of an object and identify an object that was difficult to be detected by a microphone, a camera, and various sensors, and In addition, object recognition can be performed effectively and reliably even when the external environment is dark. Then, according to the recognized result, it is possible to cause the user to take a unique action. Further, by providing the RFID writer 20, information such as a once visited place (recognized tag) can be written in the RFID tag. For example, the robot can recognize the existence of another robot device having space. Further, an action according to the recognized result can be taken.
[0090]
By providing the RFID read unit 19 and the RFID write unit 20 in this way, it is possible to cause the robot apparatus to perform applied operations such as games, sports, restrictions on the range of action, construction of relationships with surroundings, and automatic mounting of parts. .
[0091]
Hereinafter, a case where the robot apparatus 1 moves in a certain operation area to read information from the RFID tag and a case where the robot apparatus 1 writes information to the RFID tag will be described.
[0092]
As shown in FIG. 9, a plurality of RFID tags 80(0,0)~ 80(N, n)Is installed. Here, in the area A, readable and writable RFID tags are arranged at regular intervals (1 meter intervals).
[0093]
In this specific example, the description will be made on the assumption that the RFID tags are arranged in a grid in the area A, and the arrangement positions of the individual RFID tags are determined in advance. The robot apparatus 1 stores the correspondence between the ID numbers of the RFID tags and the position information in the ID table storage unit 42.
[0094]
The robot apparatus 1 is moved in the area by the RFID read unit 19 for reading information of the RFID tag provided in the head unit 4 and the RFID write unit 20 for writing information to the RFID tag, and is installed in the area A. Is read, the information written in the encountered RFID tag is read, and new information is written as necessary. Here, for convenience of explanation, an RFID tag in which information is not recorded in the writing area 75 is indicated by a white square mark, and an RFID tag in which information is written in the writing area 75 is indicated by a black square mark.
[0095]
FIG. 9 shows an example in which the robot apparatus 1 has the RFID tag 80 in the area A.(A, b)Walks autonomously while writing information to the RFID tag on the way from the position of(K, l)Shows a state in which it has reached the position of. First, the RFID tag 80(K, l)Nothing is recorded in the writing area 75.
[0096]
First, the robot apparatus 1 uses the RFID reading unit 19 to(K, l)Is read, and information of the RFID tag such as the ID number of the RFID tag and the position information of the RFID tag is stored in a storage area included in the ID table storage unit 42.
[0097]
The ID collation unit 41 reads the RFID tag 80 read by the RFID read unit 19.(K , L)The RFID tag 80 is referred to by referring to the information recorded in the(K, l)Is notified to the emotion / instinct model unit 51 and the action determination mechanism unit 52 that no information is recorded. If the type is such that information can be written directly to the RFID tag, the ID collation unit 41 notifies the emotion / instinct model unit 51 and the action determination mechanism unit 52 of the information read as the RFID signal.
[0098]
The action determination mechanism 52 sends the “RFID tag 80(K, l)No information is recorded in the RFID tag 80, and the next action to be executed based on the emotion / instinct state information / time passage from the emotion / instinct model unit 51(K, l)The information of the determined action (“writing of information on the robot apparatus 1”) is sent to the RFID processing unit 57 as action command information.
[0099]
Here, the information related to the robot device 1 indicates a record of an action including an ID number assigned to the robot device 1 and includes information such as a date and time when the RFID tag is encountered and a direction in which the RFID tag moves. Here, hereafter, it is described as history. The RFID processing unit 57 issues an ID number corresponding to the history of the robot device 1 based on the action command information of “writing the history of the robot device 1” supplied from the action determination mechanism unit 52, and RFID tag 80(K, l)And the contents of the history are stored in the ID table in association with the issued ID number.
[0100]
The items of the history of the robot device 1 include the ID of the robot device 1, the date and time of writing to the RFID tag, the moving distance and direction from the RFID tag encountered last time, and the direction to move afterwards. Although not shown, the robot apparatus 1 includes east-west-north-south direction detection means. For example, north is 0 degree, east is 90 degrees, south is 180 degrees, and west is 270 degrees.
[0101]
When data can be written directly to the RFID tag, the RFID processing unit 57 uses the RFID writing unit 20 to, for example, (1) ID, (2) writing date and time, and (3) moving distance from the previously encountered RFID tag. , (4) the direction from the RFID tag encountered last time, and (5) the direction to move in the future.(K, l)Write to. Therefore, it is assumed that the ID of the robot device 1 is “1” and the RFID tag 80(K, l)If the date and time of writing to 01:20 on January 1 is “01010120”, if the distance traveled from the RFID tag encountered last time is 1 meter, “1” will be the direction from the RFID tag encountered last time. Data such as "270" is written to the RFID tag in the west, "0" is written to the RFID tag in the future, and "1/01010120/1/270/0" is written to the RFID tag in order. This data is also stored in the ID table. A data string such as “1/01010120/1/270/0” generated here may be used as it is as the ID number.
[0102]
The RFID processing unit 57 outputs the write data “1/01010120/1/270/0” to the ID matching unit 41. The ID collation unit 41 stores the write data “1/01010120/1/270/0” in the ID table.
[0103]
FIG. 11 shows an example of an ID table created in the ID table storage unit 42, and FIG. 12 shows an RFID signal format of the RFID tag.
[0104]
The content of information corresponding to the ID number of each RFID tag is stored in association with the ID table illustrated in FIG. For example, the RFID tag 80(K, l)The ID “1” of the robot device 1 and the RFID tag 80(K, l)The writing date and time “01010120”, the moving distance “1” from the previously encountered RFID tag, the direction “270” from the previously encountered RFID tag, and the direction “90” to be moved in the future are written. When the content of the information can be written directly to the RFID tag, the respective information is written at a predetermined address of the writing area 75 as shown in FIG.
[0105]
RFID tag 80(K, l)After writing into the robot device, the robot device 1 moves freely and autonomously. Here, move north. Thereafter, when the robot apparatus 1 encounters an RFID tag, the robot apparatus 1 repeats the above-described history recording operation.
[0106]
Subsequently, a case where the robot apparatus 1 detects the RFID tag and reads the written information will be described with reference to FIG.
[0107]
When the robot apparatus 1 encounters an RFID tag, the information read from the encountered RFID tag is read by the RFID reading unit 19, and the ID number of the RFID tag is stored in a storage area included in the ID table storage unit 42. The information of the RFID tag such as the position information of the RFID tag is stored.
[0108]
The ID collation unit 41 includes an RFID tag 80(K, l)Is determined to belong to the information stored in the ID table. Alternatively, the ID collating unit 41 reads the actual data directly written on the RFID tag. FIG. 10 shows an RFID tag 80 used for describing the above-described recording operation when the robot apparatus 1 is wandering.(K, l)Is again encountered.
[0109]
As a result of the determination, if it is determined that the data is recorded in the ID table storage unit 42, the corresponding data is extracted from the ID table and sent to the emotion / instinct model unit 51 and the structure determination mechanism unit 52 as state recognition information. When the data is directly written on the RFID tag, the ID collation unit 41 uses the data “1/01010120/1/270/0” stored in the ID table as state recognition information, The action decision mechanism 52 is notified. The action determination mechanism unit 52 determines from the data “1/01010120/1/270/0” that the RFID tag 80(K, l)This robot device 1 visits the site at 1:20 on January 1 in the past, and finds a trace that has proceeded further north. At this time, a point 1 meter away from the west (RFID tag 80(K + 1, l)) From this RFID tag 80(K, l)Also know that he has moved to.
[0110]
The action determining mechanism 52 determines the next action as “move west” based on the emotion / instinct state information from the emotion / instinct model section 51, the passage of time, and follows the route that has been taken before. Here, the action determining mechanism unit 52 is not limited to the operation of following the previous route, but may also perform a specific operation expressing the previously visited place, for example, “barking”, “pleasing” or the like. it can. The same applies to the case where a trace of another robot device is detected, and the trace of another robot device can be traced or a specific operation can be performed.
[0111]
The robot apparatus 1 can detect the RFID tag by a method of periodically activating the RFID reading unit 20 to generate a reading radio wave to search for the RFID tag, or a method including a battery and capable of oscillating an active radio wave. A method using an RFID tag is exemplified. In addition, the reading operation and the writing operation of the RFID tag can be executed in accordance with the detection result of another detecting means such as a CCD camera and a contact sensor. For example, when an RFID tag is visually found by a CCD camera, a reading operation or a writing operation of the RFID tag may be executed for a certain period.
[0112]
As described above, the robot device 1 can acquire information from the RFID tag provided in the operation range and operate based on this information. In addition, by writing information corresponding to the "trace" to the RFID tag, it is possible to indicate its own existence to other robot devices sharing the operation range, and it is possible to have "territory".
[0113]
The data that the robot device writes to the RFID tag is not limited to the ID of the robot device, the date and time, the moving distance from the previously encountered RFID tag, the direction from the previously encountered RFID tag, and the direction to move in the future. Various information such as external input information acquired by the sensor unit may be used.
[0114]
In this specific example, the description is made such that the RFID tags are arranged in a lattice shape and the arrangement positions of the individual RFID tags are determined in advance. However, the RFID tags do not need to be arranged in an orderly manner, It may be provided irregularly within the operating range of the device 1. In this case, the position information does not need to be written in the RFID tag in advance. For example, a method in which the robot device 1 reads the RFID tags placed at random from the end and stores the read ID number and the positional relationship of the RFID tags in an ID table, or a method in which the robot device 1 reads the RFID tags in the area. If the arrangement of the tags in the area can be recognized by using the method of directly writing the position information and the like of the RFID tags in order, the above-described specific example can be implemented.
[0115]
In this specific example, the above-described series of processes is performed by causing the CPU 10A to execute a program, but the series of processes may be performed by dedicated hardware. The program is stored in the memory 10B in advance, and may be a flexible disk, a compact disc read only memory (CD-ROM), a magneto optical disc (MO), a digital versatile disc (DVD), a magnetic disc, a semiconductor memory, or the like. It can be temporarily or permanently stored (recorded) in a removable recording medium. Such a removable recording medium may be provided as so-called package software, and may be installed in a robot (memory 10B).
[0116]
In addition to the method of installing the program from a removable recording medium, the program may be wirelessly transferred from a download site via an artificial satellite for digital satellite broadcasting, or may be wirelessly transferred via a network such as a LAN (Local Area Network) or the Internet. In the memory 10B. In this case, when the program is upgraded, there is an advantage that the upgraded program can be easily installed in the memory 10B.
[0117]
Processing steps for describing a program for causing the CPU 10A to perform various processes described in this specific example need not be processed in chronological order in the order described in the flowchart, and are executed in parallel or individually. Processing (for example, parallel processing or processing by an object) is also included. Further, the program may be processed by a single CPU, or may be processed in a distributed manner by a plurality of CPUs.
[0118]
The case where the present invention is applied to a pet-like robot device has been described above, but the present invention is not limited to this, and is widely applied to various robot devices such as, for example, industrial robots and humanoid robots. it can.
[0119]
Specifically, an example in which the present invention is applied to a humanoid robot device will be described with reference to the drawings. 13 and 14 show the humanoid robot device 200 viewed from the front and the rear, respectively. Further, FIG. 15 schematically shows the configuration of the degrees of freedom of the joints included in the humanoid robot device 200.
[0120]
The humanoid robot device 200 includes left and right lower limbs 201R and 201L performing legged movement, a trunk 202, left and right upper limbs 203R and 203L, and a head 204.
[0121]
Each of the left and right lower limbs 201R, 201L includes a thigh 205R, 205L, a knee joint 206R, 206L, a shin 207R, 207L, an ankle 208R, 208L, and a foot 209R, 209L. The lower part of the trunk 202 is connected to the lowermost part of the trunk 202 by 210L. Each of the left and right upper limbs 203R and 203L includes an upper arm 211R and 211L, an elbow joint 212R and 212L, and a forearm 213R and 213L. Each of the left and right side edges above the trunk 202 by the shoulder joints 214R and 214L. Are linked. Further, the head 204 is connected to the center of the uppermost end of the trunk 202 by a neck joint 255.
[0122]
As shown in FIG. 15, the humanoid robot device 200 has three degrees of freedom of a neck joint yaw axis 302 supporting the head 204, a neck joint pitch axis 303, and a neck joint roll axis 304. The arm joint includes a shoulder joint pitch axis 308, a shoulder joint roll axis 309, an upper arm yaw axis 310, an elbow joint pitch axis 311, a forearm yaw axis 312, a wrist joint pitch axis 313, and a wrist joint roll axis. 314 and a hand 315.
[0123]
The hand part 315 is actually a multi-joint and multi-degree-of-freedom structure including a plurality of fingers. However, since the motion of the hand 315 has little contribution or influence on the posture control and walking control of the humanoid robot device 200, it is assumed in this specification that the degree of freedom is zero. Therefore, each arm has seven degrees of freedom.
[0124]
The trunk has three degrees of freedom: a trunk pitch axis 305, a trunk roll axis 306, and a trunk yaw axis 307.
[0125]
Each leg constituting the lower limb includes a hip joint yaw axis 316, a hip joint pitch axis 317, a hip joint roll axis 318, a knee joint pitch axis 319, an ankle joint pitch axis 320, an ankle joint roll axis 321 and a foot. 322. In this specification, the intersection of the hip joint pitch axis 317 and the hip joint roll axis 318 defines the hip joint position of the humanoid robot device 200. The foot 322 of the human body is actually a structure including a sole with multiple joints and multiple degrees of freedom, but the sole of the humanoid robot device 200 has zero degrees of freedom. Therefore, each leg has six degrees of freedom.
[0126]
Summarizing the above, the entire humanoid robot device 200 has a total of 3 + 7 × 2 + 3 + 6 × 2 = 32 degrees of freedom. However, the humanoid robot device 200 for entertainment is not necessarily limited to 32 degrees of freedom, and this degree of freedom, that is, the number of joints, can be appropriately increased or decreased according to design and production constraints, required specifications, and the like.
[0127]
Each degree of freedom of the humanoid robot device 200 described above is actually implemented using an actuator. Actuators are required to be small and lightweight due to demands such as eliminating extra bulges in appearance and approximating the human body shape, and controlling the posture of unstable structures such as bipedal walking. preferable.
[0128]
FIG. 16 schematically shows a control system configuration of the humanoid robot device 200. As shown in the figure, the humanoid robot device 200 has each of the mechanism units 330, 340, 350R / L, and 360R / L representing human limbs, and adaptive control for realizing a cooperative operation between the mechanism units. (However, each of R and L is a suffix indicating each of right and left. The same applies hereinafter).
[0129]
The operation of the entire humanoid robot device 200 is totally controlled by the control unit 380. The control unit 380 includes a main control unit 381 composed of main circuit components (not shown) such as a CPU (Central Processing Unit) and a memory, and data and commands of a power supply circuit and each component of the humanoid robot device 200. It includes a peripheral circuit 382 including an interface (not shown) for transmitting and receiving. The installation place of the control unit 380 is not particularly limited. In FIG. 16, it is mounted on the trunk unit 340, but it may be mounted on the head unit 330. Alternatively, the control unit 380 may be provided outside the humanoid robot device 200 to communicate with the body of the humanoid robot device 200 by wire or wirelessly.
[0130]
Each joint degree of freedom in the humanoid robot device 200 shown in FIG. 15 is realized by the corresponding actuator. That is, the head unit 330 includes a neck joint yaw axis actuator A2, a neck joint pitch axis actuator A3, and a neck joint roll axis actuator A4 representing the neck joint yaw axis 302, the neck joint pitch 303, and the neck joint roll axis 304, respectively. Are arranged.
[0131]
The head unit 330 is provided with a CCD (Charge Coupled Device) camera for imaging an external situation, a distance sensor for measuring a distance to an object located ahead, and an external sound. A microphone for collecting sound, a speaker for outputting sound, a touch sensor for detecting pressure received by a physical action such as “stroke” and “hit” from the user, and the like are provided. Further, the head unit 330 is provided with an RFID read unit (not shown) and an RFID write unit for reading information from the RFID tag (wireless tag) as described above. The RFID read unit and the RFID write unit may be provided in a part other than the head unit 330, such as a fingertip or a toe.
[0132]
Also, the trunk unit 340 includes a trunk pitch axis actuator A5, a trunk roll axis actuator A6, and a trunk yaw axis actuator that represent each of the trunk pitch axis 305, the trunk roll axis 306, and the trunk yaw axis 307. A7 is provided. The torso unit 340 includes a battery serving as a power source for starting the humanoid robot device 200. This battery is constituted by a chargeable / dischargeable battery.
[0133]
The arm unit 350R / L is subdivided into an upper arm unit 351R / L, an elbow joint unit 352R / L, and a forearm unit 353R / L. The shoulder joint pitch axis 308, the shoulder roll axis 309, and the upper arm A shoulder joint pitch axis actuator A8, a shoulder joint roll axis actuator A9, an upper arm yaw axis actuator A10 expressing each of a yaw axis 310, an elbow joint pitch axis 311, a forearm yaw axis 312, a wrist joint pitch axis 313, and a wrist joint roll axis 314, An elbow joint pitch axis actuator A11, an elbow joint roll axis actuator A12, a wrist joint pitch axis actuator A13, and a wrist joint roll axis actuator A14 are provided.
[0134]
The leg unit 360R / L is subdivided into a thigh unit 361R / L, a knee unit 362R / L, and a shin unit 363R / L, and the hip joint yaw axis 316, the hip joint pitch axis 317, and the hip joint The hip joint yaw axis actuator A16, the hip joint pitch axis actuator A17, the hip joint roll axis actuator A18, and the knee joint pitch axis actuator A19 representing each of the roll axis 318, the knee pitch axis 319, the ankle pitch axis 320, and the ankle roll axis 321. , An ankle joint pitch axis actuator A20 and an ankle joint roll axis actuator A21. The actuators A2, A3,... Used for each joint are more preferably constituted by small AC servo actuators of the type directly connected to a gear and having a single-chip servo control system mounted in a motor unit. Can be.
[0135]
The sub-control units 335, 345, 355R / L, 365R / L of the actuator drive control unit are provided for each mechanism unit such as the head unit 330, the trunk unit 340, the arm unit 350, and each leg unit 360. ing. Further, grounding confirmation sensors 391 and 392 for detecting whether or not the soles of the legs 360R and L have landed are mounted, and a posture sensor 393 for measuring the posture is provided in the trunk unit 340. ing.
[0136]
The ground contact confirmation sensors 391 and 392 are configured by, for example, proximity sensors or micro switches installed on the soles. The posture sensor 393 is configured by, for example, a combination of an acceleration sensor and a gyro sensor.
[0137]
Based on the outputs of the ground contact confirmation sensors 391 and 392, it is possible to determine whether each of the left and right legs is currently in a standing or idle state during an operation such as walking or running. Further, the inclination and posture of the trunk can be detected from the output of the posture sensor 393.
[0138]
The main control unit 381 can dynamically correct the control target in response to the output of each of the sensors 391 to 393. More specifically, adaptive control is performed for each of the sub-control units 335, 345, 355R / L, and 365R / L, and the upper limb, the trunk, and the lower limb of the humanoid robot device 200 are driven in cooperation. To achieve a whole-body exercise pattern.
[0139]
As described above, in the humanoid robot device 200, each of the sub-control units 335, 345, and so on interprets the command received from the main control unit 381 and sends a command to each of the actuators A2, A3. And outputs a drive control signal to control the drive of each unit. Accordingly, the humanoid robot device 200 stably transitions to the target posture and can walk in a stable posture.
[0140]
In the control unit 380 of the humanoid robot device 200, in addition to the posture control described above, various sensors such as an acceleration sensor, a touch sensor, and a ground check sensor, image information from a CCD camera, and audio information from a microphone Etc. are managed. In the control unit 380, although not shown, various sensors such as an acceleration sensor, a gyro sensor, a touch sensor, a distance sensor, a microphone, and a speaker, actuators, a CCD camera, and a battery are connected to the main control unit 381 via corresponding hubs. Have been. Although not shown, the RFID read section is also connected to the main control section 381.
[0141]
The main control unit 381 sequentially fetches sensor data, image data, and audio data supplied from each of the above-described sensors, or RFID information from the above-described RFID read unit, and stores these in predetermined positions in the DRAM via the respective internal interfaces. Store sequentially. Further, the main control unit 381 sequentially takes in the battery remaining amount data indicating the battery remaining amount supplied from the battery, and stores the data at a predetermined position in the DRAM. The sensor data, image data, sound data, and remaining battery data stored in the DRAM are used when the main control unit 381 controls the operation of the humanoid robot device 200.
[0142]
The main control unit 381 reads the control program at the initial stage when the power of the humanoid robot device 200 is turned on, and stores the control program in the DRAM. In addition, the main control unit 381 receives information from the user and the surroundings based on the sensor data, image data, audio data, and remaining battery power data sequentially stored in the DRAM from the main control unit 381 as described above. Judge whether or not there is any instruction and action. Further, the main control unit 381 determines an action according to its own situation based on the determination result and the control program stored in the DRAM, and drives a necessary actuator based on the determination result to thereby perform the humanoid robot. The device 200 is caused to take actions such as so-called “gesture” and “hand gesture”.
[0143]
Therefore, the humanoid robot device 200 can determine its own and surrounding conditions based on the control program, and can act autonomously according to instructions and actions from the user.
[0144]
Similarly, even such a humanoid robot device 200 can acquire information from an RFID tag provided within an operation range and operate based on this information. In addition, by writing information corresponding to the "trace" to the RFID tag, it is possible to indicate its own existence to other robot devices sharing the operation range, and it is possible to have "territory".
[0145]
The data that the robot device writes to the RFID tag is not limited to the ID of the robot device, the date and time, the moving distance from the previously encountered RFID tag, the direction from the previously encountered RFID tag, and the direction to move in the future. Various information such as external input information acquired by the sensor unit may be used.
[0146]
【The invention's effect】
As described in detail above, the robot apparatus according to the present invention includes an information acquisition unit that acquires information from outside, and a wireless tag that reads data recorded on the wireless tag from a wireless tag provided on an external object. Reading means, wireless tag writing means for writing data to the wireless tag, and information obtained from the outside, data read from the wireless tag, and additional information when the wireless tag writing means writes data to the wireless tag. A storage unit for storing a history; and a control unit for controlling an action based on information acquired by the information acquisition unit, data read by the wireless tag reading unit, and data stored in the storage unit. And can operate based on this information. Also, traces and tracks of movement can be left on the wireless tag. Further, when a trace or trajectory of the robot device detected in the past is encountered again, the next operation can be determined based on the trace or trajectory.
[0147]
Further, by storing a table in which the data read by the wireless tag reading unit and the information corresponding to the data are stored in the storage unit, the amount of information written to the wireless tag can be reduced.
[0148]
Further, according to the control method of the robot apparatus according to the present invention, an information acquiring step of acquiring information from outside, and a wireless tag reading for reading data recorded on the wireless tag from a wireless tag provided on an external object A wireless tag writing step of writing data to the wireless tag, and a history of information obtained from outside, data read from the wireless tag, and additional information when the wireless tag writing means writes data to the wireless tag And a control step of controlling an action based on the information obtained in the information obtaining step, the data read in the wireless tag reading step, and the data stored in the storage means. Thus, information can be obtained from the wireless tag, and operation can be performed based on this information. Also, traces and tracks of movement can be left on the wireless tag. Further, when a trace or trajectory of the robot device detected in the past is encountered again, the next operation can be determined based on the trace or trajectory.
[0149]
Further, in the robot device movement control system according to the present invention, in the robot device movement system in which the robot device moves in a predetermined area, a plurality of wireless tags are installed in the predetermined area, and the robot device moves in the predetermined area. If the user encounters a wireless tag, the user can operate based on information from the wireless tag by writing data to or reading data from the encountered wireless tag. Also, traces and tracks of movement can be left on the wireless tag. Further, when a trace or trajectory of the robot device detected in the past is encountered again, the next operation can be determined based on the trace or trajectory.
[Brief description of the drawings]
FIG. 1 is a perspective view illustrating an external configuration of a robot device shown as a specific example of the present invention.
FIG. 2 is a block diagram illustrating an internal configuration of the robot device.
FIG. 3 is a diagram illustrating a functional configuration of a controller in the robot device.
FIG. 4 is a diagram illustrating an emotion model and an instinct model managed by an emotion / instinct model unit of the robot apparatus.
FIG. 5 is a state transition diagram illustrating an action model of the robot device.
FIG. 6 is a diagram showing a directed graph associated with arcs and nodes stored in a posture transition mechanism of the robot apparatus.
FIG. 7 is a configuration diagram illustrating an ID recognition unit of the robot device.
FIG. 8 is a diagram illustrating a format of an RFID signal of an RFID tag used in this specific example.
FIG. 9 is a diagram illustrating a case where the robot device reads information from an RFID tag.
FIG. 10 is a diagram illustrating a case where the robot device writes information to an RFID tag.
FIG. 11 is a diagram illustrating an example of an ID table created in an ID table storage unit.
FIG. 12 is a diagram illustrating an example of data directly written to an RFID tag based on an RFID signal format.
FIG. 13 is a perspective view of a humanoid robot device to which the present invention is applied, as viewed from the front.
FIG. 14 is a perspective view of a humanoid robot device to which the present invention is applied, as viewed from behind.
FIG. 15 is a schematic diagram illustrating a configuration of a degree of freedom of a joint of the humanoid robot device.
FIG. 16 is a schematic diagram illustrating a control system configuration of the humanoid robot device.
[Explanation of symbols]
1 robot apparatus, 10 controller, 11 battery, 12 battery sensor, 13 heat sensor, 14 internal sensor section, 15 microphone (microphone), 16 CCD camera, 17 touch sensor, 18 speaker, 19 RFID read section, 20 RFID write section, Reference Signs List 50 sensor input processing unit, 51 emotion / instinct model unit, 52 action determination mechanism unit, 53 posture transition mechanism unit, 54 control mechanism unit, 55 voice synthesis unit, 56 acoustic processing unit, 57 RFID processing unit, 70 RFID format, 71 Header part, 72 identifier part, 73 data part, 74 ROM area, 75 writing area

Claims (23)

内部状態に応じて自律的に行動を出現させるとともに外部からの入力情報に応じて上記行動が制御されるロボット装置において、
外部から情報を取得する情報取得手段と、
外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取手段と、
上記無線タグへデータを書き込む無線タグ書込手段と、
上記外部から取得された情報、上記無線タグから読み取られたデータおよび上記無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶する記憶手段と、
上記情報取得手段により取得した情報と上記無線タグ読取手段にて読み取ったデータと上記記憶手段に格納されたデータとに基づいて上記行動を制御する制御手段と
を備えることを特徴とするロボット装置。
In a robot device in which an action is made to appear autonomously according to an internal state and the above-mentioned action is controlled according to input information from the outside,
Information acquisition means for acquiring information from outside;
Wireless tag reading means for reading data recorded on the wireless tag from a wireless tag provided on an external object,
Wireless tag writing means for writing data to the wireless tag,
Storage means for storing the information obtained from the outside, data read from the wireless tag, and a history of additional information when the wireless tag writing means has written data to the wireless tag;
A robot apparatus comprising: a control unit that controls the behavior based on information acquired by the information acquisition unit, data read by the wireless tag reading unit, and data stored in the storage unit.
上記付加情報には、位置情報、走行距離、書込日時情報、上記無線タグへ書き込んだデータ、書き込み時に上記情報取得手段にて取得した情報が含まれることを特徴とする請求項1記載のロボット装置。2. The robot according to claim 1, wherein the additional information includes position information, mileage, writing date and time information, data written to the wireless tag, and information obtained by the information obtaining unit at the time of writing. apparatus. 上記行動を表現する表出手段と、
上記表出手段を駆動する駆動手段とを有し、
上記制御手段は、上記情報取得手段により取得した情報と、上記無線タグ読取手段によって読み取ったデータと、上記記憶手段に格納されたデータとに基づいて、上記駆動手段を制御することを特徴とする請求項1記載のロボット装置。
An expression means for expressing the above behavior,
Driving means for driving the above-mentioned expression means,
The control unit controls the driving unit based on information acquired by the information acquisition unit, data read by the wireless tag reading unit, and data stored in the storage unit. The robot device according to claim 1.
上記表出手段は、当該ロボット装置を移動させる移動手段であって、
上記制御手段は、上記情報取得手段により取得した情報と、上記無線タグ読取手段によって読み取ったデータと、上記記憶手段に格納されたデータとに基づいて上記移動手段の駆動を制御することを特徴とする請求項3記載のロボット装置。
The expression means is a moving means for moving the robot device,
The control unit controls the driving of the moving unit based on information acquired by the information acquiring unit, data read by the wireless tag reading unit, and data stored in the storage unit. The robot apparatus according to claim 3, wherein
上記情報取得手段は、接触を検出する接触検出手段であって、
上記制御手段は、上記接触検出手段にて接触が検出されたとき、一定期間上記無線タグ読取手段における読み取り動作を実行する、または上記無線タグ書込手段における書込動作を実行することを特徴とする請求項1記載のロボット装置。
The information acquisition unit is a contact detection unit that detects a contact,
The control means, when a contact is detected by the contact detection means, executes a reading operation in the wireless tag reading means for a predetermined period, or executes a writing operation in the wireless tag writing means. The robot device according to claim 1, wherein
上記情報取得手段は、非接触により外部の状態を検出する非接触検出手段であって、
上記制御手段は、上記非接触検出手段により外部の状態を検出したとき、一定期間、上記無線タグ読取手段における読み取り動作または上記無線タグ書込手段における書込動作を実行することを特徴とする請求項1記載のロボット装置。
The information acquisition means is a non-contact detection means for detecting an external state by non-contact,
The control means executes a reading operation in the wireless tag reading means or a writing operation in the wireless tag writing means for a certain period when the non-contact detecting means detects an external state. Item 4. The robot device according to Item 1.
上記無線タグに記録されたデータは、情報の内容に対応する認証番号であって、上記記憶手段には上記情報の内容と該認証番号とを関連付けたテーブルとして記憶されていることを特徴とする請求項1記載のロボット装置。The data recorded on the wireless tag is an authentication number corresponding to the content of the information, and is stored in the storage unit as a table in which the content of the information is associated with the authentication number. The robot device according to claim 1. 上記無線タグ読取手段により読み取られたデータに基づいて出現する行動は、少なくとも本能的要素または情動的要素からなるもので構成されていることを特徴とする請求項1記載のロボット装置。2. The robot apparatus according to claim 1, wherein the action appearing based on the data read by the wireless tag reading means is constituted by at least an instinct element or an emotion element. 上記本能的要素が、疲れ(fatigue)、熱又は体内温度(temperature)、痛み(pain)、食欲又は飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、排泄(elimination)、性欲(sexual)のうちの少なくとも1つであり、上記情動的要素が、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)、嫉妬(jealousy)のうちの少なくとも1つであることを特徴とする請求項8記載のロボット装置。The instinct factors may include fatigue, heat or temperature, pain, appetite or hunger, third, affection, curiosity, elimination. ), At least one of sexual desire, and the emotional element is happiness, sadness, anger, surprise, disgust, fear. , Frustration, boredom, sleepiness, sociability (gregariousness), patience, tension, relaxed, vigilance (a) ertness), sin (guilt), malicious (Spite), honesty (loyalty), compliancy (submission), jealous (robot apparatus according to claim 8, wherein at least is one of the jealousy). 上記無線タグは、当該ロボット装置の行動範囲に複数設けられ、上記情報には、位置情報および時刻情報が含まれることを特徴とする請求項1記載のロボット装置。2. The robot device according to claim 1, wherein a plurality of the wireless tags are provided in an action range of the robot device, and the information includes position information and time information. 動物を模した外観形状を有し、上記無線タグ読取手段および上記無線タグ書込手段は、動物の顔部分に備えられていることを特徴とする請求項1記載のロボット装置。2. The robot device according to claim 1, wherein the robot device has an appearance shape imitating an animal, and the wireless tag reading means and the wireless tag writing means are provided on a face portion of the animal. 内部状態に応じて自律的に行動を出現させるとともに外部からの入力情報に応じて上記行動が制御されるロボット装置の制御方法であって、
上記ロボット装置において
外部から情報を取得する情報取得工程と、
外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取工程と、
上記無線タグへデータを書き込む無線タグ書込工程と、
上記外部から取得された情報、上記無線タグから読み取られたデータおよび上記無線タグ書込工程にて無線タグへデータを書き込んだときの付加情報の履歴を記憶手段に記憶する記憶工程と、
上記情報取得工程にて取得した情報と上記無線タグ読取工程にて読み取ったデータと上記記憶手段に格納されたデータとに基づいて上記行動を制御する制御工程と
を有することを特徴とするロボット装置の制御方法。
A control method for a robot apparatus in which an action is made to appear autonomously according to an internal state and the action is controlled according to input information from the outside,
An information acquisition step of acquiring information from outside in the robot device;
A wireless tag reading step of reading data recorded on the wireless tag from a wireless tag provided on an external object,
A wireless tag writing step of writing data to the wireless tag,
A storage step of storing in the storage means the information obtained from the outside, data read from the wireless tag, and a history of additional information when data is written to the wireless tag in the wireless tag writing step;
A robot apparatus comprising: a control step of controlling the behavior based on the information obtained in the information obtaining step, the data read in the wireless tag reading step, and the data stored in the storage means. Control method.
上記付加情報には、位置情報、走行距離、書込日時情報、上記無線タグへ書き込んだデータ、書き込み時に上記情報取得工程にて取得した情報が含まれることを特徴とする請求項12記載のロボット装置の制御方法。13. The robot according to claim 12, wherein the additional information includes position information, mileage, writing date and time information, data written to the wireless tag, and information obtained in the information obtaining step at the time of writing. How to control the device. 上記行動を表現する表出手段を駆動する駆動工程を有し、
上記制御工程では、上記情報取得工程にて取得した情報と、上記無線タグ読取工程にて読み取ったデータと、上記記憶手段に格納されたデータとに基づいて、上記駆動工程における表出手段の駆動を制御することを特徴とする請求項12記載のロボット装置の制御方法。
Having a driving step of driving the expression means expressing the action,
In the control step, based on the information acquired in the information acquiring step, the data read in the wireless tag reading step, and the data stored in the storage means, the driving of the expression means in the driving step is performed. 13. The method according to claim 12, wherein the control is performed.
上記情報取得工程は、接触を検出する接触検出工程であって、
上記読取制御工程では、上記接触検出工程にて接触を検出したとき、一定期間、上記無線タグ読取工程を実行し、
上記書込制御工程では、上記接触検出工程にて接触を検出したとき、一定期間、上記無線タグ書込工程工程を実行することを特徴とする請求項12記載のロボット装置の制御方法。
The information acquisition step is a contact detection step of detecting a contact,
In the reading control step, when a contact is detected in the contact detecting step, the wireless tag reading step is executed for a certain period,
13. The method according to claim 12, wherein in the writing control step, when a contact is detected in the contact detecting step, the wireless tag writing step is executed for a predetermined period.
上記情報取得工程は、非接触により外部の状態を検出する非接触検出工程であって、
上記読取制御工程では、上記非接触検出工程にて外部の状態を検出したとき、一定期間、上記無線タグ読取工程を実行し、
上記書込制御工程では、上記非接触検出工程にて外部の状態を検出したとき、一定期間、上記無線タグ書込工程を実行することを特徴とする請求項12記載のロボット装置の制御方法。
The information acquisition step is a non-contact detection step of detecting an external state by non-contact,
In the reading control step, when the external state is detected in the non-contact detecting step, the wireless tag reading step is executed for a certain period,
13. The control method according to claim 12, wherein in the writing control step, when an external state is detected in the non-contact detection step, the wireless tag writing step is performed for a certain period.
上記無線タグに記録されたデータは、情報の内容に対応する認証番号であって、上記記憶手段には上記情報の内容と該認証番号とを関連付けたテーブルとして記憶されていることを特徴とする請求項12記載のロボット装置の制御方法。The data recorded in the wireless tag is an authentication number corresponding to the content of the information, and is stored in the storage unit as a table in which the content of the information is associated with the authentication number. A method for controlling a robot device according to claim 12. 所定エリア内を移動するロボット装置を制御するロボット装置移動制御システムにおいて、
上記所定エリア内には複数の無線タグが設置され、
上記ロボット装置は、上記所定エリアを移動して無線タグと遭遇した場合、遭遇した無線タグへデータを書き込むまたは無線タグからデータを読み取ることを特徴とするロボット装置移動制御システム。
In a robot device movement control system for controlling a robot device moving in a predetermined area,
A plurality of wireless tags are installed in the predetermined area,
The robot device movement control system, wherein when the robot device moves in the predetermined area and encounters a wireless tag, the robot device writes data to or reads data from the encountered wireless tag.
上記ロボット装置は、
外部から情報を取得する情報取得手段と、
外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取手段と、
上記無線タグへデータを書き込む無線タグ書込手段と、
上記外部から取得された情報、上記無線タグから読み取られたデータおよび上記無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶する記憶手段と、
上記情報取得手段により取得した情報と上記無線タグ読取手段にて読み取ったデータと上記記憶手段に格納されたデータとに基づいて上記行動を制御する制御手段とを備え、
上記ロボット装置は、上記所定エリアを移動して上記無線タグと遭遇した場合、遭遇した無線タグに対して、上記無線タグ書込手段にてデータを書き込むことを特徴とする請求項18記載のロボット装置移動制御システム。
The robot device is
Information acquisition means for acquiring information from outside;
Wireless tag reading means for reading data recorded on the wireless tag from a wireless tag provided on an external object,
Wireless tag writing means for writing data to the wireless tag,
Storage means for storing the information obtained from the outside, data read from the wireless tag, and a history of additional information when the wireless tag writing means has written data to the wireless tag;
Control means for controlling the behavior based on the information obtained by the information obtaining means, the data read by the wireless tag reading means, and the data stored in the storage means,
19. The robot according to claim 18, wherein when the robot device moves in the predetermined area and encounters the wireless tag, the robot device writes data to the encountered wireless tag by the wireless tag writing unit. Equipment movement control system.
上記無線タグ書込手段により書き込まれるデータは、当該ロボット装置に関する情報であって、当該ロボット装置の識別情報、無線タグへの遭遇日時、過去に遭遇した他の無線タグからの移動距離や方向、今後移動する方向、走行距離、上記情報取得手段にて取得した情報のうち少なくとも1つを含むことを特徴とする請求項18記載のロボット装置移動制御システム。The data written by the wireless tag writing means is information on the robot device, and includes identification information of the robot device, date and time of encounter with the wireless tag, moving distance and direction from other wireless tags encountered in the past, 19. The robot apparatus movement control system according to claim 18, wherein the system includes at least one of a direction in which the vehicle moves in the future, a travel distance, and information acquired by the information acquisition means. 上記ロボット装置が上記所定エリアを移動して上記無線タグと遭遇した場合、
上記無線タグ読取手段は、遭遇した無線タグに記録されたデータを読み出し、上記制御手段は、読み出したデータと上記情報取得手段により取得した情報と上記記録手段に格納されたデータとに基づいて、自己の位置情報の算出、次の移動目標の決定、若しくは次の移動目標までの距離および方向の算出を実行することを特徴とする請求項19記載のロボット装置移動制御システム。
When the robot device moves in the predetermined area and encounters the wireless tag,
The wireless tag reading means reads the data recorded in the encountered wireless tag, the control means, based on the read data and the information acquired by the information acquisition means and the data stored in the recording means, 20. The robot apparatus movement control system according to claim 19, wherein calculation of own position information, determination of a next movement target, or calculation of a distance and a direction to the next movement target are performed.
上記付加情報には、位置情報、走行距離、書込日時情報、上記無線タグへ書き込んだデータ、書き込み時に上記情報取得手段にて取得した情報が含まれることを特徴とする請求項19記載のロボット装置移動制御システム。20. The robot according to claim 19, wherein the additional information includes position information, mileage, writing date and time information, data written to the wireless tag, and information obtained by the information obtaining means at the time of writing. Equipment movement control system. 上記行動を表現する表出手段と、
上記表出手段を駆動する駆動手段とを有し、
上記制御手段は、上記情報取得手段により取得した情報と、上記無線タグ読取手段によって読み取ったデータと、上記記憶手段に格納されたデータとに基づいて、上記駆動手段を制御することを特徴とする請求項19記載のロボット装置移動制御システム。
An expression means for expressing the above behavior,
Driving means for driving the above-mentioned expression means,
The control unit controls the driving unit based on information acquired by the information acquisition unit, data read by the wireless tag reading unit, and data stored in the storage unit. The movement control system of a robot device according to claim 19.
JP2003049930A 2003-02-26 2003-02-26 Robot device, control method thereof, and movement control system for robot device Withdrawn JP2004255529A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003049930A JP2004255529A (en) 2003-02-26 2003-02-26 Robot device, control method thereof, and movement control system for robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003049930A JP2004255529A (en) 2003-02-26 2003-02-26 Robot device, control method thereof, and movement control system for robot device

Publications (1)

Publication Number Publication Date
JP2004255529A true JP2004255529A (en) 2004-09-16

Family

ID=33115509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003049930A Withdrawn JP2004255529A (en) 2003-02-26 2003-02-26 Robot device, control method thereof, and movement control system for robot device

Country Status (1)

Country Link
JP (1) JP2004255529A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009034806A (en) * 2007-07-31 2009-02-19 Ind Technol Res Inst Structure for applying radio recognizing technique to electronic robot operation sequential control
JP2009523245A (en) * 2006-01-11 2009-06-18 ジュン,ヒュン−チュル Construction method of location management system using RFID series
JP2010528886A (en) * 2007-06-08 2010-08-26 本田技研工業株式会社 Motion planning method, motion planning system, and recording medium
CN107303672A (en) * 2016-04-19 2017-10-31 上海技美科技股份有限公司 The method that common collaboration robot, robot system and common collaboration robot perform operation task
WO2020022196A1 (en) * 2018-07-25 2020-01-30 愛知製鋼株式会社 System for vehicle

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009523245A (en) * 2006-01-11 2009-06-18 ジュン,ヒュン−チュル Construction method of location management system using RFID series
JP2010528886A (en) * 2007-06-08 2010-08-26 本田技研工業株式会社 Motion planning method, motion planning system, and recording medium
JP2009034806A (en) * 2007-07-31 2009-02-19 Ind Technol Res Inst Structure for applying radio recognizing technique to electronic robot operation sequential control
CN107303672A (en) * 2016-04-19 2017-10-31 上海技美科技股份有限公司 The method that common collaboration robot, robot system and common collaboration robot perform operation task
WO2020022196A1 (en) * 2018-07-25 2020-01-30 愛知製鋼株式会社 System for vehicle
CN112513764A (en) * 2018-07-25 2021-03-16 爱知制钢株式会社 System for vehicle
US11687088B2 (en) 2018-07-25 2023-06-27 Aichi Steel Corporation Vehicular system

Similar Documents

Publication Publication Date Title
US11845187B2 (en) Transferable intelligent control device
US6493606B2 (en) Articulated robot and method of controlling the motion of the same
JP4207336B2 (en) Charging system for mobile robot, method for searching for charging station, mobile robot, connector, and electrical connection structure
US7219064B2 (en) Legged robot, legged robot behavior control method, and storage medium
US6505098B1 (en) Robot system, robot device, and its cover
US6952629B2 (en) Robot apparatus, control method for robot apparatus, and toy for robot apparatus
US20060064202A1 (en) Environment identification device, environment identification method, and robot device
JP2001121455A (en) Charge system of and charge control method for mobile robot, charge station, mobile robot and its control method
JP2004148439A (en) Spherical robot and spherical robot control method
WO2000067961A1 (en) Robot device and method for controlling the same
JP2004298977A (en) Action control device, action control method, action control program and mobile robot device
JP2004160630A (en) Robot device and controlling method of the same
JP2004110802A (en) Device, method for identifying environment, program, recording medium and robot device
JP2001191275A (en) Robot system, exterior, and robot device
JP2004255529A (en) Robot device, control method thereof, and movement control system for robot device
JP2001236585A (en) Mobile robot and steal prevention method for the same
JP7238796B2 (en) ANIMAL-TYPE AUTONOMOUS MOBILE BODY, OPERATION METHOD OF ANIMAL-TYPE AUTONOMOUS MOBILE BODY, AND PROGRAM
JP2002059384A (en) Learning system and learning method for robot
JP2004255528A (en) Robot device and control method thereof
US11833441B2 (en) Robot
JP2004066381A (en) Robot device
JP2004283956A (en) Charging system, robot device, charging device, and charging method
JP2002370185A (en) Robot device, toy device, behavior control system and behavior control method of robot device, control program and recording medium
US20240019868A1 (en) Autonomous mobile body, information processing apparatus, information processing method, and program
JP2002205290A (en) Device and method for controlling leg type mobile robot

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509