JP2004255529A - Robot device, control method thereof, and movement control system for robot device - Google Patents
Robot device, control method thereof, and movement control system for robot device Download PDFInfo
- Publication number
- JP2004255529A JP2004255529A JP2003049930A JP2003049930A JP2004255529A JP 2004255529 A JP2004255529 A JP 2004255529A JP 2003049930 A JP2003049930 A JP 2003049930A JP 2003049930 A JP2003049930 A JP 2003049930A JP 2004255529 A JP2004255529 A JP 2004255529A
- Authority
- JP
- Japan
- Prior art keywords
- information
- wireless tag
- unit
- robot device
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims description 43
- 230000009471 action Effects 0.000 claims abstract description 99
- 230000008451 emotion Effects 0.000 claims description 47
- 238000003860 storage Methods 0.000 claims description 44
- 238000001514 detection method Methods 0.000 claims description 28
- 241001465754 Metazoa Species 0.000 claims description 15
- 230000002996 emotional effect Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000036528 appetite Effects 0.000 claims description 2
- 235000019789 appetite Nutrition 0.000 claims description 2
- 206010048909 Boredom Diseases 0.000 claims 1
- 208000036993 Frustration Diseases 0.000 claims 1
- 208000032140 Sleepiness Diseases 0.000 claims 1
- 206010041349 Somnolence Diseases 0.000 claims 1
- 230000008030 elimination Effects 0.000 claims 1
- 238000003379 elimination reaction Methods 0.000 claims 1
- 235000003642 hunger Nutrition 0.000 claims 1
- 230000035946 sexual desire Effects 0.000 claims 1
- 230000037321 sleepiness Effects 0.000 claims 1
- 230000007246 mechanism Effects 0.000 abstract description 64
- 238000012545 processing Methods 0.000 abstract description 54
- 230000036544 posture Effects 0.000 description 59
- 230000007704 transition Effects 0.000 description 40
- 230000006399 behavior Effects 0.000 description 19
- 210000003128 head Anatomy 0.000 description 17
- 101100328086 Caenorhabditis elegans cla-1 gene Proteins 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 210000004394 hip joint Anatomy 0.000 description 12
- 210000002414 leg Anatomy 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 230000001276 controlling effect Effects 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 210000002310 elbow joint Anatomy 0.000 description 6
- 210000000323 shoulder joint Anatomy 0.000 description 6
- 210000003857 wrist joint Anatomy 0.000 description 6
- 241000282472 Canis lupus familiaris Species 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 210000000544 articulatio talocruralis Anatomy 0.000 description 4
- 210000002683 foot Anatomy 0.000 description 4
- 210000000245 forearm Anatomy 0.000 description 4
- 210000003141 lower extremity Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000704 physical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 210000001364 upper extremity Anatomy 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003414 extremity Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000001503 joint Anatomy 0.000 description 3
- 210000000629 knee joint Anatomy 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000009194 climbing Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 101150106709 ARC1 gene Proteins 0.000 description 1
- 101100013575 Arabidopsis thaliana FTSHI1 gene Proteins 0.000 description 1
- 241000282421 Canidae Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241000237858 Gastropoda Species 0.000 description 1
- 208000025174 PANDAS Diseases 0.000 description 1
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 241000282458 Ursus sp. Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 210000000416 exudates and transudate Anatomy 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 235000019645 odor Nutrition 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 230000031068 symbiosis, encompassing mutualism through parasitism Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000010356 wave oscillation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0259—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
- G05D1/0261—Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means using magnetic plots
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、ロボット装置およびその制御方法に関するものであり、例えば、自律的に行動を出現させるとともに、外部からの入力情報に応じて上記行動が制御されるロボット装置およびそのロボット装置の制御方法、並びにロボット装置移動制御システムに関するものである。
【0002】
【従来の技術】
人間や動物等の動作に類似した運動を、例えば電気的または磁気的作用を用いて行う機械装置のことを一般に「ロボット装置」という。わが国においてロボット装置が普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボット装置などの産業用ロボット装置(Industrial Robot)であった。
【0003】
アーム式ロボット装置のように、ある特定の場所に設置して用いる据置きタイプのロボット装置は、部品の組立・選別作業といった固定的・局所的な作業空間でのみ活動する。これに対し、移動式ロボット装置は、非限定的な作業空間の所定経路上または無経路上を自在に移動して、所定または任意の人的作業を代行したり、ヒトやイヌ或いはその他の生命体に置き換わるような種々の幅広いサービスを提供することができる。
【0004】
移動手段としては、クローラ式やタイヤ式等があるが、なかでも脚式の移動ロボット装置は、不安定で姿勢制御や歩行制御が難しくなるが、階段や梯子の昇降、障害物の乗り越え、整地・不整地の区別を間わない柔軟な歩行・走行動作を実現できるという点で優れている。
【0005】
最近では、イヌやネコのように4足歩行の動物の身体メカニズムやその動作を模した、いわゆるペット型ロボット装置、或いはヒトのような2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」のロボット装置(Humanoid Robot)など、脚式移動ロボット装置に関する研究開発が進展し、実用化への期待もますます高まってきている。
【0006】
イヌやネコ等の愛玩動物を模したエンターテインメント向けのペット型ロボット装置の場合、生活密着型、すなわち人間との「共生」という性質が強い。ペット型ロボット装置は、実際の動物を扱うよりも手軽であるだけでなく、従来の玩具に比べて高機能・高付加価値を有する。
【0007】
人間型ロボット装置は、人間の住環境下で人間と共存し、産業活動や生産活動等における各種の単純作業や危険作業、難作業の代行をすることができる。例えば、原子力発電プラントや火力発電プラント、石油化学プラントにおけるメンテナンス作業、製造工場における部品の搬送・組立作業、高層ビルにおける清掃作業、火災現場その他における救助活動といったように、様々な場面において活躍の場が見出されている。人間型ロボット装置は、2足歩行により障害物を好適に乗り越えたり迂回しながら、所望の現場まで自律的に移動して、指示された作業を忠実に遂行する。
【0008】
従来の玩具機械は、ユーザ操作と応答動作との関係が固定的であって、ユーザは物足りなさを覚えるが、上述したペット型ロボット装置や人間型ロボット装置は、動作生成の時系列モデルにしたがって動作し、その上ユーザ操作等の外部からの刺激を検出したことに応答してこの時系列モデルを変更することができる。すなわち「学習効果」を有するため、ユーザが飽きない、ユーザの嗜好に合わせた動作パターンを提供できる。
【0009】
このようなロボット装置は、所定の自由度をもつアクチュエータと所定の物理量を検出するセンサ等を所定の位置に配置された機構部とを有し、マイクロコンピュータを用いた制御部によって、外部からの情報に対して所定の動作を行うように構成されている(例えば、特許文献1参照。)。そのため、ユーザによる「褒める」、「遊んであげる(可愛がる)」、「撫でる」、「叱る」、「叩く」等のユーザ入力に対して動的に反応して、「喜ぶ」、「甘える」、「すねる」、「叱る」、「吠える」、「尻尾を振る」等の感情的動作を実行するようにプログラムすることによって育成シミュレーションを享受することができる。また、このようなロボット装置は、一般家庭内を動作空間として、2足または4足歩行により障害物を好適に乗り越えたり迂回しながら、動作空間内を自由に自律的に行動できる。
【0010】
このように、ロボット装置が実際の動物の示す行動により近づくことができれば、ロボット装置の生物感が一層増し、ユーザは、ロボット装置に一層の親近感や満足感を感じる。またこれにより、ロボット装置のエンターテインメント性、アミューズメント性が向上する。
【0011】
イヌ、クマ、パンダ、狼などの動物は、季節変動はあるものの、その生活圏は無秩序でなく、生活空間の範囲や領域が生物的習性によりほぼ決まっている。その範囲は、“ナワバリ”と呼ばれることもある。動物が自分の生活空間の範囲や領域を所有するために、他の動物にその領域を示す方法として様々な方法があるが、一般的に自分の生活空間の範囲や領域を移動したときに、痕跡として爪跡、足跡や、排出物およびその匂いを残す方法が知られている。イヌ、クマなどの動物は、自分の生活空間の範囲を所有することによって、他の動物から餌、家族の安全等を確保することができる。また動物が移動して、再度過去に残した自分の爪跡、足跡の痕跡を発見することは、自分の移動の軌跡を確認することができ、自分の位置情報を把握するために大変有効である。
【0012】
【特許文献1】
特開2001−154679
【0013】
【発明が解決しようとする課題】
ところで、上述した各種のロボット装置が自律的に移動したときに移動の痕跡や軌跡を残せるようにする方法としては、(1)物理的な働きかけ(圧力)によって再度認識できるような凹凸(形状)を残す方法、(2)「匂い」や「色」のような検出可能な要素をもつ物質を残す方法等がある。
【0014】
しかしながら、動作空間(作業空間が)硬い部材で構成される場合、物理的な働きかけで凹凸を残すことは困難であるし、「匂い」や「色」のような検出可能な要素をもつ物質を残す方法は、被検対象のもつ情報量が少なく、ユーザの多種多様な嗜好に対応できないという問題点がある。
【0015】
そこで本発明は、このような実情に鑑みて提案されたものであり、移動の痕跡や軌跡を残すことができ、更に再び過去の痕跡や軌跡に遭遇した場合、この痕跡や軌跡を参考にして自分の位置情報を算出し、次の移動や行動を決めることができるロボット装置、痕跡や軌跡を残し過去の痕跡や軌跡を参考にして次の行動を決定するロボット装置の制御方法、並びに痕跡や軌跡を残し過去の痕跡や軌跡を参考にして次の行動を決定するようにロボット装置を制御するロボット装置移動制御システムを提供することを目的とする。
【0016】
【課題を解決するための手段】
上述した目的を達成するために、本発明に係るロボット装置は、内部状態に応じて自律的に行動を出現させるとともに外部からの入力情報に応じて行動が制御されるロボット装置において、外部から情報を取得する情報取得手段と、外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取手段と、無線タグへデータを書き込む無線タグ書込手段と、外部から取得された情報、無線タグから読み取られたデータおよび無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶する記憶手段と、情報取得手段により取得した情報と無線タグ読取手段にて読み取ったデータと記憶手段に格納されたデータとに基づいて行動を制御する制御手段とを備えることを特徴としている。
【0017】
ここで付加情報は、位置情報、走行距離、書込日時情報、無線タグへ書き込んだデータ、書き込み時に情報取得手段にて取得した情報を含む。
【0018】
また、このロボット装置は、行動を表現する表出手段と、表出手段を駆動する駆動手段とをさらに有し、制御手段は、情報取得手段により取得した情報と、無線タグ読取手段によって読み取ったデータと、記憶手段に格納されたデータとに基づいて、駆動手段を制御することが好ましい。
【0019】
ここで、情報取得手段を接触を検出する接触検出手段として、制御手段が接触検出手段にて接触が検出されたとき、一定期間上記無線タグ読取手段における読み取り動作を実行する、または無線タグ書込手段における書込動作を実行するようにもできる。また、情報取得手段を非接触により外部の状態を検出する非接触検出手段として、制御手段が非接触検出手段により外部の状態を検出したとき、一定期間、無線タグ読取手段における読み取り動作または無線タグ書込手段における書込動作を実行することもできる。
【0020】
また、無線タグに記録されたデータは、情報の内容に対応する認証番号であって、記憶手段には情報の内容と該認証番号とを関連付けたテーブルとして記憶する。
【0021】
上述した目的を達成するために、本発明に係るロボット装置の制御方法は、内部状態に応じて自律的に行動を出現させるとともに外部からの入力情報に応じて行動が制御されるロボット装置の制御方法であって、ロボット装置において外部から情報を取得する情報取得工程と、外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取工程と、無線タグへデータを書き込む無線タグ書込工程と、外部から取得された情報、無線タグから読み取られたデータおよび無線タグ書込工程にて無線タグへデータを書き込んだときの付加情報の履歴を記憶手段に記憶する記憶工程と、情報取得工程にて取得した情報と無線タグ読取工程にて読み取ったデータと記憶手段に格納されたデータとに基づいて行動を制御する制御工程とを有することを特徴とする。
【0022】
ここで付加情報は、位置情報、走行距離、書込日時情報、無線タグへ書き込んだデータ、書き込み時に情報取得工程にて取得した情報を含む。
【0023】
また、このロボット装置の制御方法では、行動を表現する表出手段を駆動する駆動工程をさらに設け、制御工程にて、情報取得工程にて取得した情報と、無線タグ読取工程にて読み取ったデータと、記憶手段に格納されたデータとに基づいて、駆動工程における表出手段の駆動を制御することが好ましい。
【0024】
また、上述した目的を達成するために、本発明に係るロボット装置移動制御システムは、所定エリア内をロボット装置が移動するロボット装置移動システムにおいて、所定エリア内には複数の無線タグが設置され、ロボット装置は、所定エリアを移動して無線タグと遭遇した場合、遭遇した無線タグへデータを書き込むまたは無線タグからデータを読み取ることを特徴としている。
【0025】
ここで、ロボット装置は、外部から情報を取得する情報取得手段と、外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取手段と、無線タグへデータを書き込む無線タグ書込手段と、外部から取得された情報、無線タグから読み取られたデータおよび無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶する記憶手段と、情報取得手段により取得した情報と無線タグ読取手段にて読み取ったデータと記憶手段に格納されたデータとに基づいて行動を制御する制御手段とを備え、所定エリアを移動して無線タグと遭遇した場合、遭遇した無線タグに対して、無線タグ書込手段にてデータを書き込むことを特徴としている。
【0026】
このとき無線タグ書込手段により書き込まれるデータは、当該ロボット装置に関する情報であって、当該ロボット装置の識別情報、無線タグへの遭遇日時、過去に遭遇した他の無線タグからの移動距離や方向、今後移動する方向、走行距離、情報取得手段にて取得した情報のうち少なくとも1つを含む。
【0027】
また、このロボット装置が所定エリアを移動して無線タグと遭遇した場合、無線タグ読取手段は、遭遇した無線タグに記録されたデータを読み出し、制御手段は、読み出したデータと情報取得手段により取得した情報と記録手段に格納されたデータとに基づいて、自己の位置情報の算出、次の移動目標の決定、若しくは次の移動目標までの距離および方向の算出を実行する。
【0028】
付加情報には、位置情報、走行距離、書込日時情報、無線タグへ書き込んだデータ、書き込み時に情報取得手段にて取得した情報が含まれる。
【0029】
また、このロボット装置は、行動を表現する表出手段と、表出手段を駆動する駆動手段とを有し、制御手段は、情報取得手段により取得した情報と、無線タグ読取手段によって読み取ったデータと、記憶手段に格納されたデータとに基づいて、駆動手段を制御する。
【0030】
【発明の実施の形態】
本発明は、動作範囲内を制限なく自由に移動できるバッテリ駆動式の移動ロボット装置が動作範囲内に設けられた無線タグから情報を取得することによって、この情報に基づいて動作できるようにしたものである。とりわけ、無線タグに「形跡」にあたる情報を書き込む書込手段を設けることによって、動作範囲を共有するほかのロボット装置に自分の存在を示すことができるようにし、「縄張(テリトリ)」をもつことを実現した技術である。
【0031】
本発明は、特定の経路上のみを移動するタイプの移動ロボット装置に対しても、好適に適用できる。また、以下に示す具体例では、4足歩行のロボット装置を用いて説明しているが、ロボット装置は、2足、4足、6足等の脚式歩行方式を採用したロボット装置のほか、クローラ式、タイヤ式等の移動方式を採用したロボット装置にも適用できる。
【0032】
以下、図面を参照して本発明の具体例について詳細に説明する。図1は、本発明の具体例として示すロボット装置の外観構成例を示す斜視図であり、図2は、その電気的構成例を示すブロック図である。このロボット装置は、周囲の環境(外的要因)や内部の状態(内的要因)に応じて自律的に行動をする自律型のロボット装置であり、特に「イヌ」を模した形状の、いわゆるペットロボットであるが、ロボット装置の形態は、これに限らず、他の動物形や人間等を模した2足歩行ロボットでもよい。
【0033】
図1において、ロボット装置1は、胴体部ユニット2の前後左右に、それぞれ脚部ユニット3A,3B,3C,3Dが連結されるとともに、胴体部ユニット2の前端部および後端部にそれぞれ頭部ユニット4および尻尾部ユニット5が連結されて構成されている。尻尾部ユニット5は、胴体部ユニット2の上面に設けられたベース部から、尻尾5Aが2自由度をもって湾曲または揺動自在に引き出されている。
【0034】
胴体部ユニット2には、図2に示すように、ロボット全体の制御を行うコントローラ10、ロボットの動力源となるバッテリ11、並びにバッテリセンサ12および熱センサ13からなる内部センサ部14などが収納されている。
【0035】
頭部ユニット4には、外部音を集音するための「耳」に相当するマイク(マイクロフォン)15、外部の状況を視覚的に検出する「目」に相当するCCD(Charge Coupled Device)カメラ16、外部からの圧力等を検出する触覚に相当するタッチセンサ17、音声等を出力する「口」に相当するスピーカ18、外部の物体に設けられたRFIDタグ(無線タグ)の情報(IDデータ等)を読み取るRFIDリード部(無線タグ読取手段)19、RFIDタグに情報を書き込むRFIDライト部20が、それぞれ所定位置に配設されている。
【0036】
ここで、RFID(Radio Frequency Identification)とは、非接触型の自動認識技術のことであり、例えばICと小型アンテナが組み込まれたタグ等の媒体から、電波等を介して情報を読み取る。媒体となるタグ(付け札)は、RFIDタグ、無線タグ、ICタグ等と称され、カード状やラベル状、マイクロチップ状等、種々の形状がある。RFIDには、バッテリ内包型とバッテリレス型とがあり、バッテリ内包型は電波発振が可能である。また、読み出し専用に用いられるもの、1回のみ書き込み可能なもの、複数回の書き込みが可能なもの等がある。使用周波数は、使用条件に合わせて、例えば、125〜135KHzの中波帯、13.56MHzの短波帯、2.45GHzのマイクロ波帯を選択できる。RFID識別技術は、RFIDタグをあらゆる製品に埋め込んで製品情報を管理できるため、バーコードに代わる技術として期待されているのみならず、ゲートやドアの開閉、通過管理、小包や荷物の配送管理等の種々の利用形態が提案されている。
【0037】
RFIDリード部19は、このようなRFIDタグ(無線タグ)に記憶されているデータ(IDデータ等)を読み取るためのものであり、RFIDライト部20は、RFIDタグにデータを書き込むためのものである。
【0038】
なお、RFIDシステムの情報伝送方式には、電磁誘導方式、電磁結合方式、マイクロ波方式、静電結合方式、光方式等が挙げられるが、RFIDリード部19およびRFIDライト部20としては、何れの方式に対応する情報読取手段を用いてもよく、また、複数の方式に対応させてもよい。更に、これらは、読み取り機能と書き込み機能とを有するリードライト部として構成されていてもよい。
【0039】
脚部ユニット3A乃至3Dそれぞれの関節部分や、脚部ユニット3A乃至3Dそれぞれと胴体部ユニット2の連結部分、頭部ユニット4と胴体部ユニット2の連結部分、並びに尻尾部ユニット5と胴体部ユニット2の連結部分等には、図2に示すように、それぞれアクチュエータ3AA1乃至3AAK、3BA1乃至3BAK、3CA1乃至3CAK、3DA1乃至3DAK、4A1乃至4AL、5A1および5A2が配設されている。これにより、各連結部分は、所定の自由度をもって回転できる。
【0040】
頭部ユニット4におけるマイク15は、ユーザからの発話を含む周囲の音声(音)を集音し、得られた音声信号をコントローラ10に送出する。CCDカメラ16は、周囲の状況を撮像し、得られた画像信号をコントローラ10に送出する。RFIDリード部19は、周囲の物体に備え付けられたRFIDタグから、そのRFIDタグに記録された情報(IDデータ等)を非接触または接触により読み取り、その読み取った信号をRFID信号として、コントローラ10に送出する。また、RFIDライト部20は、コントローラ10からの情報(IDデータ等)をRFID信号として周囲の物体に備え付けられたRFIDタグに非接触または接触により書き込む。
【0041】
タッチセンサ17は、例えば、頭部ユニット4の上部に設けられており、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出し、その検出結果を圧力検出信号としてコントローラ10に送出する。
【0042】
胴体部ユニット2におけるバッテリセンサ12は、バッテリ11の残量を検出し、その検出結果を、バッテリ残量検出信号としてコントローラ10に送出する。熱センサ13は、ロボット内部の熱を検出し、その検出結果を、熱検出信号としてコントローラ10に送出する。
【0043】
コントローラ10は、CPU(Central Processing Unit)10Aやメモリ10B等を内蔵しており、CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。
【0044】
すなわち、コントローラ10は、マイク15や、CCDカメラ16、タッチセンサ17、RFIDリード部19、バッテリセンサ12、熱センサ13から与えられる音声信号、画像信号、圧力検出信号、RFID信号、バッテリ残量検出信号、熱検出信号に基づいて、周囲の状況や、ユーザからの指令、ユーザからの働きかけなどの有無を判断する。
【0045】
また、コントローラ10は、この判断結果等に基づいて、続く行動を決定し、その決定結果に基づいて、アクチュエータ3AA1乃至3AAK、3BA1乃至3BAK、3CA1乃至3CAK、3DA1乃至3DAK、4A1乃至4AL、5A1および5A2のうちの必要なものを駆動させ、これにより、頭部ユニット4を上下左右に振ったり、尻尾部ユニット5を動かしたり、各脚部ユニット3A乃至3Dを駆動してロボットを歩行させる等の行動をさせる。
【0046】
また、コントローラ10は、必要に応じて合成音を生成し、スピーカ18に供給して出力させたり、必要に応じてRFIDの書き込みデータを生成し、RFIDライト部20に供給して外部のRFIDタグに書き込むよう制御する。また、ロボットの「目」の位置に設けられた図示しないLED(Light Emitting Diode)を点灯、消灯または点滅させる。
【0047】
更に、コントローラ10は、マイク15、CCDカメラ16、タッチセンサ17等からの音声信号、画像信号、圧力検出信号等に基づいて、上記RFIDリード部19の読取動作およびRFIDライト部20の書込動作を制御するようにしてもよい。例えば、コントローラ10は、タッチセンサ17等の接触を検出する接触検出手段からの検出結果により接触を検出した場合に、一定時間の間、RFIDリード部19およびRFIDライト部20の動作を実行する。また、コントローラ10は、CCDカメラ16や赤外線センサ等のような物体の有無や状態を光学的に検出する光学的検出手段からの光学的検出結果により物体の有無や状態を検出した場合に、一定時間の間、RFIDリード部19およびRFIDライト部20の動作を実行する。
【0048】
以上のようにして、ロボット装置1は、周囲の状況等に基づいて自律的に行動でき、RFIDタグに遭遇した際に、このRFIDタグからデータを読み出したり、RFIDタグに対してデータを書き込んだりできるようになっている。
【0049】
次に、コントローラ10の機能的構成例について図3を用いて説明する。なお、図3に示す機能的構成は、CPU10Aがメモリ10Bに記憶された制御プログラムを実行することで実現される。
【0050】
コントローラ10は、特定の外部状態を認識するセンサ入力処理部50、センサ入力処理部50の認識結果等を累積して、感情および本能の状態を表現する感情/本能モデル部51、センサ入力処理部50の認識結果等に基づいて、続く行動を決定する行動決定機構部52、行動決定機構部52の決定結果に基づいて、実際にロボットに行動を起こさせる姿勢遷移機構部53、各アクチュエータ3AA1乃至5A1および5A2を駆動制御する制御機構部54、合成音を生成する音声合成部55、並びに音声合成部55の出力を制御する音響処理部56、RFIDリード部19にて読み取ったRFID信号またはRFIDライト部20にて書き込むRFID信号を処理するRFID処理部57とから構成されている。
【0051】
センサ入力処理部50は、マイク15、CCDカメラ16、タッチセンサ17、RFIDリード部19等から与えられる音声信号、画像信号、圧力検出信号やRFID信号等に基づいて、特定の外部状態や、ユーザからの特定の働きかけ、ユーザからの指示等を認識し、その認識結果を表す状態認識情報を感情/本能モデル部51および行動決定機構部52に通知する。
【0052】
すなわち、センサ入力処理部50は、音声認識部50Aを有しており、音声認識部50Aは、行動決定機構部52からの制御にしたがい、マイク15から与えられる音声信号を用いて音声認識を行う。そして、音声認識部50Aは、その音声認識結果としての、例えば、「歩け」、「伏せ」、「ボールを追いかけろ」等の指令その他を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0053】
また、センサ入力処理部50は、画像認識部50Bを有しており、画像認識部50Bは、CCDカメラ16から与えられる画像信号を用いて、画像認識処理を行う。そして、画像認識部50Bは、その処理の結果、例えば、「赤い丸いもの」や「地面に対して垂直で所定高さ以上の平面」等を検出したときには、「ボールがある」や「壁がある」といった画像認識結果を状態認識情報として感情/本能モデル部51および行動決定機構部52に通知する。
【0054】
更に、センサ入力処理部50は、圧力処理部50Cを有する。圧力処理部50Cは、タッチセンサ17から与えられる圧力検出信号を処理する。圧力処理部50Cは、その処理の結果、所定の閾値以上で、且つ短時間の圧力を検出したときには、「叩かれた(叱られた)」と認識し、所定の閾値未満で、且つ長時間の圧力を検出したときには、「撫でられた(褒められた)」と認識して、その認識結果を、状態認識情報として、感情/本能モデル部51および行動決定機構部52に通知する。
【0055】
また、センサ入力処理部50は、環境認識部50Dを有する。環境認識部50Dは、マイク15から与えられる音声信号やCCDカメラ16から与えられる画像信号を用いて、例えば、ロボット装置からユーザや物体までの距離といったロボット装置が使用される環境を認識し、その認識結果を状態認識情報として音響処理部56に出力する。
【0056】
また、センサ入力処理部50は、ID認識部50Eを有する。ID認識部50Eは、RFIDリード部19から与えられるRFID信号を用いてRFIDに記録された信号の認識処理を行う。認識処理の結果、例えば、「ボール」や「花瓶」といった物体の種類や、発現する動作の種類等を認識し、その認識結果を状態認識情報として感情/本能モデル部51および行動決定機構部52に通知する。特に、行動を規制する用途として用いる場合、特徴ある物体や特徴ある場所からの距離や方角に関する情報、現時点から次に向かうべき場所(RFIDタグの位置)に関する情報、以前に訪れて形跡を残した場所(以前に情報を書き込んだRFIDタグ)であればそのとき残した情報や、数回訪れているならばその履歴情報等を認識し、この認識結果を状態認識情報として感情/本能モデル部51および行動決定機構部52に通知する。ID認識部50Eの構成例に関しては、後述する。
【0057】
ここで、コントローラ10は、センサ入力処理部50の音声認識部50A、画像認識部50B、圧力認識部50C等からの認識結果に応じて、RFIDリード部19やID認識部50Eの動作を制御している。例えば、本具体例では、CCDカメラ16からの画像信号を画像認識部50Bで画像認識することによりボールらしき丸いものの認識結果が得られた場合に、RFIDリード部19を動作させて、「ボールらしき物体」に設けられたRFIDタグを読み取り、RFIDリード部19から得られたRFID信号をID認識部50Eに送って認識処理を行わせ、正確に「ボール」であることを認識できるようにしている。
【0058】
また、例えば、RFIDタグから情報を読み出して、以前にこのタグを認識したか否か、すなわち以前にその場所を訪れたか否か、他のロボット装置が訪れているか否かといった更に詳細な情報を認識できるようになっている。また、CCDカメラ16やマイク15から得た情報をRFIDタグに記録することもできる。
【0059】
感情/本能モデル部51は、図4に示すような、ロボットの感情と本能の状態を表現する感情モデルと本能モデルをそれぞれ管理している。感情モデルは、例えば、3つの感情ユニット60A,60B,60Cで構成され、これらの感情ユニット60A乃至60Cは、「うれしさ」、「悲しさ」、「怒り」の感情の状態(度合い)を、例えば、0乃至100の範囲の値によってそれぞれ表し、センサ入力処理部50からの状態認識情報や時間経過等に基づいてこの値を変化させる。なお、感情モデルには、「うれしさ」、「悲しさ」、「怒り」のほか、「楽しさ」に対応する感情ユニットを設けることも可能である。
【0060】
本能モデルは、例えば、3つの本能ユニット61A,61B,61Cで構成され、これらの本能ユニット61A乃至61Cは、「食欲」、「睡眠欲」、「運動欲」という本能による欲求の状態(度合い)を、例えば、0乃至100の範囲の値によってそれぞれ表し、センサ入力処理部50からの状態認識情報や時間経過等に基づいて、その値を変化させる。
【0061】
感情/本能モデル部51は、上述のようにして変化する感情ユニット60A乃至60Cの値で表される感情の状態および本能ニット61A乃至61Cの値で表される本能の状態を、感情/本能状態情報として、センサ入力処理部50、行動決定機構部52、および音声合成部55に送出する。
【0062】
行動決定機構部52は、センサ入力処理部50からの状態認識情報、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて、次の行動を決定し、決定された行動の内容を行動指令情報として姿勢遷移機構部53に送出する。すなわち、行動決定機構部52は、図5の状態遷移図に示すように、ロボットがとり得る行動をステート(状態:state)に対応させた有限オートマトンをロボット装置の行動を規定する行動モデルとして管理しており、この行動モデルとしての有限オートマトンにおけるステートをセンサ入力処理部50からの状態認識情報、感情/本能モデル部51における感情モデル、本能モデルの値、時間経過等に基づいて遷移させ、遷移後のステートに対応する行動を次にとるべき行動として決定する。
【0063】
具体的には、例えば、図5において、ステートST3は、「立っている」という行動を表し、ステートST4は、「寝ている」という行動を表し、ステートST5は、「ボールを追いかけている」という行動を表している。例えば、「ボールを追いかけている」というステートST5において、「ボールが見えなくなった」という状態認識情報が供給されると、ステートST5からST3に遷移する。この結果、ステートST3に対応する「立っている」という行動を次にとることが決定される。また、例えば、「寝ている」というステートST4において、「起きろ」という状態認識情報が供給されると、ステートST4からST3に遷移する。この結果、ステートST3に対応する「立っている」という行動を次にとることが決定される。
【0064】
ここで、行動決定機構部52は、所定のトリガ(trigger)があったことを検出するとステートを遷移させる。すなわち、行動決定機構部52は、例えば、現在のステートに対応する行動を実行している時間が所定時間に達したとき、特定の状態認識情報を受信したとき、感情/本能モデル部51から供給される感情/本能状態情報が示す感情の状態の値(感情ユニット60A乃至60Cの値)や本能の状態の値(本能ユニット61A乃至61Cの値)が所定の閾値以下又は以上となったとき等にステートを遷移させる。
【0065】
なお、行動決定機構部52は、上述したように、センサ入力処理部50からの状態認識情報だけでなく、感情/本能モデル部51における感情モデルおよび本能モデルの値等に基づいて、図5に示す有限オートマトンにおけるステートを遷移させることから、同一の状態認識情報が入力されても、感情モデルや本能モデルの値(感情/本能状態情報)によってステートの遷移先が異なる。
【0066】
この結果、行動決定機構部52は、例えば、感情/本能状態情報が「怒っていない」および「お腹がすいていない」ことを表し、状態認識情報が「目の前に手のひらが差し出された」ことを表しているときには、目の前に手のひらが差し出されたことに対して、「お手」という行動をとらせる行動指令情報を生成し、これを姿勢遷移機構部53に送出する。
【0067】
また、行動決定機構部52は、例えば、感情/本能状態情報が「怒っていない」および「お腹がすいている」ことを表し、状態認識情報が「目の前に手のひらが差し出された」ことを表しているときには、目の前に手のひらが差し出されたことに対して、「手のひらをぺろぺろなめる」ような行動をとらせる行動指令情報を生成し、これを姿勢遷移機構部53に送出する。
【0068】
また、行動決定機構部52は、例えば、感情/本能状態情報が「怒っている」ことを表し、状態認識情報が「目の前に手のひらが差し出された」ことを表しているときには、感情/本能状態情報が「お腹がすいている」ことを表していても「お腹がすいていない」ことを表していても、「ぷいと横を向く」ような行動をとらせる行動指令情報を生成し、これを姿勢遷移機構部53に送出する。
【0069】
更に、行動決定機構部52では、上述したような、ロボットの頭部や手足等を動作させる行動指令情報のほか、ロボットに発話を行わせる行動指令情報も生成される。ロボットに発話を行わせる行動指令情報は、音声合成部55に供給されるようになっており、音声合成部55に供給される行動指令情報には、音声合成部55に生成させる合成音に対応するテキスト等が含まれる。音声合成部55は、行動決定部52から行動指令情報を受信すると、その行動指令情報に含まれるテキストに基づき、感情/本能モデル部51で管理されている感情の状態や本能の状態を加味しながら、例えば、規則音声合成等を行うことで合成音を生成し、音響処理部56に供給する。
【0070】
姿勢遷移機構部53は、行動決定機構部52から供給される行動指令情報に基づいて、ロボットの姿勢を現在の姿勢から次の姿勢に遷移させるための姿勢遷移情報を生成し、これを制御機構部54に送出する。
【0071】
ここで、現在の姿勢から次に遷移可能な姿勢は、例えば、胴体や手や足の形状、重さ、各部の結合状態のようなロボットの物理的形状と、関節が曲がる方向や角度のようなアクチュエータ3AA1乃至5A1および5A2の機構とによって決定される。
【0072】
また、次の姿勢としては、現在の姿勢から直接遷移可能な姿勢と、直接には遷移できない姿勢とがある。例えば、4本足のロボットは、手足を大きく投げ出して寝転んでいる状態から、伏せた状態へ直接遷移することはできるが、立った状態へ直接遷移することはできず、一旦、手足を胴体近くに引き寄せて伏せた姿勢になり、それから立ち上がるという2段階の動作が必要である。また、安全に実行できない姿勢も存在する。例えば、4本足のロボットは、その4本足で立っている姿勢から、両前足を挙げてバンザイをしようとすると、簡単に転倒してしまう。
【0073】
このため、姿勢遷移機構部53は、直接遷移可能な姿勢を予め登録しておき、行動決定機構部52から供給される行動指令情報が直接遷移可能な姿勢を示す場合には、この行動指令情報を姿勢遷移情報として制御機構部54に送出する。一方、行動指令情報が直接遷移不可能な姿勢を示す場合には、姿勢遷移機構部53は、遷移可能なほかの姿勢に一旦遷移した後に、目的の姿勢まで遷移させるような姿勢遷移情報を生成し制御機構部54に送出する。これによりロボットが、遷移不可能な姿勢を無理に実行しようとする事態や、転倒するような事態を回避することができるようになっている。
【0074】
すなわち、姿勢遷移機構部53は、例えば、図6に示すように、ロボットがとり得る姿勢をノードNODE1乃至NODE5として表現するとともに、遷移可能な2つの姿勢に対応するノード間を、有向アークARC1乃至ARC10で結合した有向グラフを記憶しており、この有向グラフに基づいて、上述したような姿勢遷移情報を生成する。
【0075】
具体的には、姿勢遷移機構部53は、行動決定機構部52から行動指令情報が供給されると、現在の姿勢に対応したノードNODEと、行動指令情報が示す次にとるべき姿勢に対応するノードNODEとを結ぶように有向アークARCの向きにしたがいながら、現在のノードNODEから次のノードNODEに至る経路を探索し、探索した経路上にあるノードNODEに対応する姿勢を順番にとっていくように指示する姿勢遷移情報を生成する。
【0076】
その結果、姿勢遷移機構部53は、例えば、現在の姿勢が「伏せる」という姿勢を示すノードNODE2にあるときに、「すわれ」という行動指令情報が供給されると、直接遷移可能な行動であれば、姿勢遷移情報を生成して制御機構部54に与える。図6に示す有向グラフでは、「伏せる」という姿勢を示すノードNODE2から「すわる」という姿勢を示すノードNODE5へは、直接遷移可能であることから、「すわる」に対応する姿勢遷移情報を生成して制御機構部54に与える。
【0077】
また、姿勢遷移機構部53は、現在の姿勢が「伏せる」という姿勢を示すノードNODE2にあるときに、「歩け」という行動指令情報が供給されると、有向グラフにおいて「伏せる」というノードNODE2から「歩く」というノードNODE4に至る経路を探索する。この場合、「伏せる」に対応するノードNODE2、「たつ」に対応するNODE3、「歩く」に対応するNODE4の経路が得られるから、姿勢遷移機構部53は、「たつ」、「歩く」という順番の姿勢遷移情報を生成し、制御機構部54に送出する。
【0078】
制御機構部54は、姿勢遷移機構部53からの姿勢遷移情報にしたがって、アクチュエータ3AA1乃至5A1および5A2を駆動するための制御信号を生成し、これをアクチュエータ3AA1乃至5A1および5A2に送出する。これにより、アクチュエータ3AA1乃至5A1および5A2は、制御信号にしたがって駆動し、ロボット装置が自律的に行動を起こす。
【0079】
一方、音響処理部56は、センサ入力処理部50を構成する環境認識部50Dが出力する状態認識情報を受信し、その状態認識情報に基づいて音声合成部55から供給される合成音の出力を制御する。すなわち、音響処理部56は、ロボットが使用されている環境における雑音やロボットからユーザまでの距離等に応じて、スピーカ18から出力される合成音がユーザに明確に聞こえ、且つ耳障りとならないような大きさ(パワー)や高さ(周波数)等を調整してスピーカ18に供給する。これにより、スピーカ18からは、音響処理部56により調整された適切な大きさおよび高さ等を有する合成音が出力される。
【0080】
RFID処理部57は、ID認識部50Eで認識されたID番号に対応する動作に関する状態認識情報を受け取り、行動決定機構部52、感情/本能モデル部51、音響処理部56等へ供給する。また、RFIDタグへ情報を書き込む場合には、RFIDの書き込みデータを生成し、RFIDライト部20に供給する。書き込みデータは、RFIDタグに書き込み可能なRFID信号に変換される。このとき、書き込みデータの容量が大きくなる場合には、書き込む情報の内容に対応した新たなID番号を生成し、IDテーブル記憶部42の対応テーブルに書き込む情報の内容を記憶し、対応するID番号をRFIDライト部20に送る。
【0081】
なお、ロボット装置1は、上述した構成のほかにも、例えば、東西南北の方角を検出できる方角検出手段や、更に詳細な経度緯度等の位置情報を取得するGPS(Global Positioning System)を備えていてもよく、これらから検出および取得された情報をRFIDタグとともに自身の記憶部に書き込むことができる。
【0082】
図7は、図3のID認識部50Eの構成例を示している。ID照合部41には、RFIDリード部19から出力されるRFID信号が供給されるようになっている。またID照合部41には、RFID処理部71から出力されるデータ(RFIDライタ部70の書き込みデータ)が供給されるようになっている。ID照合部41は、RFID処理部71から出力されるデータおよび、RFIDライタ部70が書き込んだときの履歴として、例えば、位置情報、走行距離、時刻情報(書き込み日時など)を、IDテーブル記憶部42のIDテーブルに格納する。またID照合部41は、図には記載していないが、RFIDライタ部70が書き込んだときに、RFIDリード部19以外のセンサ入力処理部50から取得したデータをIDテーブル記憶部42のIDテーブルに格納することも可能である。IDテーブル記憶部42の例としては、予め登録されたRFIDタグ(無線タグ)のID番号およびそのID番号に対応した状態認識情報のテーブル(以下、IDテーブルと記す。)が記録されている。
【0083】
図7のID照合部41は、RFIDリード部19から出力されたRFID信号がIDテーブル記憶部42のIDテーブルに記録された情報に属するかどうかを判定する。そして、RFIDリード部19から出力されたRFID信号がIDテーブル記憶部42に記録されたものであると判定した場合、IDテーブル記憶部42に記録されたIDテーブルに基づいて、RFID信号のID番号に対応する状況認識情報を、感情/本能モデル部51および行動決定機構部52へ通知する。ID番号に対応する状況認識情報は複数存在してもよい。
【0084】
ここで、RFID信号のフォーマットを図8を用いて説明する。RFID信号フォーマット70は、ヘッダ部71と、識別子部72と、データ部73とを有し、全体として128ビットで構成されている。データ部73には、RFIDタグのID番号が書き込まれる。ロボット装置1は、RFIDタグのID番号とRFIDタグに書き込まれた情報とを対応付けてテーブルとして記憶している。この記憶テーブルの内容は、実際のロボット装置1のRFIDタグ読み取り・書き込み動作とともに後述する。
【0085】
また、RFIDタグには、全体容量が大きく、データ部73にROM(Read Only Memory)領域74とRAM(Random Access Memory)のように使用可能で書き込み可能な書込領域75とを有し、コマンドや音声データ等の実データをアスキーコードやMIDIデータで直接書き込むことができるタイプもある。
【0086】
この場合、ROM領域74には、例えば、このRFIDタグの種類を示す情報、このRFIDタグを製造したメーカコード、RFIDタグのID番号、RFIDタグの位置情報等が各番地に分けられて予め書き込まれる。このRFIDタグを使用するときの互いのRFIDタグの配置関係が予め決まっている場合には、配置すべきRFIDタグの互いの位置関係を示す情報や、所定の物体からの距離・方向といった位置情報もROM領域74に予め書き込まれている。書込領域75は、更に領域751,752,・・・,75nの各番地に分けられており、複数の情報が書き込める。ここで書き込まれる情報は、このロボット装置1のロボットID、書き込みをした日時、前回遭遇したRFIDタグからの距離や方角、今後進行する方向といった位置情報等がある。
【0087】
後段では、後者の書き込み可能な領域を備えたRFIDタグを用いた場合について説明する。
【0088】
一般に、RFIDタグは、バーコードに比べて記憶できる情報量が多いため、物体の識別能力が高く、物体の詳細なデータ等を盛り込むことができる。また、RFIDは、非接触で情報通信ができるため、耐久性に優れ、汚れやほこり等の影響を受けないという利点がある。また、リード部とRFIDタグとが相対的に移動していても読み取りできたり、光量に関係なく暗闇でも物体認識が行えたりと非常に認識能力が高いのも特徴である。RFID信号のフォーマットとしては、このほか、種々のフォーマットが使用可能である。
【0089】
上述した具体例によれば、RFIDリード部19をロボット装置に設けることにより、マイク、カメラや種々のセンサで検出することが困難であった物体の情報の確認や物体の識別が可能となり、また、外部環境が暗くとも物体認識が有効且つ確実に行える。そして、認識した結果に応じて、それぞれ独自の行動をとらせることができる。また、RFIDライト部20を設けることによって、RFIDタグに、一度訪れた場所(認識したタグ)であるといった情報を書き込むことができるようになり、ロボット装置の「縄張」を構築したり、同じ動作空間をもつほかのロボット装置の存在を認識させたりできる。また、この認識した結果に応じた行動をとらせることができる。
【0090】
このように、RFIDリード部19、RFIDライト部20を設けることによって、ロボット装置に、ゲーム、スポーツ、行動範囲の制約、周囲との関係構築、部品の自動装着等の応用動作をさせることができる。
【0091】
以下では、ロボット装置1がある動作領域を移動してRFIDタグから情報を読み取る場合、RFIDタグに情報を書き込む場合について説明する。
【0092】
図9に示すように、ロボット装置1が行動するエリアAには、複数のRFIDタグ80(0,0)〜80(n,n)が設置されている。ここでは、エリアAには読み書きが可能なRFIDタグが等間隔(1メートル間隔とする。)に配置されている。
【0093】
本具体例では、RFIDタグは、エリアA内に格子状に配置され、個々のRFIDタグは配置位置が予め決定されているものとして説明する。ロボット装置1は、これらRFIDタグのID番号と位置情報との対応関係をIDテーブル記憶部42に記憶している。
【0094】
ロボット装置1は、頭部ユニット4に備えたRFIDタグの情報をリードするRFIDリード部19およびRFIDタグへ情報を書き込むRFIDライト部20により、エリア内を移動してエリアAに設置されたRFIDタグと遭遇した場合、遭遇したRFIDタグに書き込まれた情報を読み出し、必要に応じて新たな情報を書き込む。ここでは、説明の便宜上、書込領域75に情報が記録されていないRFIDタグを白四角マークで示し、書込領域75に情報が書き込まれたRFIDタグを黒四角マークで示す。
【0095】
図9は、ロボット装置1がエリアAのRFIDタグ80(a,b)の位置から太い点線の経路を通って途中にあるRFIDタグに情報を書き込みながら自律歩行し、RFIDタグ80(k,l)の位置に差し掛かった様子を示している。最初、RFIDタグ80(k,l)の書込領域75には、何も記録されていない。
【0096】
まず、ロボット装置1は、RFIDリード部19によってRFIDタグ80(k,l)に記録された情報を読み取り、IDテーブル記憶部42に含まれる記憶領域に、RFIDタグのID番号、RFIDタグの位置情報といったRFIDタグの情報を記憶する。
【0097】
ID照合部41は、RFIDリード部19で読み取ったRFIDタグ80(k ,l)に記録された情報とIDテーブルとを参照して、RFIDタグ80(k,l)に情報が記録されていないことを感情/本能モデル部51および行動決定機構部52へ通知する。RFIDタグに直接情報を書き込めるタイプであれば、ID照合部41は、RFID信号として読み出した情報を感情/本能モデル部51および行動決定機構部52へ通知する。
【0098】
行動決定機構部52は、ID照合部41から「RFIDタグ80(k,l)に情報が記録されていない」ことと、感情/本能モデル部51からの感情/本能状態情報・時間経過等に基づいて、次に実行する行動を「RFIDタグ80(k,l)へロボット装置1に関する情報を書き込む」ことに決定し、決定された行動の内容(「ロボット装置1に関する情報の書き込み」)を行動指令情報としてRFID処理部57へ送出する。
【0099】
ここで、ロボット装置1に関する情報とは、ロボット装置1に付されたID番号を含めた行動の記録を示しており、このRFIDタグに遭遇した日時、進む方向等の情報を含む。ここでは、以下、履歴と記す。RFID処理部57は、行動決定機構部52から供給された「ロボット装置1の履歴の書き込み」の行動指令情報に基づいて、ロボット装置1の履歴に対応するID番号を発行し、このID番号をRFIDタグ80(k,l)へ書き込むとともに、発行したID番号に対応付けて履歴の内容をIDテーブルに記憶する。
【0100】
ロボット装置1の履歴の項目としては、ロボット装置1のID、RFIDタグへの書き込み日時、前回遭遇したRFIDタグからの移動距離および方角、この後移動する方角が挙げられる。図示しないが、ロボット装置1は、東西南北の方角検出手段を備えており、例えば、北が0度、東が90度、南が180度、西が270度と示される。
【0101】
RFIDタグに対して直接データが書き込める場合は、RFID処理部57は、RFIDライト部20にて、例えば、(1)ID、(2)書き込み日時、(3)前回遭遇したRFIDタグからの移動距離、(4)前回遭遇したRFIDタグからの方角、(5)今後移動する方角といった情報をこの順番でRFIDタグ80(k,l)に書き込む。したがって、このロボット装置1のIDが「1」であるとし、RFIDタグ80(k,l)への書き込み日時が1月1日1時20分であれば「01010120」が、前回遭遇したRFIDタグからの移動距離が1メートルであれば「1」が、前回遭遇したRFIDタグからの方角が西であれば「270」が、今後移動する方角が北であれば「0」が、順番に「1/01010120/1/270/0」のようなデータがRFIDタグに書き込まれる。また、このデータがIDテーブルにも記憶される。ここで生成される「1/01010120/1/270/0」といったデータ列をそのままID番号として用いてもよい。
【0102】
RFID処理部57は、書き込みデータ「1/01010120/1/270/0」をID照合部41へ出力する。ID照合部41は、書き込みデータ「1/01010120/1/270/0」をIDテーブルに格納する。
【0103】
図11にIDテーブル記憶部42に作成されるIDテーブルの例を、図12にRFIDタグのRFID信号フォーマットを示す。
【0104】
図11に示すIDテーブルには、各RFIDタグのID番号に対応した情報の内容が対応付けて記憶されている。例えば、RFIDタグ80(k,l)のID番号に対応付けされてIDテーブル内に、ロボット装置1のID「1」、RFIDタグ80(k,l)への書き込み日時「01010120」、前回遭遇したRFIDタグからの移動距離「1」、前回遭遇したRFIDタグからの方角「270」が、今後移動する方角「90」が書き込まれる。また、RFIDタグに直接情報の内容が書き込める場合は、図12に示すように、書込領域75の所定の番地にそれぞれの情報が書き込まれる。
【0105】
RFIDタグ80(k,l)への書き込み後、ロボット装置1は、自由且つ自律的に移動する。ここでは、北へ向かって移動する。この後もロボット装置1は、RFIDタグに遭遇すると、上述した履歴の記録動作を繰り返す。
【0106】
続いて、ロボット装置1がRFIDタグを検出して書き込まれた情報を読み出す場合について、図10を用いて説明する。
【0107】
ロボット装置1は、RFIDタグに遭遇したときに、遭遇したRFIDタグに記録されている情報をRFIDリード部19にて読み取り、IDテーブル記憶部42に含まれる記憶領域に、RFIDタグのID番号、RFIDタグの位置情報といったRFIDタグの情報を記憶する。
【0108】
ID照合部41は、RFIDタグ80(k,l)からのRFID信号がIDテーブルに格納された情報に属するかを判定する。または、ID照合部41は、RFIDタグに直接書き込まれた実データを読み出す。図10は、ロボット装置1が徘徊しているときに、上述の記録動作の説明に用いたRFIDタグ80(k,l)に再び遭遇した場合である。
【0109】
判定の結果、IDテーブル記憶部42に記録されたものであると判ると、対応するデータをIDテーブルから抽出して状態認識情報として感情/本能モデル部51および構造決定機構部52へ送る。また、RFIDタグに直接書き込まれている場合には、ID照合部41は、IDテーブルに格納されたデータ「1/01010120/1/270/0」を状態認識情報として感情/本能モデル部51および行動決定機構部52へ通知する。行動決定機構部52は、「1/01010120/1/270/0」というデータから、このRFIDタグ80(k,l)の地点にこのロボット装置1が過去の1月1日1時20分に訪れて、更に北に向かって進んだ痕跡を知る。またこのとき、西の方角、距離1メートルの地点(RFIDタグ80(k+1,l))からこのRFIDタグ80(k,l)に移動してきたことも知る。
【0110】
行動決定機構部52は、感情/本能モデル部51からの感情/本能状態情報、時間経過等に基づいて次の行動を「西に移動」と決定し、以前に通ったルートを辿る。ここで、行動決定機構部52は、以前のルートを辿る動作に限らず、以前に訪れた場所であることを表現する特定の動作、例えば、「吠える」、「喜ぶ」等を起こすようにもできる。また、他のロボット装置の痕跡を検出した場合も同様であって、他のロボット装置の痕跡を辿ったり、特定の動作を起こしたりできる。
【0111】
ロボット装置1がRFIDタグを発見する方法としては、RFIDリード部20を定期的に起動させて読み取り用電波を発生しRFIDタグを探索する方法、バッテリを備えてアクティブな電波を発振可能なタイプのRFIDタグを用いる方法等が挙げられる。また、CCDカメラ、接触センサ等のほかの検出手段における検出結果に応じてRFIDタグの読み取り動作および書き込み動作を実行することもできる。例えば、CCDカメラによって視覚的にRFIDタグを発見したとき、一定期間RFIDタグの読み取り動作や書き込み動作を実行するようにしてもよい。
【0112】
上述したようにロボット装置1は、動作範囲内に設けられたRFIDタグから情報を取得し、この情報に基づいて動作できる。また、RFIDタグに「痕跡」に相当する情報を書き込むことによって、動作範囲を共有するほかのロボット装置に自分の存在を示すことができ、「縄張(テリトリ)」をもつことができる。
【0113】
なお、ロボット装置がRFIDタグに書き込むデータは、上記ロボット装置のID、日時、前回遭遇したRFIDタグからの移動距離、前回遭遇したRFIDタグからの方角、今後移動する方角に限定されず、ロボット装置のセンサ部が取得した外部からの入力情報等、様々な情報であってもよい。
【0114】
本具体例では、RFIDタグは、格子状に配置され、個々のRFIDタグは配置位置が予め決定されているように説明しているが、RFIDタグは、整然と配置されている必要はなく、ロボット装置1の動作範囲内に不規則に設けられていてもよい。この場合、RFIDタグには位置情報も予め書き込まれている必要はない。例えば、ロボット装置1が無造作に配置されたRFIDタグを端から順番に読み取り、読み取ったID番号とRFIDタグの位置関係とをIDテーブルに記憶する方法、または、ロボット装置1がエリア内のRFIDタグに順番にこのRFIDタグの位置情報等を直接書き込む方法を用いてエリア内のタグ配置を認識できるようにすれば、上述した具体例が実施できる。
【0115】
本具体例では、上述した一連の処理をCPU10Aにプログラムを実行させて行うようにしたが、一連の処理は、専用のハードウェアによって行うこともできる。なお、プログラムは、予めメモリ10Bに記憶させておくほか、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク、DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に一時的または永続的に格納(記録)できる。このようなリムーバブル記録媒体を、いわゆるパッケージソフトウエアとして提供し、ロボット(メモリ10B)にインストールするようにもできる。
【0116】
プログラムは、リムーバブル記録媒体からインストールする方法のほかに、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して無線で転送したり、LAN(Local Area Network)・インターネットといったネットワークを介して有線で転送したりする方法にてメモリ10Bにインストールすることができる。この場合、プログラムがバージョンアップされたとき等には、バージョンアップされたプログラムをメモリ10Bに容易にインストールできるという利点がある。
【0117】
本具体例で説明したCPU10Aに各種の処理を行わせるためのプログラムを記述する処理ステップは、フローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的または個別に実行される処理(例えば、並列処理またはオブジェクトによる処理。)も含む。また、プログラムは、単独のCPUにより処理されるものであってもよいし、複数のCPUによって分散処理されるものであってもよい。
【0118】
以上、本発明をペット類似のロボット装置に適用した場合について説明したが、本発明は、これに限定されるものではなく、例えば、産業用のロボット、人間型ロボット等の各種ロボット装置に広く適用できる。
【0119】
具体的に、本発明を人間型ロボット装置に適用した例について、図面を参照しながら説明する。図13および図14に、人間型ロボット装置200を前方および後方の各々から眺望した様子を示す。更に、図15に、この人間型ロボット装置200が具備する関節自由度構成を模式的に示す。
【0120】
人間型ロボット装置200は、脚式移動を行う左右2足の下肢201R,201Lと、体幹部202と、左右の上肢203R,203Lと、頭部204とで構成される。
【0121】
左右各々の下肢201R,201Lは、大腿部205R,205Lと、膝関節206R,206Lと、脛部207R,207Lと、足首208R,208Lと、足平209R,209Lとで構成され、股関節210R,210Lによって体幹部202の略最下端にて連結されている。また、左右各々の上肢203R,203Lは、上腕211R,211Lと、肘関節212R,212Lと、前腕213R,213Lとで構成され、肩関節214R,214Lによって体幹部202上方の左右各側縁にて連結されている。また、頭部204は、首関節255によって体幹部202の略最上端中央に連結されている。
【0122】
この人間型ロボット装置200は、図15に示すように、頭部204を支持する首関節ヨー軸302と、首関節ピッチ軸303と、首関節ロール軸304という3自由度を有している。また、腕関節は、肩関節ピッチ軸308と、肩関節ロール軸309と、上腕ヨー軸310と、肘関節ピッチ軸311と、前腕ヨー軸312と、手首関節ピッチ軸313と、手首関節ロール軸314と、手部315とで構成される。
【0123】
手部315は、実際には、複数本の指を含む多関節・多自由度構造体である。ただし、手部315の動作は人間型ロボット装置200の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書では0自由度と仮定する。したがって、各腕部は7自由度を有するとする。
【0124】
体幹部は、体幹ピッチ軸305と、体幹ロール軸306と、体幹ヨー軸307という3自由度を有する。
【0125】
下肢を構成する各々の脚部は、股関節ヨー軸316と、股関節ピッチ軸317と、股関節ロール軸318と、膝関節ピッチ軸319と、足首関節ピッチ軸320と、足首関節ロール軸321と、足部322とで構成される。本明細書中では、股関節ピッチ軸317と股関節ロール軸318の交点は、人間型ロボット装置200の股関節位置を定義する。人体の足部322は、実際には多関節・多自由度の足底を含んだ構造体であるが、人間型ロボット装置200の足底は、0自由度とする。したがって、各脚部は、6自由度で構成される。
【0126】
以上を総括すれば、人間型ロボット装置200全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。ただし、エンターテインメント向けの人間型ロボット装置200が必ずしも32自由度に限定される訳ではなく、この自由度、すなわち関節数は、設計・制作上の制約条件や要求仕様等に応じて適宜増減できる。
【0127】
上述した人間型ロボット装置200がもつ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定な構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。
【0128】
図16には、人間型ロボット装置200の制御システム構成を模式的に示している。同図に示すように、人間型ロボット装置200は、ヒトの四肢を表現した各機構ユニット330,340,350R/L,360R/Lと、各機構ユニット間の協調動作を実現するための適応制御を行う制御ユニット380とで構成される(ただし、R、Lの各々は、右、左の各々を示す接尾辞である。以下同様)。
【0129】
人間型ロボット装置200全体の動作は、制御ユニット380によって統括的に制御される。制御ユニット380は、CPU(Central Processing Unit)やメモリ等の主要回路コンポーネント(図示しない)で構成される主制御部381と、電源回路や人間型ロボット装置200の各構成要素とのデータやコマンドの授受を行うインターフェイス(何れも図示しない)などを含んだ周辺回路382とで構成される。この制御ユニット380の設置場所は、特に限定されない。図16では体幹部ユニット340に搭載されているが、頭部ユニット330に搭載してもよい。または、人間型ロボット装置200外に制御ユニット380を配備して、人間型ロボット装置200の機体と有線または無線で交信するようにしてもよい。
【0130】
図15に示した人間型ロボット装置200内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット330には、首関節ヨー軸302、首関節ピッチ303、首関節ロール軸304の各々を表現する首関節ヨー軸アクチュエータA2、首関節ピッチ軸アクチュエータA3、首関節ロール軸アクチュエータA4が配設されている。
【0131】
また、頭部ユニット330には、外部の状況を撮像するためのCCD(Charge Coupled Device)カメラが設けられているほか、前方に位置する物体までの距離を測定するための距離センサ、外部音を集音するためのマイク、音声を出力するためのスピーカ、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ等が配設されている。更に、上述したようなRFIDタグ(無線タグ)からの情報を読み取るためのRFIDリード部(図示せず)およびRFIDライト部が頭部ユニット330に設けられている。このRFIDリード部およびRFIDライト部は、手指先や足先等、頭部ユニット330以外の部位に設けられていてもよい。
【0132】
また、体幹部ユニット340には、体幹ピッチ軸305、体幹ロール軸306、体幹ヨー軸307の各々を表現する体幹ピッチ軸アクチュエータA5、体幹ロール軸アクチュエータA6、体幹ヨー軸アクチュエータA7が配設されている。また、体幹部ユニット340には、この人間型ロボット装置200の起動電源となるバッテリを備えている。このバッテリは、充放電可能な電池によって構成されている。
【0133】
また、腕部ユニット350R/Lは、上腕ユニット351R/Lと、肘関節ユニット352R/Lと、前腕ユニット353R/Lに細分化されるが、肩関節ピッチ軸308、肩関節ロール軸309、上腕ヨー軸310、肘関節ピッチ軸311、前腕ヨー軸312、手首関節ピッチ軸313、手首関節ロール軸314の各々表現する肩関節ピッチ軸アクチュエータA8、肩関節ロール軸アクチュエータA9、上腕ヨー軸アクチュエータA10、肘関節ピッチ軸アクチュエータA11、肘関節ロール軸アクチュエータA12、手首関節ピッチ軸アクチュエータA13、手首関節ロール軸アクチュエータA14が配備されている。
【0134】
また、脚部ユニット360R/Lは、大腿部ユニット361R/Lと、膝ユニット362R/Lと、脛部ユニット363R/Lに細分化されるが、股関節ヨー軸316、股関節ピッチ軸317、股関節ロール軸318、膝関節ピッチ軸319、足首関節ピッチ軸320、足首関節ロール軸321の各々を表現する股関節ヨー軸アクチュエータA16、股関節ピッチ軸アクチュエータA17、股関節ロール軸アクチュエータA18、膝関節ピッチ軸アクチュエータA19、足首関節ピッチ軸アクチュエータA20、足首関節ロール軸アクチュエータA21が配備されている。各関節に用いられるアクチュエータA2,A3・・・は、より好ましくは、ギア直結型で旦つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することができる。
【0135】
頭部ユニット330、体幹部ユニット340、腕部ユニット350、各脚部ユニット360などの各機構ユニット毎に、アクチュエータ駆動制御部の副制御部335,345,355R/L,365R/Lが配備されている。更に、各脚部360R,Lの足底が着床したか否かを検出する接地確認センサ391および392を装着するとともに、体幹部ユニット340内には、姿勢を計測する姿勢センサ393を装備している。
【0136】
接地確認センサ391および392は、例えば足底に設置された近接センサまたはマイクロ・スイッチなどで構成される。また、姿勢センサ393は、例えば、加速度センサとジャイロ・センサの組み合わせによって構成される。
【0137】
接地確認センサ391および392の出力によって、歩行・走行などの動作期間中において、左右の各脚部が現在立脚または遊脚何れの状態であるかを判別することができる。また、姿勢センサ393の出力により、体幹部分の傾きや姿勢を検出することができる。
【0138】
主制御部381は、各センサ391〜393の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部335,345,355R/L,365R/Lの各々に対して適応的な制御を行い、人間型ロボット装置200の上肢、体幹、および下肢が協調して駆動する全身運動パターンを実現できる。
【0139】
以上のように、人間型ロボット装置200は、各々の副制御部335,345,・・・等が、主制御部381からの受信コマンドを解釈して、各アクチュエータA2,A3・・・に対して駆動制御信号を出力し、各ユニットの駆動を制御している。これにより、人間型ロボット装置200は、目標の姿勢に安定して遷移し、安定した姿勢で歩行できる。
【0140】
また、人間型ロボット装置200における制御ユニット380では、上述したような姿勢制御のほかに、加速度センサ、タッチセンサ、接地確認センサ等の各種センサ、およびCCDカメラからの画像情報、マイクからの音声情報等を統括して処理している。制御ユニット380では、図示しないが加速度センサ、ジャイロ・センサ、タッチセンサ、距離センサ、マイク、スピーカなどの各種センサ、各アクチュエータ、CCDカメラおよびバッテリが各々対応するハブを介して主制御部381と接続されている。また、図示しないが上記RFIDリード部も主制御部381と接続されている。
【0141】
主制御部381は、上述の各センサから供給されるセンサデータや画像データおよび音声データ、或いは上記RFIDリード部からのRFID情報を順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM内の所定位置に順次格納する。また、主制御部381は、バッテリから供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM内の所定位置に格納する。DRAMに格納された各センサデータ、画像データ、音声データおよびバッテリ残量データは、主制御部381がこの人間型ロボット装置200の動作制御を行う際に利用される。
【0142】
主制御部381は、人間型ロボット装置200の電源が投入された初期時、制御プログラムを読み出し、これをDRAMに格納する。また、主制御部381は、上述のように主制御部381よりDRAMに順次格納される各センサデータ、画像データ、音声データおよびバッテリ残量データに基づいて自己および周囲の状況や、使用者からの指示および働きかけの有無などを判断する。更に、主制御部381は、この判断結果およびDRAMに格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータを駆動させることにより人間型ロボット装置200に、いわゆる「身振り」、「手振り」といった行動をとらせる。
【0143】
したがって、人間型ロボット装置200は、制御プログラムに基づいて自己および周囲の状況を判断し、使用者からの指示および働きかけに応じて自律的に行動できる。
【0144】
このような人間型ロボット装置200であっても同様に、動作範囲内に設けられたRFIDタグから情報を取得し、この情報に基づいて動作できる。また、RFIDタグに「痕跡」に相当する情報を書き込むことによって、動作範囲を共有するほかのロボット装置に自分の存在を示すことができ、「縄張(テリトリ)」をもつことができる。
【0145】
なお、ロボット装置がRFIDタグに書き込むデータは、上記ロボット装置のID、日時、前回遭遇したRFIDタグからの移動距離、前回遭遇したRFIDタグからの方角、今後移動する方角に限定されず、ロボット装置のセンサ部が取得した外部からの入力情報等、様々な情報であってもよい。
【0146】
【発明の効果】
以上詳細に説明したように、本発明に係るロボット装置は、外部から情報を取得する情報取得手段と、外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取手段と、無線タグへデータを書き込む無線タグ書込手段と、外部から取得された情報、無線タグから読み取られたデータおよび無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶する記憶手段と、情報取得手段により取得した情報と無線タグ読取手段により読み取ったデータと記憶手段に格納されたデータとに基づいて行動を制御する制御手段とを備えることによって、無線タグから情報を取得し、この情報に基づいて動作できる。また、無線タグに移動の痕跡や軌跡を残すことができる。更に、過去に検出したロボット装置の痕跡や軌跡に再び遭遇した場合、その痕跡や軌跡に基づいて次の動作を決めることができる。
【0147】
また、無線タグ読取手段で読み取られたデータと該データに対応する情報とを関連付けたテーブルを記憶手段に記憶することによって、無線タグに書き込む情報量を低減できる。
【0148】
また、本発明に係るロボット装置の制御方法によれば、外部から情報を取得する情報取得工程と、外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取工程と、無線タグへデータを書き込む無線タグ書込工程と、外部から取得された情報、無線タグから読み取られたデータおよび無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶手段に記憶する記憶工程と、情報取得工程にて取得した情報と無線タグ読取工程にて読み取ったデータと記憶手段に格納されたデータとに基づいて行動を制御する制御工程とを有することによって、無線タグから情報を取得し、この情報に基づいて動作できる。また、無線タグに移動の痕跡や軌跡を残すことができる。更に、過去に検出したロボット装置の痕跡や軌跡に再び遭遇した場合、その痕跡や軌跡に基づいて次の動作を決めることができる。
【0149】
また、本発明に係るロボット装置移動制御システムは、所定エリア内をロボット装置が移動するロボット装置移動システムにおいて、所定エリア内には複数の無線タグが設置され、ロボット装置は、所定エリアを移動して無線タグと遭遇した場合、遭遇した無線タグへデータを書き込むまたは無線タグからデータを読み取ることにより、無線タグからの情報に基づいて動作できる。また、無線タグに移動の痕跡や軌跡を残すことができる。更に、過去に検出したロボット装置の痕跡や軌跡に再び遭遇した場合、その痕跡や軌跡に基づいて次の動作を決めることができる。
【図面の簡単な説明】
【図1】本発明の具体例として示すロボット装置の外観構成を説明する斜視図である。
【図2】上記ロボット装置の内部構成を説明するブロック図である。
【図3】上記ロボット装置におけるコントローラの機能的構成を説明する図である。
【図4】上記ロボット装置の感情/本能モデル部によって管理される感情モデルと本能モデルを説明する図である。
【図5】上記ロボット装置の行動モデルを説明する状態遷移図である。
【図6】上記ロボット装置の姿勢遷移機構部が記憶するノードとアークとで関連付けされた有向グラフを示す図である。
【図7】上記ロボット装置のID認識部を説明する構成図である。
【図8】本具体例で用いるRFIDタグのRFID信号のフォーマットを説明する図である。
【図9】上記ロボット装置がRFIDタグから情報を読み取る場合について説明する図である。
【図10】上記ロボット装置がRFIDタグに情報を書き込む場合について説明する図である。
【図11】IDテーブル記憶部に作成されるIDテーブルの例を説明する図である。
【図12】RFID信号フォーマットに基づいてRFIDタグに直接書き込まれるデータの例を説明する図である。
【図13】本発明を適用した人間型ロボット装置を前方から眺望した斜視図である。
【図14】本発明を適用した人間型ロボット装置を後方から眺望した斜視図である。
【図15】上記人間型ロボット装置の関節自由度構成を説明する模式図である。
【図16】上記人間型ロボット装置の制御システム構成を説明する模式図である。
【符号の説明】
1 ロボット装置、10 コントローラ、11 バッテリ、12 バッテリセンサ、13 熱センサ、14 内部センサ部、15 マイク(マイクロフォン)、16 CCDカメラ、17 タッチセンサ、18 スピーカ、19 RFIDリード部、20 RFIDライト部、50 センサ入力処理部、51 感情/本能モデル部、52 行動決定機構部、53 姿勢遷移機構部、54 制御機構部、55 音声合成部、56 音響処理部、57 RFID処理部、70 RFIDフォーマット、71 ヘッダ部、72 識別子部、73 データ部、74 ROM領域、75 書込領域[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a robot apparatus and a control method thereof, for example, a robot apparatus in which an action appears autonomously and the action is controlled in accordance with externally input information, and a control method of the robot apparatus. And a robot device movement control system.
[0002]
[Prior art]
A mechanical device that performs a motion similar to the motion of a human or animal using, for example, an electric or magnetic action is generally called a “robot device”. Robotic devices have begun to spread in Japan since the late 1960s, and many of them have been industrial robotic devices (Industrial) such as manipulators and transfer robotic devices for the purpose of automation and unmanned production work in factories. Robot).
[0003]
A stationary type robot apparatus, such as an arm type robot apparatus, which is installed and used at a specific place, operates only in a fixed and local work space such as an assembly and sorting operation of parts. On the other hand, a mobile robot device can freely move on a predetermined path or a non-path in a non-restricted work space to perform predetermined or arbitrary human work, or perform human or dog or other life A wide variety of services that can replace the body can be provided.
[0004]
There are crawler type and tire type as a means of movement. Among them, a leg type mobile robot device is unstable and makes posture control and walking control difficult.However, climbing up and down stairs and ladders, climbing over obstacles, leveling -It is excellent in that it can realize a flexible walking / running operation without distinguishing between rough terrain.
[0005]
Recently, we have modeled the so-called pet-type robot device that imitates the body mechanism and operation of a four-legged animal such as a dog and cat, or the body mechanism and operation of an animal that walks two-legged upright such as a human. Research and development on legged mobile robots, such as “humanoid robots” designed in the form of “humanoid robots,” are progressing, and expectations for practical use are increasing.
[0006]
In the case of a pet-type robot device for entertainment that imitates pet animals such as dogs and cats, it has a strong property of coherence with life, that is, "symbiosis" with humans. The pet type robot device is not only easier than handling actual animals, but also has higher functions and higher added value than conventional toys.
[0007]
The humanoid robot device coexists with a human in a human living environment and can perform various simple tasks, dangerous tasks, and difficult tasks in industrial activities and production activities. For example, maintenance work in nuclear power plants, thermal power plants, petrochemical plants, transport and assembly of parts in manufacturing factories, cleaning work in high-rise buildings, rescue activities in fire sites and other places, etc. Have been found. The humanoid robot device autonomously moves to a desired site while bipedally walking over or bypassing obstacles, and faithfully performs the instructed work.
[0008]
In the conventional toy machine, the relationship between the user operation and the response operation is fixed, and the user feels unsatisfactory, but the above-described pet-type robot device and the human-type robot device follow the time series model of the motion generation. This time-series model can be changed in response to detecting an external stimulus such as a user operation. That is, since it has a "learning effect", it is possible to provide an operation pattern that does not get tired of the user and matches the user's preference.
[0009]
Such a robot device has an actuator having a predetermined degree of freedom and a mechanical unit in which a sensor or the like for detecting a predetermined physical quantity is arranged at a predetermined position, and a control unit using a microcomputer controls an external device. It is configured to perform a predetermined operation on information (for example, see Patent Document 1). Therefore, it dynamically responds to user input such as “praise”, “play (love)”, “stroke”, “scold”, and “hit”, and “rejoices” A training simulation can be enjoyed by programming to perform emotional actions such as "snail", "scratch", "bark", and "shake the tail". In addition, such a robot device can freely and autonomously move in an operation space while appropriately moving over and bypassing obstacles by walking on two or four legs in a general home as an operation space.
[0010]
As described above, if the robot device can approach the behavior of the actual animal more, the biological feeling of the robot device further increases, and the user feels a closer feeling and satisfaction with the robot device. This also improves the entertainment and amusement properties of the robot device.
[0011]
Although animals such as dogs, bears, pandas, and wolves have seasonal variations, their living spheres are not disorderly, and the range and area of their living space are almost determined by biological habits. The range is sometimes called "Nawabali". In order for an animal to own the area or area of its living space, there are various ways to indicate that area to other animals, but generally when moving the area or area of its own living space, There are known methods of leaving nail marks and footprints as traces, and exudates and their odors. Animals, such as dogs and bears, can secure food from other animals, secure family safety, etc. by possessing their own living space. In addition, finding the traces of your nails and footprints that the animal moved and left in the past again can be used to confirm the trajectory of your movement and is very effective for grasping your own positional information .
[0012]
[Patent Document 1]
JP 2001-154679 A
[0013]
[Problems to be solved by the invention]
By the way, as a method for leaving traces and trajectories of movement when the above-mentioned various robot devices move autonomously, (1) unevenness (shape) that can be recognized again by physical action (pressure) And (2) a method of leaving a substance having a detectable element such as "smell" or "color".
[0014]
However, when the working space (working space) is made of a hard member, it is difficult to leave irregularities by physical action, and a substance having a detectable element such as “smell” or “color” is used. The method of leaving has a problem that the amount of information of the subject to be examined is small and it is not possible to cope with various kinds of preferences of the user.
[0015]
Therefore, the present invention has been proposed in view of such a situation, it is possible to leave traces and trajectories of movement, and when encountering traces and trajectories of the past again, referring to these traces and trajectories A robot device that calculates its own position information and can determine the next movement or action, a control method of a robot device that leaves a trace or trajectory and determines the next action with reference to past traces or trajectories, An object of the present invention is to provide a robot device movement control system that controls a robot device so as to determine a next action with reference to traces and trajectories in the past while leaving a trajectory.
[0016]
[Means for Solving the Problems]
In order to achieve the above-described object, a robot apparatus according to the present invention includes a robot apparatus in which an action appears autonomously according to an internal state and an action is controlled according to external input information. Information acquisition means for acquiring the data, a wireless tag reading means for reading data recorded on the wireless tag from a wireless tag provided on an external object, a wireless tag writing means for writing data to the wireless tag, Storage means for storing the acquired information, data read from the wireless tag, and a history of additional information when the wireless tag writing means has written data to the wireless tag, and information and wireless tag reading obtained by the information obtaining means Control means for controlling an action based on the data read by the means and the data stored in the storage means.
[0017]
Here, the additional information includes position information, mileage, writing date and time information, data written to the wireless tag, and information acquired by the information acquiring means at the time of writing.
[0018]
Further, the robot apparatus further includes an expression unit that expresses an action, and a driving unit that drives the expression unit, and the control unit reads the information acquired by the information acquisition unit and the information read by the wireless tag reading unit. It is preferable to control the driving unit based on the data and the data stored in the storage unit.
[0019]
Here, the information acquisition means is a contact detection means for detecting a contact. When the control means detects the contact by the contact detection means, the control means executes the reading operation in the wireless tag reading means for a certain period of time or writes the wireless tag. The writing operation in the means may be performed. The information acquisition means may be a non-contact detection means for detecting an external state by non-contact. When the control means detects the external state by the non-contact detection means, a reading operation by the wireless tag reading means or a radio tag It is also possible to execute a writing operation in the writing means.
[0020]
The data recorded on the wireless tag is an authentication number corresponding to the content of the information, and is stored in the storage unit as a table in which the content of the information is associated with the authentication number.
[0021]
In order to achieve the above-described object, a control method of a robot device according to the present invention includes a method of controlling a robot device in which an action appears autonomously according to an internal state and the action is controlled according to input information from outside. A method for acquiring information from outside in a robot device, a wireless tag reading step of reading data recorded on a wireless tag from a wireless tag provided on an external object, And a history of information acquired from outside, data read from the wireless tag, and additional information when data is written to the wireless tag in the wireless tag writing step. Control the behavior based on the storage step, the information acquired in the information acquisition step, the data read in the wireless tag reading step, and the data stored in the storage means. And having a that control step.
[0022]
Here, the additional information includes position information, mileage, writing date and time information, data written to the wireless tag, and information obtained in the information obtaining step at the time of writing.
[0023]
Further, in the control method of the robot apparatus, a driving step of driving an expression means expressing an action is further provided, and in the control step, information obtained in the information obtaining step and data read in the wireless tag reading step are provided. It is preferable to control the driving of the expression means in the driving step based on the data stored in the storage means.
[0024]
In order to achieve the above object, a robot device movement control system according to the present invention is a robot device movement system in which a robot device moves in a predetermined area, wherein a plurality of wireless tags are installed in the predetermined area, The robot apparatus is characterized in that when moving in a predetermined area and encountering a wireless tag, data is written to or read from the encountered wireless tag.
[0025]
Here, the robot apparatus includes: an information acquisition unit that acquires information from the outside; a wireless tag reading unit that reads data recorded on the wireless tag from a wireless tag provided on an external object; and data to the wireless tag. Wireless tag writing means for writing, information obtained from outside, data read from the wireless tag, and storage means for storing a history of additional information when the wireless tag writing means writes data to the wireless tag; A control unit for controlling an action based on the information obtained by the obtaining unit, the data read by the wireless tag reading unit, and the data stored in the storage unit; It is characterized in that data is written to the encountered wireless tag by the wireless tag writing means.
[0026]
The data written by the wireless tag writing means at this time is information on the robot device, such as identification information of the robot device, the date and time of encounter with the wireless tag, and the moving distance and direction from other wireless tags encountered in the past. , The traveling direction, the traveling distance, and the information acquired by the information acquiring means.
[0027]
Also, when the robot device moves in a predetermined area and encounters a wireless tag, the wireless tag reading means reads data recorded on the encountered wireless tag, and the control means obtains the read data and the information by the information obtaining means. Based on the information thus obtained and the data stored in the recording means, calculation of own position information, determination of the next movement target, or calculation of the distance and direction to the next movement target are executed.
[0028]
The additional information includes position information, mileage, writing date and time information, data written to the wireless tag, and information obtained by the information obtaining means at the time of writing.
[0029]
Further, the robot device has an expression unit that expresses an action, and a driving unit that drives the expression unit, and the control unit controls the information acquired by the information acquisition unit and the data read by the wireless tag reading unit. And the driving unit is controlled based on the data stored in the storage unit.
[0030]
BEST MODE FOR CARRYING OUT THE INVENTION
According to the present invention, a battery-operated mobile robot device that can freely move within an operation range without limitation is obtained by acquiring information from a wireless tag provided within the operation range, and thereby can operate based on this information. It is. In particular, by providing a wireless tag with a writing means for writing information corresponding to "signs", it is possible to indicate its own existence to other robot devices sharing an operation range, and to have a "territory" It is the technology that realized.
[0031]
The present invention can be suitably applied to a mobile robot device that moves only on a specific route. Further, in the specific examples shown below, a four-legged walking robot device is used. However, in addition to the two-legged, four-legged, six-legged, etc., legged walking robot device, The present invention can also be applied to a robot device employing a moving method such as a crawler type or a tire type.
[0032]
Hereinafter, specific examples of the present invention will be described in detail with reference to the drawings. FIG. 1 is a perspective view showing an external configuration example of a robot device shown as a specific example of the present invention, and FIG. 2 is a block diagram showing an electrical configuration example thereof. This robot device is an autonomous robot device that behaves autonomously according to the surrounding environment (external factors) and the internal state (internal factors). Although it is a pet robot, the form of the robot device is not limited to this, and may be a bipedal walking robot imitating other animal shapes, humans, or the like.
[0033]
In FIG. 1, a
[0034]
As shown in FIG. 2, the
[0035]
The
[0036]
Here, the RFID (Radio Frequency Identification) is a non-contact type automatic recognition technology, and reads information via a radio wave or the like from a medium such as a tag in which an IC and a small antenna are incorporated, for example. Tags (tags) serving as media are called RFID tags, wireless tags, IC tags, and the like, and have various shapes such as a card shape, a label shape, and a microchip shape. The RFID includes a battery-incorporated type and a battery-less type, and the battery-incorporated type is capable of radio wave oscillation. In addition, there are a type that is used only for reading, a type that can be written only once, and a type that can be written multiple times. For example, a medium frequency band of 125 to 135 KHz, a short wave band of 13.56 MHz, and a microwave band of 2.45 GHz can be selected as the operating frequency according to the operating conditions. RFID identification technology can manage product information by embedding an RFID tag in any product, so it is not only expected to replace barcodes, but also gates and doors, management of passage, delivery management of parcels and packages, etc. Have been proposed.
[0037]
The RFID read
[0038]
Note that the information transmission method of the RFID system includes an electromagnetic induction method, an electromagnetic coupling method, a microwave method, an electrostatic coupling method, an optical method, and the like. Information reading means corresponding to the method may be used, or a plurality of methods may be used. Furthermore, these may be configured as a read / write unit having a reading function and a writing function.
[0039]
Joint portions of the
[0040]
The
[0041]
The
[0042]
The
[0043]
The
[0044]
That is, the
[0045]
Further, the
[0046]
Further, the
[0047]
Further, the
[0048]
As described above, the
[0049]
Next, a functional configuration example of the
[0050]
The
[0051]
The sensor
[0052]
That is, the sensor
[0053]
Further, the sensor
[0054]
Further, the sensor
[0055]
The sensor
[0056]
Further, the sensor
[0057]
Here, the
[0058]
Further, for example, information is read from the RFID tag, and further detailed information such as whether or not the tag has been recognized before, that is, whether or not the place has been visited before, or whether or not another robot device has been visited, can be obtained. It has become recognizable. Further, information obtained from the
[0059]
The emotion /
[0060]
The instinct model is composed of, for example, three instinct units 61A, 61B, and 61C, and these instinct units 61A to 61C each have a state (degree) of instinct of “appetite”, “sleep desire”, and “exercise desire”. Is represented by, for example, a value in a range of 0 to 100, and the value is changed based on state recognition information from the sensor
[0061]
The emotion /
[0062]
The action determining
[0063]
Specifically, for example, in FIG. 5, the state ST3 represents an action of “standing”, the state ST4 represents an action of “sleeping”, and the state ST5 is “chasing the ball”. It represents the action of. For example, in state ST5 of “following the ball”, when state recognition information that “the ball is no longer visible” is supplied, the state transits from state ST5 to ST3. As a result, it is determined that the action of "standing" corresponding to the state ST3 is to be taken next. Further, for example, in the state ST4 of “sleeping”, when the state recognition information of “get up” is supplied, the state transits from the state ST4 to ST3. As a result, it is determined that the action of "standing" corresponding to the state ST3 is to be taken next.
[0064]
Here, when the behavior determining
[0065]
In addition, as described above, the action
[0066]
As a result, the behavior
[0067]
In addition, the behavior
[0068]
For example, when the emotion / instinct state information indicates “angry” and the state recognition information indicates “the palm is put in front of the eyes”, / Even if the instinct status information indicates that you are hungry or that you are not hungry, generate action command information that allows you to take an action such as "turn to the side" This is sent to the
[0069]
Further, the
[0070]
The posture
[0071]
Here, the posture that can be changed next from the current posture is, for example, the physical shape of the robot such as the shape and weight of the body, hands and feet, the connection state of each part, and the direction and angle at which the joint bends. Actuator 3AA1To 5A1And 5A2And the mechanism.
[0072]
The next posture includes a posture that can directly transition from the current posture and a posture that cannot directly transition. For example, a four-legged robot can directly transition from lying down with its limbs throwing down to lying down, but cannot directly transition to standing up. It is necessary to perform a two-stage operation of pulling down to a prone position and then standing up. There are also postures that cannot be safely executed. For example, a four-legged robot easily falls down when trying to banzai with both front legs raised from its standing posture.
[0073]
For this reason, the posture
[0074]
That is, for example, as shown in FIG. 6, the posture
[0075]
Specifically, when the behavior command information is supplied from the
[0076]
As a result, for example, when the action command information of “close” is supplied when the current attitude is at the node NODE2 indicating the attitude of “down”, the attitude
[0077]
In addition, when the current state is in the node NODE2 indicating the posture of “down” and the action command information of “walking” is supplied, the posture
[0078]
The
[0079]
On the other hand, the
[0080]
The
[0081]
In addition to the above-described configuration, the
[0082]
FIG. 7 shows a configuration example of the
[0083]
7 determines whether or not the RFID signal output from the RFID read
[0084]
Here, the format of the RFID signal will be described with reference to FIG. The
[0085]
The RFID tag has a large overall capacity, and has a
[0086]
In this case, in the
[0087]
In the latter part, the latter case in which an RFID tag having a writable area is used will be described.
[0088]
In general, since an RFID tag has a larger amount of information that can be stored than a barcode, it has a high object identification capability and can include detailed data of the object. In addition, since RFID can perform information communication in a non-contact manner, it has an advantage in that it has excellent durability and is not affected by dirt, dust, and the like. It is also characterized by a very high recognition ability, such as being able to read even if the lead portion and the RFID tag are relatively moved, and being able to recognize an object even in the dark regardless of the amount of light. Various other formats can be used as the format of the RFID signal.
[0089]
According to the above-described specific example, by providing the RFID read
[0090]
By providing the RFID read
[0091]
Hereinafter, a case where the
[0092]
As shown in FIG. 9, a plurality of RFID tags 80(0,0)~ 80(N, n)Is installed. Here, in the area A, readable and writable RFID tags are arranged at regular intervals (1 meter intervals).
[0093]
In this specific example, the description will be made on the assumption that the RFID tags are arranged in a grid in the area A, and the arrangement positions of the individual RFID tags are determined in advance. The
[0094]
The
[0095]
FIG. 9 shows an example in which the
[0096]
First, the
[0097]
The
[0098]
The
[0099]
Here, the information related to the
[0100]
The items of the history of the
[0101]
When data can be written directly to the RFID tag, the
[0102]
The
[0103]
FIG. 11 shows an example of an ID table created in the ID
[0104]
The content of information corresponding to the ID number of each RFID tag is stored in association with the ID table illustrated in FIG. For example, the
[0105]
[0106]
Subsequently, a case where the
[0107]
When the
[0108]
The
[0109]
As a result of the determination, if it is determined that the data is recorded in the ID
[0110]
The
[0111]
The
[0112]
As described above, the
[0113]
The data that the robot device writes to the RFID tag is not limited to the ID of the robot device, the date and time, the moving distance from the previously encountered RFID tag, the direction from the previously encountered RFID tag, and the direction to move in the future. Various information such as external input information acquired by the sensor unit may be used.
[0114]
In this specific example, the description is made such that the RFID tags are arranged in a lattice shape and the arrangement positions of the individual RFID tags are determined in advance. However, the RFID tags do not need to be arranged in an orderly manner, It may be provided irregularly within the operating range of the
[0115]
In this specific example, the above-described series of processes is performed by causing the
[0116]
In addition to the method of installing the program from a removable recording medium, the program may be wirelessly transferred from a download site via an artificial satellite for digital satellite broadcasting, or may be wirelessly transferred via a network such as a LAN (Local Area Network) or the Internet. In the
[0117]
Processing steps for describing a program for causing the
[0118]
The case where the present invention is applied to a pet-like robot device has been described above, but the present invention is not limited to this, and is widely applied to various robot devices such as, for example, industrial robots and humanoid robots. it can.
[0119]
Specifically, an example in which the present invention is applied to a humanoid robot device will be described with reference to the drawings. 13 and 14 show the
[0120]
The
[0121]
Each of the left and right
[0122]
As shown in FIG. 15, the
[0123]
The
[0124]
The trunk has three degrees of freedom: a
[0125]
Each leg constituting the lower limb includes a hip
[0126]
Summarizing the above, the entire
[0127]
Each degree of freedom of the
[0128]
FIG. 16 schematically shows a control system configuration of the
[0129]
The operation of the entire
[0130]
Each joint degree of freedom in the
[0131]
The
[0132]
Also, the
[0133]
The
[0134]
The
[0135]
The
[0136]
The ground
[0137]
Based on the outputs of the ground
[0138]
The
[0139]
As described above, in the
[0140]
In the
[0141]
The
[0142]
The
[0143]
Therefore, the
[0144]
Similarly, even such a
[0145]
The data that the robot device writes to the RFID tag is not limited to the ID of the robot device, the date and time, the moving distance from the previously encountered RFID tag, the direction from the previously encountered RFID tag, and the direction to move in the future. Various information such as external input information acquired by the sensor unit may be used.
[0146]
【The invention's effect】
As described in detail above, the robot apparatus according to the present invention includes an information acquisition unit that acquires information from outside, and a wireless tag that reads data recorded on the wireless tag from a wireless tag provided on an external object. Reading means, wireless tag writing means for writing data to the wireless tag, and information obtained from the outside, data read from the wireless tag, and additional information when the wireless tag writing means writes data to the wireless tag. A storage unit for storing a history; and a control unit for controlling an action based on information acquired by the information acquisition unit, data read by the wireless tag reading unit, and data stored in the storage unit. And can operate based on this information. Also, traces and tracks of movement can be left on the wireless tag. Further, when a trace or trajectory of the robot device detected in the past is encountered again, the next operation can be determined based on the trace or trajectory.
[0147]
Further, by storing a table in which the data read by the wireless tag reading unit and the information corresponding to the data are stored in the storage unit, the amount of information written to the wireless tag can be reduced.
[0148]
Further, according to the control method of the robot apparatus according to the present invention, an information acquiring step of acquiring information from outside, and a wireless tag reading for reading data recorded on the wireless tag from a wireless tag provided on an external object A wireless tag writing step of writing data to the wireless tag, and a history of information obtained from outside, data read from the wireless tag, and additional information when the wireless tag writing means writes data to the wireless tag And a control step of controlling an action based on the information obtained in the information obtaining step, the data read in the wireless tag reading step, and the data stored in the storage means. Thus, information can be obtained from the wireless tag, and operation can be performed based on this information. Also, traces and tracks of movement can be left on the wireless tag. Further, when a trace or trajectory of the robot device detected in the past is encountered again, the next operation can be determined based on the trace or trajectory.
[0149]
Further, in the robot device movement control system according to the present invention, in the robot device movement system in which the robot device moves in a predetermined area, a plurality of wireless tags are installed in the predetermined area, and the robot device moves in the predetermined area. If the user encounters a wireless tag, the user can operate based on information from the wireless tag by writing data to or reading data from the encountered wireless tag. Also, traces and tracks of movement can be left on the wireless tag. Further, when a trace or trajectory of the robot device detected in the past is encountered again, the next operation can be determined based on the trace or trajectory.
[Brief description of the drawings]
FIG. 1 is a perspective view illustrating an external configuration of a robot device shown as a specific example of the present invention.
FIG. 2 is a block diagram illustrating an internal configuration of the robot device.
FIG. 3 is a diagram illustrating a functional configuration of a controller in the robot device.
FIG. 4 is a diagram illustrating an emotion model and an instinct model managed by an emotion / instinct model unit of the robot apparatus.
FIG. 5 is a state transition diagram illustrating an action model of the robot device.
FIG. 6 is a diagram showing a directed graph associated with arcs and nodes stored in a posture transition mechanism of the robot apparatus.
FIG. 7 is a configuration diagram illustrating an ID recognition unit of the robot device.
FIG. 8 is a diagram illustrating a format of an RFID signal of an RFID tag used in this specific example.
FIG. 9 is a diagram illustrating a case where the robot device reads information from an RFID tag.
FIG. 10 is a diagram illustrating a case where the robot device writes information to an RFID tag.
FIG. 11 is a diagram illustrating an example of an ID table created in an ID table storage unit.
FIG. 12 is a diagram illustrating an example of data directly written to an RFID tag based on an RFID signal format.
FIG. 13 is a perspective view of a humanoid robot device to which the present invention is applied, as viewed from the front.
FIG. 14 is a perspective view of a humanoid robot device to which the present invention is applied, as viewed from behind.
FIG. 15 is a schematic diagram illustrating a configuration of a degree of freedom of a joint of the humanoid robot device.
FIG. 16 is a schematic diagram illustrating a control system configuration of the humanoid robot device.
[Explanation of symbols]
1 robot apparatus, 10 controller, 11 battery, 12 battery sensor, 13 heat sensor, 14 internal sensor section, 15 microphone (microphone), 16 CCD camera, 17 touch sensor, 18 speaker, 19 RFID read section, 20 RFID write section,
Claims (23)
外部から情報を取得する情報取得手段と、
外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取手段と、
上記無線タグへデータを書き込む無線タグ書込手段と、
上記外部から取得された情報、上記無線タグから読み取られたデータおよび上記無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶する記憶手段と、
上記情報取得手段により取得した情報と上記無線タグ読取手段にて読み取ったデータと上記記憶手段に格納されたデータとに基づいて上記行動を制御する制御手段と
を備えることを特徴とするロボット装置。In a robot device in which an action is made to appear autonomously according to an internal state and the above-mentioned action is controlled according to input information from the outside,
Information acquisition means for acquiring information from outside;
Wireless tag reading means for reading data recorded on the wireless tag from a wireless tag provided on an external object,
Wireless tag writing means for writing data to the wireless tag,
Storage means for storing the information obtained from the outside, data read from the wireless tag, and a history of additional information when the wireless tag writing means has written data to the wireless tag;
A robot apparatus comprising: a control unit that controls the behavior based on information acquired by the information acquisition unit, data read by the wireless tag reading unit, and data stored in the storage unit.
上記表出手段を駆動する駆動手段とを有し、
上記制御手段は、上記情報取得手段により取得した情報と、上記無線タグ読取手段によって読み取ったデータと、上記記憶手段に格納されたデータとに基づいて、上記駆動手段を制御することを特徴とする請求項1記載のロボット装置。An expression means for expressing the above behavior,
Driving means for driving the above-mentioned expression means,
The control unit controls the driving unit based on information acquired by the information acquisition unit, data read by the wireless tag reading unit, and data stored in the storage unit. The robot device according to claim 1.
上記制御手段は、上記情報取得手段により取得した情報と、上記無線タグ読取手段によって読み取ったデータと、上記記憶手段に格納されたデータとに基づいて上記移動手段の駆動を制御することを特徴とする請求項3記載のロボット装置。The expression means is a moving means for moving the robot device,
The control unit controls the driving of the moving unit based on information acquired by the information acquiring unit, data read by the wireless tag reading unit, and data stored in the storage unit. The robot apparatus according to claim 3, wherein
上記制御手段は、上記接触検出手段にて接触が検出されたとき、一定期間上記無線タグ読取手段における読み取り動作を実行する、または上記無線タグ書込手段における書込動作を実行することを特徴とする請求項1記載のロボット装置。The information acquisition unit is a contact detection unit that detects a contact,
The control means, when a contact is detected by the contact detection means, executes a reading operation in the wireless tag reading means for a predetermined period, or executes a writing operation in the wireless tag writing means. The robot device according to claim 1, wherein
上記制御手段は、上記非接触検出手段により外部の状態を検出したとき、一定期間、上記無線タグ読取手段における読み取り動作または上記無線タグ書込手段における書込動作を実行することを特徴とする請求項1記載のロボット装置。The information acquisition means is a non-contact detection means for detecting an external state by non-contact,
The control means executes a reading operation in the wireless tag reading means or a writing operation in the wireless tag writing means for a certain period when the non-contact detecting means detects an external state. Item 4. The robot device according to Item 1.
上記ロボット装置において
外部から情報を取得する情報取得工程と、
外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取工程と、
上記無線タグへデータを書き込む無線タグ書込工程と、
上記外部から取得された情報、上記無線タグから読み取られたデータおよび上記無線タグ書込工程にて無線タグへデータを書き込んだときの付加情報の履歴を記憶手段に記憶する記憶工程と、
上記情報取得工程にて取得した情報と上記無線タグ読取工程にて読み取ったデータと上記記憶手段に格納されたデータとに基づいて上記行動を制御する制御工程と
を有することを特徴とするロボット装置の制御方法。A control method for a robot apparatus in which an action is made to appear autonomously according to an internal state and the action is controlled according to input information from the outside,
An information acquisition step of acquiring information from outside in the robot device;
A wireless tag reading step of reading data recorded on the wireless tag from a wireless tag provided on an external object,
A wireless tag writing step of writing data to the wireless tag,
A storage step of storing in the storage means the information obtained from the outside, data read from the wireless tag, and a history of additional information when data is written to the wireless tag in the wireless tag writing step;
A robot apparatus comprising: a control step of controlling the behavior based on the information obtained in the information obtaining step, the data read in the wireless tag reading step, and the data stored in the storage means. Control method.
上記制御工程では、上記情報取得工程にて取得した情報と、上記無線タグ読取工程にて読み取ったデータと、上記記憶手段に格納されたデータとに基づいて、上記駆動工程における表出手段の駆動を制御することを特徴とする請求項12記載のロボット装置の制御方法。Having a driving step of driving the expression means expressing the action,
In the control step, based on the information acquired in the information acquiring step, the data read in the wireless tag reading step, and the data stored in the storage means, the driving of the expression means in the driving step is performed. 13. The method according to claim 12, wherein the control is performed.
上記読取制御工程では、上記接触検出工程にて接触を検出したとき、一定期間、上記無線タグ読取工程を実行し、
上記書込制御工程では、上記接触検出工程にて接触を検出したとき、一定期間、上記無線タグ書込工程工程を実行することを特徴とする請求項12記載のロボット装置の制御方法。The information acquisition step is a contact detection step of detecting a contact,
In the reading control step, when a contact is detected in the contact detecting step, the wireless tag reading step is executed for a certain period,
13. The method according to claim 12, wherein in the writing control step, when a contact is detected in the contact detecting step, the wireless tag writing step is executed for a predetermined period.
上記読取制御工程では、上記非接触検出工程にて外部の状態を検出したとき、一定期間、上記無線タグ読取工程を実行し、
上記書込制御工程では、上記非接触検出工程にて外部の状態を検出したとき、一定期間、上記無線タグ書込工程を実行することを特徴とする請求項12記載のロボット装置の制御方法。The information acquisition step is a non-contact detection step of detecting an external state by non-contact,
In the reading control step, when the external state is detected in the non-contact detecting step, the wireless tag reading step is executed for a certain period,
13. The control method according to claim 12, wherein in the writing control step, when an external state is detected in the non-contact detection step, the wireless tag writing step is performed for a certain period.
上記所定エリア内には複数の無線タグが設置され、
上記ロボット装置は、上記所定エリアを移動して無線タグと遭遇した場合、遭遇した無線タグへデータを書き込むまたは無線タグからデータを読み取ることを特徴とするロボット装置移動制御システム。In a robot device movement control system for controlling a robot device moving in a predetermined area,
A plurality of wireless tags are installed in the predetermined area,
The robot device movement control system, wherein when the robot device moves in the predetermined area and encounters a wireless tag, the robot device writes data to or reads data from the encountered wireless tag.
外部から情報を取得する情報取得手段と、
外部の物体に設けられた無線タグから該無線タグに記録されているデータを読み取る無線タグ読取手段と、
上記無線タグへデータを書き込む無線タグ書込手段と、
上記外部から取得された情報、上記無線タグから読み取られたデータおよび上記無線タグ書込手段が無線タグへデータを書き込んだときの付加情報の履歴を記憶する記憶手段と、
上記情報取得手段により取得した情報と上記無線タグ読取手段にて読み取ったデータと上記記憶手段に格納されたデータとに基づいて上記行動を制御する制御手段とを備え、
上記ロボット装置は、上記所定エリアを移動して上記無線タグと遭遇した場合、遭遇した無線タグに対して、上記無線タグ書込手段にてデータを書き込むことを特徴とする請求項18記載のロボット装置移動制御システム。The robot device is
Information acquisition means for acquiring information from outside;
Wireless tag reading means for reading data recorded on the wireless tag from a wireless tag provided on an external object,
Wireless tag writing means for writing data to the wireless tag,
Storage means for storing the information obtained from the outside, data read from the wireless tag, and a history of additional information when the wireless tag writing means has written data to the wireless tag;
Control means for controlling the behavior based on the information obtained by the information obtaining means, the data read by the wireless tag reading means, and the data stored in the storage means,
19. The robot according to claim 18, wherein when the robot device moves in the predetermined area and encounters the wireless tag, the robot device writes data to the encountered wireless tag by the wireless tag writing unit. Equipment movement control system.
上記無線タグ読取手段は、遭遇した無線タグに記録されたデータを読み出し、上記制御手段は、読み出したデータと上記情報取得手段により取得した情報と上記記録手段に格納されたデータとに基づいて、自己の位置情報の算出、次の移動目標の決定、若しくは次の移動目標までの距離および方向の算出を実行することを特徴とする請求項19記載のロボット装置移動制御システム。When the robot device moves in the predetermined area and encounters the wireless tag,
The wireless tag reading means reads the data recorded in the encountered wireless tag, the control means, based on the read data and the information acquired by the information acquisition means and the data stored in the recording means, 20. The robot apparatus movement control system according to claim 19, wherein calculation of own position information, determination of a next movement target, or calculation of a distance and a direction to the next movement target are performed.
上記表出手段を駆動する駆動手段とを有し、
上記制御手段は、上記情報取得手段により取得した情報と、上記無線タグ読取手段によって読み取ったデータと、上記記憶手段に格納されたデータとに基づいて、上記駆動手段を制御することを特徴とする請求項19記載のロボット装置移動制御システム。An expression means for expressing the above behavior,
Driving means for driving the above-mentioned expression means,
The control unit controls the driving unit based on information acquired by the information acquisition unit, data read by the wireless tag reading unit, and data stored in the storage unit. The movement control system of a robot device according to claim 19.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003049930A JP2004255529A (en) | 2003-02-26 | 2003-02-26 | Robot device, control method thereof, and movement control system for robot device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003049930A JP2004255529A (en) | 2003-02-26 | 2003-02-26 | Robot device, control method thereof, and movement control system for robot device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004255529A true JP2004255529A (en) | 2004-09-16 |
Family
ID=33115509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003049930A Withdrawn JP2004255529A (en) | 2003-02-26 | 2003-02-26 | Robot device, control method thereof, and movement control system for robot device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004255529A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009034806A (en) * | 2007-07-31 | 2009-02-19 | Ind Technol Res Inst | Structure for applying radio recognizing technique to electronic robot operation sequential control |
JP2009523245A (en) * | 2006-01-11 | 2009-06-18 | ジュン,ヒュン−チュル | Construction method of location management system using RFID series |
JP2010528886A (en) * | 2007-06-08 | 2010-08-26 | 本田技研工業株式会社 | Motion planning method, motion planning system, and recording medium |
CN107303672A (en) * | 2016-04-19 | 2017-10-31 | 上海技美科技股份有限公司 | The method that common collaboration robot, robot system and common collaboration robot perform operation task |
WO2020022196A1 (en) * | 2018-07-25 | 2020-01-30 | 愛知製鋼株式会社 | System for vehicle |
-
2003
- 2003-02-26 JP JP2003049930A patent/JP2004255529A/en not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009523245A (en) * | 2006-01-11 | 2009-06-18 | ジュン,ヒュン−チュル | Construction method of location management system using RFID series |
JP2010528886A (en) * | 2007-06-08 | 2010-08-26 | 本田技研工業株式会社 | Motion planning method, motion planning system, and recording medium |
JP2009034806A (en) * | 2007-07-31 | 2009-02-19 | Ind Technol Res Inst | Structure for applying radio recognizing technique to electronic robot operation sequential control |
CN107303672A (en) * | 2016-04-19 | 2017-10-31 | 上海技美科技股份有限公司 | The method that common collaboration robot, robot system and common collaboration robot perform operation task |
WO2020022196A1 (en) * | 2018-07-25 | 2020-01-30 | 愛知製鋼株式会社 | System for vehicle |
CN112513764A (en) * | 2018-07-25 | 2021-03-16 | 爱知制钢株式会社 | System for vehicle |
US11687088B2 (en) | 2018-07-25 | 2023-06-27 | Aichi Steel Corporation | Vehicular system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11845187B2 (en) | Transferable intelligent control device | |
US6493606B2 (en) | Articulated robot and method of controlling the motion of the same | |
JP4207336B2 (en) | Charging system for mobile robot, method for searching for charging station, mobile robot, connector, and electrical connection structure | |
US7219064B2 (en) | Legged robot, legged robot behavior control method, and storage medium | |
US6505098B1 (en) | Robot system, robot device, and its cover | |
US6952629B2 (en) | Robot apparatus, control method for robot apparatus, and toy for robot apparatus | |
US20060064202A1 (en) | Environment identification device, environment identification method, and robot device | |
JP2001121455A (en) | Charge system of and charge control method for mobile robot, charge station, mobile robot and its control method | |
JP2004148439A (en) | Spherical robot and spherical robot control method | |
WO2000067961A1 (en) | Robot device and method for controlling the same | |
JP2004298977A (en) | Action control device, action control method, action control program and mobile robot device | |
JP2004160630A (en) | Robot device and controlling method of the same | |
JP2004110802A (en) | Device, method for identifying environment, program, recording medium and robot device | |
JP2001191275A (en) | Robot system, exterior, and robot device | |
JP2004255529A (en) | Robot device, control method thereof, and movement control system for robot device | |
JP2001236585A (en) | Mobile robot and steal prevention method for the same | |
JP7238796B2 (en) | ANIMAL-TYPE AUTONOMOUS MOBILE BODY, OPERATION METHOD OF ANIMAL-TYPE AUTONOMOUS MOBILE BODY, AND PROGRAM | |
JP2002059384A (en) | Learning system and learning method for robot | |
JP2004255528A (en) | Robot device and control method thereof | |
US11833441B2 (en) | Robot | |
JP2004066381A (en) | Robot device | |
JP2004283956A (en) | Charging system, robot device, charging device, and charging method | |
JP2002370185A (en) | Robot device, toy device, behavior control system and behavior control method of robot device, control program and recording medium | |
US20240019868A1 (en) | Autonomous mobile body, information processing apparatus, information processing method, and program | |
JP2002205290A (en) | Device and method for controlling leg type mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060509 |