JP2004185630A - 識別装置及び方法、ロボット装置並びに色抽出装置 - Google Patents

識別装置及び方法、ロボット装置並びに色抽出装置 Download PDF

Info

Publication number
JP2004185630A
JP2004185630A JP2003408263A JP2003408263A JP2004185630A JP 2004185630 A JP2004185630 A JP 2004185630A JP 2003408263 A JP2003408263 A JP 2003408263A JP 2003408263 A JP2003408263 A JP 2003408263A JP 2004185630 A JP2004185630 A JP 2004185630A
Authority
JP
Japan
Prior art keywords
color
identification
color pattern
predetermined
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003408263A
Other languages
English (en)
Other versions
JP3928871B2 (ja
Inventor
Naohiro Fukumura
直博 福村
Osamu Hanagata
理 花形
Kotaro Sabe
浩太郎 佐部
Makoto Inoue
真 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003408263A priority Critical patent/JP3928871B2/ja
Publication of JP2004185630A publication Critical patent/JP2004185630A/ja
Application granted granted Critical
Publication of JP3928871B2 publication Critical patent/JP3928871B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Abstract

【課題】
他の移動体又は他の物体を確実に識別し得る識別装置及び方法並びにロボット装置と、所望の色を精度良く抽出し得る色抽出装置とを提案する。
【解決手段】
物体に異なる色パターンの識別体を設け、画像処理により色パターンを検出して識別するようにした。また各対象物にそれぞれ互いに異なる色パターンを付与し、画像処理により色パターンを検出するようにして位置を検出するようにした。さらに各画素ごとの輝度レベル及び色差レベルを順次検出し、色差レベルが所定範囲内か否かによって色を抽出するようにした。
【選択図】 図4

Description

本発明は、識別装置及び方法、ロボット装置並びに色抽出装置に関し、例えば自律移動型ロボットに適用して好適なものである。
近年、移動型ロボットの1つとして、周囲の環境についての情報を順次取り込み、得られた情報に基づいて自分で行動を決定して移動し得るようになされた、いわゆる自律移動型ロボットの研究が進められている(例えば特許文献1参照)。
特開2001−157978公報
ところで、このような移動型ロボットが他の移動型ロボットの個体を識別(例えば1号機、2号機、……等)する方法としては、各ロボットにそれぞれ電波、赤外線又は音波などの識別のための特別な信号を発生させる第1の方法と、各ロボットにそれぞれ互いに異なる所定色を塗布し、当該色に基づいてロボット識別する第2の方法と、各ロボットの表面に識別のための記号やバーコード等を表記する第3の方法となどが考えられる。
しかしながら第1の方法では、信号を発信又は受信するための特別な装置が必要となり、また電波法規による規制や周辺に存在する他の装置への影響などのため、希望する信号を発信することができない場合がある問題がある。
また第2の方法では、ごく少数のロボットだけを識別するのであればロボットの数だけ識別し易い色を用意すれば良いため問題がないが、多数のロボットを識別するためには微妙な色の違いを利用しなければならず、画像処理が複雑になったり、照明条件等の影響を受け易くなる問題がある。
さらに第3の方法では、ロボットの向きや姿勢などにより、記号等が観察できない場合が生じる問題がある。
本発明は以上の点を考慮してなされたもので、移動体又は他の物体を確実に識別し得る簡易な識別装置及び方法並びにロボット装置と、所望の色を精度良く抽出し得る色抽出装置とを提案しようとするものである。
かかる課題を解決するため本発明においては、識別装置において、各移動体にそれぞれ設けられた互いに異なる色パターンの識別体と、各移動体にそれぞれ設けられ、他の移動体に配設された移動体毎に異なる色パターンの識別体を撮像する撮像手段と、撮像手段から供給される第1の画像情報に基づいて、撮像された識別体の色パターンを検出する色パターン検出手段と、当該検出結果と、予め記憶している各移動体ごとの識別体の色パターン情報とに基づいて、撮像手段により撮像した識別体を有する移動体を識別する識別手段とを設けるようにした。
この結果この識別装置では、各移動体の個体を容易かつ確実に識別することができる。
また本発明においては、識別装置において、各移動体にそれぞれ設けられ、他の移動体に配設された移動体毎に異なる色パターンの識別体を撮像する撮像手段と、撮像手段から供給される第1の画像情報に基づいて、撮像された識別体の色パターンを検出する色パターン検出手段と、当該検出結果と、予め記憶している各移動体ごとの識別体の色パターン情報とに基づいて、撮像手段により撮像した識別体を有する移動体を識別する識別手段とを設けるようにした。
この結果この識別装置では、各移動体の個体を容易かつ確実に識別することができる。
さらに本発明においては、識別方法において、各移動体にそれぞれ互いに異なる色パターンの識別体を設ける第1のステップと、各移動体にそれぞれ設けられた撮像手段により、他の移動体の識別体を撮像する第2のステップと、撮像手段から出力される第1の画像情報に基づいて、撮像した識別体の色パターンを検出する第3のステップと、検出した識別体の色パターンと、予め記憶している各識別体の色パターン情報とに基づいて、撮像した識別体を識別する第4のステップとを設けるようにした。
この結果この識別方法によれば、各移動体の個体を容易かつ確実に識別することができる。
さらに本発明においては、ロボット装置に、他の物体にそれぞれ設けられた互いに異なる色パターンの識別体を撮像する撮像手段と、撮像手段から供給される画像情報に基づいて、撮像した識別体の色パターンを検出する色パターン検出手段と、色パターン検出手段による検出結果と、予め記憶している各識別体の色パターン情報とに基づいて、撮像した識別体を識別する識別手段とを設けるようにした。
この結果このロボット装置は、他の物体を容易かつ確実に識別することができる。
さらに本発明においては、識別装置において、領域全体を撮像する撮像手段と、撮像手段から出力される第1の画像情報に基づいて、各移動体の所定位置にそれぞれ付与された各移動体ごとに異なる色パターンを検出する色パターン検出手段と、当該検出結果と、予め記憶している各移動体にそれぞれ付与された色パターンの情報とに基づいて、各移動体を識別する識別手段とを設けるようにした。
この結果この識別装置では、各移動体の個体を容易かつ確実に識別することができる。
さらに本発明においては、識別方法において、領域全体を撮像する撮像手段を所定位置に配置すると共に、各移動体の所定位置にそれぞれ互いに異なる色パターンを付与する第1のステップと、撮像手段から出力される第1の画像情報に基づいて、各移動体の色パターンをそれぞれ検出する第2のステップと、当該検出結果と、予め記憶している各移動体にそれぞれ付与された色パターンの情報とに基づいて、各移動体を識別する第3のステップとを設けるようにした。
この結果この識別方法によれば、各移動体の個体を容易かつ確実に識別することができる。
さらに本発明においては、色抽出装置において、供給される画像信号の輝度信号及び色差信号に基づいて、当該画像信号に基づく画像内の各画素ごとの輝度レベル及び色差レベルを順次検出するレベル検出手段と、検出された画素の輝度レベル及び色差レベルと、予め記憶している各輝度レベル毎の色差レベルの上限値及び下限値とに基づいて、各画素ごとに所定色か否かを判定する判定手段とを設けるようにした。
この結果この色抽出装置では、所望の色の画素を確実に抽出することができる。
上述のように本発明によれば、所定の領域内を移動する移動体又は領域内の他の物体を識別する識別装置及び方法並びにロボット装置において、各移動体又は他の物体に、それぞれ互いに異なる色パターンの識別体を設け、各移動体又はロボット装置にそれぞれ設けられた撮像手段により、他の移動体又は他の物体の識別体を撮像し、撮像手段から出力される第1の画像情報に基づいて、当該撮像手段により撮像した識別体の色パターンを検出し、当該検出結果と、予め記憶している各識別体の色パターン情報とに基づいて、撮像手段により撮像した識別体又は他の物体を識別するようにしたことにより、移動体を確実に識別し得る簡易な識別装置及び方法並びに他の物体を確実に識別し得る簡易な構成のロボット装置を実現できる。
また所定の領域内を移動する複数の移動体を識別する識別装置及び方法において、領域全体を撮像する撮像手段を所定位置に配置すると共に、各移動体の所定位置にそれぞれ互いに異なる色パターンを付与し、撮像手段から出力される第1の画像情報に基づいて、各移動体の色パターンをそれぞれ検出し、当該検出結果と、予め記憶している各移動体にそれぞれ設けられた色パターンの情報とに基づいて、各移動体を識別するようにしたことにより、移動体を確実に識別し得る簡易な識別装置及び方法を実現できる。
さらに色抽出装置において、画像信号の輝度信号及び色差信号に基づいて、画像信号に基づく画像内の各画素ごとの輝度レベル及び色差レベルを順次検出するレベル検出手段と、レベル検出手段により検出された画素の輝度レベル及び色差レベルと、予め記憶している各輝度レベル毎の色差レベルの上限値及び下限値とに基づいて、各画素ごとに所定色か否かを判定する判定手段とを設けるようにしたことにより、所望の色を精度良く抽出し得る色抽出装置を実現できる。
以下図面について、本発明の一実施例を詳述する。
(1)第1実施例
(1−1)第1実施例による個体識別システムの全体構成
図1において、1は全体として本発明を適用した個体識別システムを示し、所定の領域2内に複数のロボット3A〜3Cが配置されている。なお以下の説明においては、領域2が平坦な長方形状であるものとし、所定の一辺と平行な方向をX方向(矢印x)、これと垂直な方向をY方向(矢印y)及び領域2と垂直な方向をZ方向(矢印z)とする。
各ロボット3A〜3Cにおいては、図2に示すように、それぞれ胴体部10の上面前端に首部11を介して頭部12が配設されると共に、胴体部10の下面の前後左右の4隅にそれぞれ太股部13及び脛部14からなる右前脚部15A、左前脚部15B、右後脚部15C及び左後脚部15D(以下、これらをまとめて各脚部15A〜15Dと呼ぶ)が配設されることにより構成されている。
この場合頭部12にはカメラ16が取り付けられていると共に当該頭部12の所定位置にはマイクロホン17(図3)が取り付けられ、かつ頭部12、胴体部10及び各脚部15A〜15Dの表面にはそれぞれ複数の接触センサ18A〜18Z(図3)が取り付けられている。
さらに胴体部10内には制御部19(図3)が配設されており、当該制御部19は、図3に示すように、カメラ16から供給される画像信号S1、マイクロホン17から供給される音声信号S2及び各接触センサ18A〜18Zからそれぞれ供給されるセンサ信号S3A〜S3Zに基づいて周囲の状態を認識し、認識結果に基づいて各構成ユニット(頭部12、首部11、胴体部10、各太股部13及び各脛部14)を連結する各関節部20A〜20J(図2)内のアクチュエータ21A〜21Jをそれぞれ必要に応じて駆動させるようになされている。
これにより各ロボット3A〜3Cにおいては、制御部19の制御のもとに各構成ユニットを自在に駆動し得るようになされ、かくして周囲の環境に応じた行動を自律的にとることができるようになされている。
かかる構成に加えこの個体識別システム1の場合、図2(A)からも明らかなように、各ロボット3A〜3Cの胴体部10の上面後端部にはそれぞれ支持棒22を介して各ロボット3A〜3C毎に異なるパターンで色分けされた球状の識別体23が取り付けられている。
各識別体23は、図2(B)に示すように、球体の表面にそれぞれ複数種類の色の中から所定の3色をロボット3A〜3Cの移動方向と垂直な方向(すなわちZ方向)に並べて帯状に塗布することにより形成されている。
また各ロボット3A〜3Cの制御部19(図3)内には、それぞれ領域2内を移動する他のロボット3A〜3Cの個体を識別体23に基づいて識別するため、図4に示すような個体識別部30が設けられている。
すなわち個体識別部30においては、識別のために用いられた色と同数(例えば16)の色抽出部31A〜31Uを有し、カメラ16から供給される画像信号S1をこれら各色抽出部31A〜31Uにそれぞれ入力する。
各色抽出部31は、画像信号S1に基づく画像のなかからそれぞれ所定色の画素を抽出し、当該画素に対応する部分が論理「1」レベルに立ち上がり、これ以外の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S10A〜S10Uをそれぞれ色パターン検出部32に送出する。なお各色抽出部31A〜31Uは、識別のために用いられた複数の色の中からそれぞれ互いに異なる色の画素を抽出する。
色パターン検出部32は、各色抽出部31A〜31Uからそれぞれ供給される各色抽出信号S10A〜S10Uに基づき得られる画像を重ね合わせて走査することにより当該画像内の色がほぼ円形状にZ方向に3色並んだ部分を検出し、これを識別体23であると判定してその識別体23の色パターンと、当該画像内における位置と、画素を単位とした直径とを識別体情報信号S11として比較・演算部33に送出する。
比較・演算部33は、供給される識別体情報信号S11に基づき得られる撮像した識別体23の色パターンと、第1のメモリ34内に予め格納されている各識別体23の色パターン及びそのIDに関するテーブルとに基づいて、カメラ16により撮像された識別体23のID(すなわちロボット3A〜3Cの個体)を検出する。
また比較・演算部33は、供給される識別体情報信号S11に基づき得られる撮像された識別体23の画像内での画素を単位とした直径(Dpic)と、第2のメモリ35内に予め格納されている基準値(カメラ16及び識別体23が1〔m〕離れているときの識別体23の画素を単位とした直径(Dstd))とに基づいて、次式
Figure 2004185630
の演算を実行することによりその識別体23までの距離L1を算出する。
さらに比較・演算部33は、検出した識別体23のIDと、(1)式の演算により得られたその識別体23までの距離L1と、識別体情報信号S11に基づき得られる画像内における識別体23の位置とを識別体検出信号S12としてそのロボット3A〜3C全体の行動を司る最上位のCPU36に送出する。
このようにしてこのロボット3A〜3Cにおいては、CPU36が識別体検出信号S12に基づいて他のロボット3A〜3Cの位置を認識することができ、かくして認識結果に基づいてより周囲の状況に応じた行動をとることができるようになされている。
(1−2)色抽出部の構成
ここで一般的に、画像信号に基づく画像内の各色は、当該画像信号に含まれる2つの色差信号(R−Y、B−Y)のうちの一方の第1の色差信号の信号レベルUをX軸にとり、他方の第2の色差信号の信号レベルVをY軸にとったUV平面上の点として表すことができる。ただし同じ色でも照明の条件等によりUV平面上での位置が多少変化する。
そこで図5に示すように、UV平面において長方形のエリア40を考え、画素の第1及び第2の色差レベルU、Vがエリア40の中に入ったときにその画素が抽出しようとしている色であると判定し、かつ照明条件等の変化に対応させるためその画素の輝度レベルYによってエリア40を移動させることによって、精度良く画像信号に基づく画像内の対応する色の画素を抽出することができる。
この場合エリア40を指定するには、第1及び第2の色差レベルU、Vの上限値a、b及び下限値a、bを抽出すべき色に応じて決めれば良く、またエリア40を輝度レベルYによって移動させるには、予め輝度レベルY毎に第1及び第2の色差レベルU、Vの上限値a、b及び下限値a、bをそれぞれ計算し決定してテーブルを作成し、当該テーブルと実際の画素の輝度レベルYとに基づいて第1及び第2の色差レベルU、Vの上限値a、b及び下限値a、bを変化させるようにすれば良い。
以上の点を考慮し、各ロボット3A〜3Cの個体識別部30の各色抽出部31A〜31Uは、図6に示すように構成されている。
すなわち色抽出部31A〜31Uにおいては、カメラ16から供給される画像信号S1を分離回路41に入力し、当該分離回路41において画像信号S1を輝度信号S20及び2つの色差信号(R−Y、B−Y)S21A、S21Bに分離する。
この場合輝度信号S20は、アナログ/ディジタル変換回路42において所定の第1の周期でサンプリングされることにより、各画素にそれぞれ対応する輝度データD1に順次変換され、この後第1〜第4のメモリ44A〜44Dに供給される。
また2つの色差信号S21A、S21Bのうち一方の第1の色差信号S21Aは、アナログ/ディジタル変換回路43Aにおいて上述の第1の周期でサンプリングされることにより、各画素にそれぞれ対応する第1の色差データD2Aに順次変換された後第1及び第2の比較回路45A、45Bに供給されると共に、他方の第2の色差信号S21Bは、アナログ/ディジタル変換回路43Bにおいて上述の第1の周期でサンプリングされることにより、各画素にそれぞれ対応する第2の色差データD2Bに順次変換された後第3及び第4の比較回路45C、45Dに供給される。
このとき第1及び第2のメモリ44A、44Bには、その色抽出部31A〜31Uが抽出すべき色に対応させて、それぞれ画素の輝度データD1の値(すなわち輝度レベルY)毎の第1の色差データD2Aの値(すなわち第1の色差レベルU)の上限値a又は下限値aがテーブルとして格納されると共に、第3及び第4のメモリ44C、44Dには、それぞれ画素の輝度データD1の値毎の第2の色差データD2Bの値(すなわち第2の色差レベルV)の上限値b又は下限値bがテーブルとして格納されている。なおこれらの上限値a、b及び下限値a、bは、画素の輝度レベルYをアドレスとしてアドレスバス46及びデータバス47を介して上述した最上位のCPU36により設定される。
また第1〜第4のメモリ44A〜44Dは、それぞれ供給される輝度データD1の値をアドレスとして予め格納されたテーブルの中から対応する設定値を出力するようになされている。
かくして色抽出部31A〜31Uにおいては、第1及び第2のメモリ44A〜44Dからそれぞれ各画素毎に輝度データD1の値に応じた予め設定された第1の色差レベルの上限値a又は下限値aが出力されると共に、第3及び第4のメモリ44C、44Dからそれぞれ各画素毎に輝度データD1の値に応じた予め設定された第2の色差レベルの上限値b及び下限値bが出力され、これらがそれぞれ対応する第1〜第4の比較回路45A〜45Dに供給される。
第1〜第4の比較回路45A〜45Dにおいては、それぞれ対応する第1〜第3又は第4のメモリ44A〜44Dの出力と、順次供給される画素毎の第1又は第2の色差データD2A、D2Bの値とをそれぞれ順次比較し、比較結果を順次判定回路48に送出する。
判定回路48は、例えばアンド回路構成でなり、各第1〜第4の比較回路45A〜45Dの出力に基づいて、その画素が第1〜第4のメモリ44A〜44D内にそれぞれ格納された第1又は第2の色差レベルU、Vの上限値a、b又は下限値a、bにより決定されるエリア40(図5)内に入っているか否かを判定し、入っている場合には「1」、入っていない場合には「0」をフレームメモリ49内のその画素に対応する位置に格納する。
かくしてフレームメモリ49からは、その色抽出部31A〜31Uが抽出すべき色の画素に対応する部分のみが論理「1」レベルに立ち上がった色抽出信号S10A〜S10Uが出力される。
このようにして各色抽出部31A〜31Uは、画像信号S1に基づく画像の中から対応する色の画素を抽出し得るようになされ、かくして得られた色抽出信号S10A〜S10Uを上述のように色パターン検出部32(図4)に送出するようになされている。
(1−3)第1実施例の動作及び効果
以上の構成において、この個体識別システム1の場合、各ロボット3A〜3Cは、カメラ16により撮像された識別体23の色パターンと、カメラ16から供給される画像信号S1に基づく画像内の位置と、画素を単位とする直径とを個体識別部30の色抽出部31A〜31U及び色パターン検出部32により検出し、当該検出された識別体23の色パターンと、第1のメモリ34内に格納された各識別体23の色パターン及びそのIDに関するテーブルに基づいて撮像した識別体23のID(ロボット3A〜3Cの個体)を検出すると共に、色パターン検出部32により検出された識別体23の画素を単位とする直径と、第2のメモリ35内に格納された基準値とに基づいてその識別体23までの距離L1を算出し、検出したその識別体23のIDと、その識別体23までの距離L1と、画像内におけるその識別体23の位置とをそれぞれそのロボット3A〜3Cの行動を司る最上位のCPU36に送出する。
従ってこの個体識別システム1では、各ロボット3A〜3Cの最上位のCPUがそれぞれ周囲に位置する他のロボット3A〜3Cの個体と、そのロボット3A〜3Cまでの距離L1及び方向とを精度良く認識することができる。
またこの個体識別システム1では、各ロボット3A〜3Cの識別体23を例えばピンポン球のようなものに色を塗ることによって作製することができるため、極めて安価に構築することができる。
さらにこの個体識別システム1では、各ロボット3A〜3Cが他のロボット3A〜3Cの個体を識別し得るようにする手段として特別な信号を利用していないため、周辺機器に悪影響を与えたり、電波法規に基づく規制を受けたりすることがない。
さらにこの個体識別システム1では、上述のように識別体23が球状であり、また複数の識別色をロボット3A〜3Cの移動方向と垂直な方向に帯状に塗られているため、ロボット3A〜3Cが移動する領域2がほぼ平坦である限りにおいて、識別体23をどの方向から見ても同じ形状及び同じ色パターンに見ることができ、かくして各ロボット3A〜3Cが他のロボット3A〜3Cの個体を容易かつ確実に識別することができる。
さらにこの個体識別システム1では、各ロボット3A〜3Cの識別体23が表面を単色ではなく複数色を塗り分けるようにして構成されているため、色の組み合わせ方によって多数のロボット3A〜3Cを識別し得るようにすることができる。この場合識別色として原色などの色合いの大きく異なる色だけを用いても、組み合わせの数を多くすることができるため、微妙な色の違いから個体識別を行う場合に比べて、照明条件等に影響を受け難い利点がある。
以上の構成によれば、各ロボット3A〜3Cに、それぞれ互いに異なる色パターンの識別体23を取り付ける一方、各ロボット3A〜3Cにおいて、カメラ16により撮像された識別体23の色パターンと、カメラ16から供給される画像信号S1に基づく画像内での位置及び直径とをそれぞれ検出し、当該検出結果と、第1のメモリ34内に予め格納された各識別体23の色パターン及びそのIDに関するテーブルとに基づいて撮像した識別体23のIDを検出すると共に、検出された画像信号S1に基づく画像内での識別体23の直径と、第2のメモリ35内に格納された基準値とに基づいてその識別体23までの距離L1を算出するようにしたことにより、各ロボット3A〜3Cがそれぞれ他のロボット3A〜3Cの個体を容易かつ確実に識別することができ、かくしてロボット3A〜3Cの個体を確実に認識し得る簡易な構成の個体識別システム及びロボットを実現できる。
(2)第2実施例
(2−1)第2実施例による個体識別システムの全体構成
図7及び図8は、第2実施例による個体識別システム50を示すものであり、図2(A)との対応部分に同一符号を付した図9に示すように、各ロボット51A〜51Cの胴体部10の上面にそれぞれ識別シール52が貼り付けられている。
この場合各ロボット51A〜51Cの識別シール52は、図10に示すように、それぞれその表面が順次隣接する所定数(例えば6個)の帯状領域52A〜52Fに分けられ、これら各帯状領域52A〜52Fがそれぞれ識別のために選定された複数色のうちのいずれかの色に着色されることにより構成されている。また識別シール52の表面の各帯状領域52A〜52Fを着色する色の組み合わせ(色パターン)は識別シール52毎に異なるパターンに選定されており、かくして識別シール52の色パターンに基づいてそのロボット51A〜51Cの個体を識別し得るようになされている。
一方図7及び図8からも明らかなように、領域2の上方には当該領域2全体を1画面内に撮影し得るようにカメラ53が配設されており、当該カメラ53から出力された画像信号S30が領域2の外部に配設された個体識別部54に供給されるようになされている。
この場合個体識別部54には、図4との対応部分に同一符号を付して示す図11に示すように、識別のための色の数に応じた数(16色とする)の色抽出部31A〜31Uが設けられており、これら色抽出部31A〜31Uからそれぞれ出力される色抽出信号S10A〜S10Uがそれぞれ色パターン検出部55に送出される。
色パターン検出部55は、供給される各色抽出信号S10A〜S10Uに基づく各画像を重ね合わせて走査することにより当該画像内において識別のための色が帯状に所定数並んでいる部分を検出し、その部分をロボット51A〜51Cの識別シール52と判定して、その識別シール52の色パターンと、画像内における画素を単位とする位置とを識別シール検出信号S31として比較・演算部56に送出する。なおこの場合領域2内に位置するロボット51A〜51Cの数だけ識別シール52が検出され、各識別シール52の色パターンと画像内における位置とがそれぞれ比較・演算部56に送出される。
比較・演算部56は、供給される識別シール検出信号S31に基づき得られる各識別シール52の色パターンと、予めメモリ57内に格納されている各識別シール52の色パターン及びそのIDに関するテーブルとに基づいて、カメラ53からの画像信号S30に基づく画像内の各識別シール52のID(すなわち各ロボット51A〜51Cの個体)を検出し、かくして得られた各識別シール52のID及びその領域2内における位置情報をロボット位置検出信号S32として送信部58を介して領域2内を移動する各ロボット51A〜51Cに電波により送信する。
各ロボット51A〜51Cにおいては、図3との対応部分に同一符号を付した図12に示すように、個体識別部54の発信部58から発信された電波をアンテナ60を介して受信部61において受信し、得られた各識別シール52のID(すなわち各ロボット51A〜51Cの個体)及び領域2内におけるその位置情報を受信信号S33として制御部62に送出する。
このとき制御部62には、カメラ16から画像信号1が供給されると共に、マイクロホン17から音声信号S2が供給され、かつ各接触センサ18A〜18Zからセンサ信号S3A〜S3Zが供給される。
かくして制御部62は、供給される画像信号S1、音声信号S2、各センサ信号S3A〜3Z及び受信信号S33に基づいて周囲の環境と、領域2内における自分を含めた各ロボット51A〜51Cの位置とを認識し得、認識結果に基づいて自分で行動を決定し、決定結果に基づいて対応する各アクチュエータ21A〜21Jを駆動させる。
このようにして各ロボット51A〜51Cは、それぞれ周囲の環境と、領域2内を移動する自分を含めた全てのロボット51A〜51Cの位置とを認識し、認識結果に基づいて自律的に行動し得るようになされている。
(2−2)第2実施例の動作及び効果
以上の構成において、この個体識別システム50では、領域2全体をその上方からカメラ53により撮像し、得られた画像信号S30に基づいて、領域2の外部に配設された個体識別部54により画像信号S30に基づく画像内の各識別シール52の位置を各色抽出部31A〜31U及び色パターン検出部55により検出し、当該検出結果と、メモリ57内に格納された各識別シール52の色パターン情報とから画像内における各識別シール52の位置及びIDを検出し、検出結果を送信部58を介して領域2内の各ロボット51A〜51Cに送信する。
一方各ロボット51A〜51Cにおいては、個体識別部54から送信される各ロボット51A〜51Cの領域2内における位置情報と、カメラ16から供給される画像信号S1と、マイロクホン17から供給される音声信号S2と、各接触センサ18A〜18Zからそれぞれ供給されるセンサ信号S3A〜S3Zとに基づいて周囲の状況及び各ロボット51A〜51Cの位置を認識し、認識結果に基づいて自律的に行動する。
従ってこの個体識別システム50では、各ロボット51A〜51Cが領域2内における他のロボット51A〜51C及び自分自身の絶対的な位置を確実に認識することができる。
またこの個体識別システム50では、各ロボット51A〜51Cに対する処置としては、それぞれアンテナ60及び受信部61を配設すると共に識別シール52を貼り付けるだけで良いため、各ロボット51A〜51Cの構成を第1実施例の各ロボット3A〜3C(図2(A))に比べてより簡易化することができる。またシステム全体としても、領域2全体を撮像するためのカメラ53及び個体識別部54が必要となるが、これはロボット51A〜51Cの台数によらず一組で良いため、第1実施例に比べて構成を簡易化することができる。
またこの個体識別システム50では、識別シール52の表面を単色ではなく複数の色で塗り分けているため、色の組み合わせ方によって容易に多数のロボット51A〜51Cを識別し得るようにすることができる。この場合識別のための色として、原色などの色合いの大きく異なる色を用いたとしても、組み合わせ数を多くすることができるため、単色を用いて微妙な色の違いから個体識別を行う場合に比べて、照明条件などの影響を受け難い利点がある。
さらにこの個体識別システム50では、領域2内の各ロボット51A〜51CのID及び位置を個体識別部54において集中的に認識することができるため、これを記憶しておくことによって各ロボット51A〜51Cの行動の記録として各ロボット51A〜51Cをそれぞれ制御するプログラムの評価や改良に利用することができる。
さらにこの個体識別システム50では、各ロボット51A〜51Cの視覚を利用していないため、各ロボット51A〜51Cの視覚処理能力が低い場合や、各ロボット51A〜51Cが視覚を全く備えていない場合でも適用することができる利点もある。
以上の構成によれば、ロボット51A〜51Cの行動領域2全体をその上方からカメラ53により撮像し、得られた画像信号S30に基づく画像内の各識別シール52の位置を検出し、当該検出結果と、メモリ57内に格納された各識別シール52の色パターン情報とから画像内における各識別シール52のID及び位置を検出し、当該検出結果を領域2内の各ロボット51A〜51Cに送信するようにしたことにより、領域2内を移動する各ロボット51A〜51Cの絶対的な位置を精度良く検出することができ、かくして行動領域2内における各ロボット51A〜51Cを確実に識別し得る簡易な構成の個体識別システム及びロボットを実現できる。
(3)第3実施例
(3−1)第3実施例による位置検出システムの全体構成
図2(A)との対応部分に同一符号を付して示す図13は、本発明を適用した位置検出システム70を示すものであり、ロボット71の行動領域2の周囲に沿って所定高さの壁72が設けられている。
この場合壁72の内壁面72Aは、領域2の各辺に沿う壁面72AA〜72ADごとにそれぞれ互いに異なる色が塗られており、かくして塗られた色に基づいてその壁面72AA〜72ADがどの壁面72AA〜72ADかを容易に判別し得るようになされている。
一方ロボット71は、第1実施例のロボット3A〜3C(図2(A)、図3)の制御部19(図3)内に個体識別部30(図4)に代えて図15に示すような壁識別部80が設けられていることを除いて第1実施例のロボット3A〜3Cと同様に構成されている。
この場合壁識別部80には、領域2の各辺に沿う壁面72AA〜72ADの数(4面とする)だけ色抽出部31A〜31Dが設けられており、カメラ16から供給される画像信号S1を各色抽出部31A〜31Dにそれぞれ入力するようになされている。
この結果各色抽出部31A〜31Dからは、それぞれ画像信号S1に基づく画像内の画素のうちの対応する色の画素に対応する部分が論理「1」レベルに立ち上がり、他の色の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S10A〜S10Dが出力され、これが壁検出部81に供給される。なお各色抽出部31A〜31Dは、それぞれ各壁面72AA〜72ADに塗られた識別のための複数の色の中から互いに異なる1色だけを抽出する。
壁検出部81は、各色抽出部31A〜31Dからそれぞれ供給される色抽出信号S10A〜S10Dに基づく画像を重ね合わせて走査することにより、ほぼ水平な同色の細長い領域をいずれかの壁面72AA〜72ADと判断すると共に、その壁面72AA〜72ADに塗布された色を検出し、かつ画像信号S1に基づく画像内におけるその壁面72AA〜72ADの高さを画素を単位として検出し、これら得られたその壁面72AA〜72ADの色と画像内における高さとを壁検出信号S40として比較・演算部82に送出する。
比較・演算部82は、壁検出信号S40に基づき得られるその壁面72AA〜72ADの色と、第1のメモリ83内に予め格納されている各壁面72AA〜72ADの各色及びそのIDに関するテーブルとに基づいて、その壁面72AA〜72ADのIDを検索する。
また比較・演算部82は、壁検出信号S40に基づき得られるその壁面72AA〜72ADの画像内における高さ(Hpicとする)と、第2のメモリ84内に予め格納されている基準値(ロボット71が壁面72AA〜72ADから1〔m〕離れているときの画像内におけるその壁面72AA〜72ADの画素を単位とする高さ(Hstdとする))とに基づいて、次式
Figure 2004185630
を実行することによりカメラ16からその壁面72AA〜72ADまでの距離L2を算出する。
さらに比較・演算部82は、この後カメラ16がその壁面(以下、これを第1の壁面と呼ぶ)72AA〜72ADと異なる壁面(以下、これを第2の壁面と呼ぶ)72AA〜72ADに向けられた後、同様の処理を実行することにより第2の壁面72AA〜72ADのIDと、当該第2の壁面72AA〜72ADまでの距離L3とを算出する。
さらにこの後比較・演算部82は、上述のようにして得られた第1の壁面72AA〜72ADのID及び当該第1の壁面72AA〜72ADまでの距離L2と、第2の壁面72AA〜72ADのID及び当該第2の壁面72AA〜72ADまでの距離L3と、第3のメモリ85内に予め格納されている領域2の各辺に沿った各壁面72AA〜72ADの位置を含む領域2の地図情報とに基づいて領域2内における自分の位置を検出し、これを位置検出信号S41として当該ロボット71の行動を司る最上位のCPU36に送出する。
これによりこのロボット71においては、CPU36が位置検出信号S41に基づいて領域2内における自分の位置を認識し得、当該認識結果に基づいて周囲の状況に応じた行動を自律的にとることができるようになされている。
(3−2)第3実施例の動作及び効果
以上の構成において、この位置検出システム70では、ロボット71がカメラ16から出力される画像信号S1に基づいて、周囲の第1及び第2の壁面72AA〜72ADに塗布された色と、画像信号S1に基づく画像内におけるその第1及び第2の壁面72AA〜72ADの高さHpicとを検出し、当該検出結果と、第1のメモリ83に予め格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ84に予め格納されている基準値Hstdと、第3のメモリ85に予め格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
従ってこの位置検出システム70では、2つの壁面72AA〜72ADの色及びこれら壁面72AA〜72ADの画像内における高さHpicからロボット71が領域2内における自分自身の位置を容易かつ精度良く認識することができる。
またこの位置検出システム70では、領域2の各辺に沿って配置された各壁面72AA〜72ADにそれぞれ互いに異なる色を塗るだけで良いため、極めて簡単にシステムを構築することができる。
さらにこの位置検出システム70では、電波などの特別な信号を発信する方法を使用していないため、周辺機器への影響や電波法規などを考慮することなく使用することができ、また領域2の床面に信号発生機を設置する必要がないため、ロボット71の移動を妨げるおそれもない。
さらにこの位置検出システム70では、ロボット71の行動領域2の床面に記号や標識等を表記する方式ではないため、他の目的のために床面にペイントなどを施すこともできる。
さらにこの位置検出システム70では、ロボット71のカメラ16をおおよそ水平方向に向けることによって当該ロボット71の正面の壁面72AA〜72ADをカメラ16により撮像することができるため、ロボット71が領域2内における自分の位置を検出するためにカメラ16を所定方向を向ける必要がなく、また他のロボット71をカメラ16でとらえながら領域2内における自分の位置を検出することができる利点もある。
以上の構成によれば、ロボット71の行動領域2の各辺にそれぞれ沿って壁面72AA〜72ADを設けると共に各壁面72AA〜72ADにそれぞれ互いに異なる色を塗布する一方、ロボット71が、カメラ16から出力される画像信号S1に基づいて、当該カメラ16により撮像された少なくとも2以上の壁面72AA〜72ADの色と、画像信号S1に基づく画像内での各壁面72AA〜72ADの高さHpicとをそれぞれ検出し、当該検出結果と、第1のメモリ83に予め格納されている各壁面72AA〜72ADの識別色及びそのIDと、第2のメモリ84に予め格納されている基準値Hstdと、第3のメモリ85に予め格納されている領域2の地図情報とに基づいて領域2内における自分の位置を検出するようにしたことにより、ロボット71が領域2内における自分の位置を精度良く検出することができ、かくして領域2内における自分自身の位置を精度良く検出し得る位置検出システム及びロボットを実現できる。
(4)第4実施例
(4−1)原理
一般的に色は、色相(Hue )、彩度(Saturation)及び明度(Intensity )の3つの属性を用いて表すことができる。
この場合これら色相、彩度(飽和度とも呼ぶ)及び明度の関係は、図16(A)及び(B)に示すように、平面上の任意の1点を原点Oとした場合において、色相をこの平面内における原点Oまわりの角度とし、彩度をこの平面内における原点Oからの距離とし、かつ明度をこの平面と垂直な方向における原点Oからの距離とする極座標で表すことができる。なお図16(B)に示す六角形の各頂点は、それぞれR(赤色)、Y(黄色)、G(緑色)、C(シアン)、B(青色)及びM(マゼンダ)に相当する。
ところで、例えば第1〜第3実施例のように物体(第1実施例における識別体23、第2実施例における識別マーク52及び第3実施例における壁面72AA〜72AD)に塗られた色の違いによって物体を識別するシステムでは、同じ色でも照明条件の変化や、物体を見る方向などによって色の見え方が変化する。このため例えば第1〜第3実施例では、色を判別する条件に幅をもたせるようにしてこの変化に対処している。
しかしながらこのような対処をしたとしても、物体を塗り分ける色の選び方によっては、照明条件等が変化したときに、ロボットの視覚でとらえたある色の見え方が別の色の判定条件内に入って違う色として認識されてしまい、その結果その色で塗られた物体を正しく識別できなくなるおそれがある。
このような事態を防止する方法の1つとして、例えば識別のために使用する色の組み合わせとして、予め所定の色空間において距離の離れた色を用いるようにし、ロボット内部では、カメラから出力される画像信号のフォーマットをその色空間のフォーマットに変換して色識別を行うようにすれば良い。
すなわち識別色として、例えば色を色相、彩度及び明度の3つの属性を用いて表す色空間(以下、これをHSI空間と呼ぶ)において色相が所定角度(例えば60〔°〕)以上離れた複数色を選択すると共に、ロボット内部においてカメラから出力される画像信号の画像フォーマットを、色を色相(H)、彩度(S)及び明度(I)で表すフォーマット(以下、これをHSIフォーマットと呼ぶ)に変換し、かくして得られる画像信号に基づいて色相からその色を識別するようにすれば、色識別時に照明条件の変化等の影響を受け難くすることができ、色識別の誤判定を効率良く回避し得るものと考えられる。
(4−2)第4実施例による位置検出システムの構成
図14との対応部分に同一符号を付して示す図17は、第4実施例による位置検出システム90を示すものであり、領域2と、当該領域2の各辺に沿う壁72の各壁面72AA〜72ADとにそれぞれ異なる固有の色が塗られている。
この場合領域2及び各壁面72AA〜72ADにそれぞれ塗布する色としては、HSI空間において色相が60〔°〕以上離れた5色(例えば、R、Y、G、C及びB)が選定されている。
一方ロボット91においては、第3実施例のロボット71(図14)内に位置検出部80(図15)に代えて図15との対応部分に同一符号を付した図18に示すような位置検出部92が設けられていることを除いてロボット71と同様に構成されている。
この場合位置検出部92には、画像フォーマット変換部93と、壁面72AA〜72ADの数と同数の色抽出部94A〜94Dとが設けられており、画像フォーマット変換部93は、カメラ16から供給される画像信号S1をHSIフォーマットの画像信号S50に変換し、これを各色抽出部94A〜94Dにそれぞれ送出する。
各色抽出部94A〜94Dは、それぞれ画像信号S50に含まれる各画素の色相情報に基づいて、図16(B)に示す極座標において指定された色相から所定角度内の色相の画素を抽出すべき色の画素として検出し、当該検出結果に基づいて抽出すべき色の画素に対応する部分が論理論理「1」レベルに立ち上がり、他の色の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S51A〜S51Dを生成し、これを壁検出部81に送出する。なお各色抽出部94A〜94Dは、壁面72AA〜72ADにそれぞれ塗布した複数色の中からそれぞれ互いに異なる所定色の画素を抽出する。
この結果図15において上述したように、これら色抽出信号S51A〜S51Dに基づいて、カメラ16で撮像している壁面72AA〜72ADの色と、当該壁面72AA〜72ADの画像内における画素を単位とした高さhpicとが壁検出部81により検出されると共に、当該検出結果に基づいて比較・演算部82により第3実施例の場合と同様にして領域2内における自分の位置が検出され、検出結果が位置検出信号S41としてこのロボット91の行動を司る最上位のCPU36に送出される。
これによりこのロボット91においては、CPU36が位置検出信号S41に基づいて領域2内における自分の位置を認識し得、当該認識結果に基づいて周囲の状況に応じた行動を自律的にとることができるようになされている。
(4−3)第4実施例の動作及び効果
以上の構成において、この位置検出システム90では、第3実施例の位置検出システム70(図14)と同様に、ロボット91がカメラ16から出力される画像信号S1に基づいて周囲の第1及び第2の壁面72AA〜72ADの色と、画像信号S1に基づく画像内におけるその第1及び第2の壁面72AA〜72ADの高さHpicとを検出し、これら検出結果と、第1のメモリ83に予め格納されている各壁面72AA〜72ADの色及びIDと、第2のメモリ84に予め格納されている基準値Hstdと、第3のメモリ85に予め格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
従ってこの位置検出システム90によれば、第3実施例の位置検出システム70と同様の作用効果を得ることができる。
これに加えこの位置検出システム90では、壁72の各壁面72AA〜72AD及び領域2にそれぞれ塗布する色として、HSI空間において色相が60〔°〕以上離れた色を用いており、またロボット91の内部処理としてカメラ16から出力される画像信号S1の画像フォーマットをHSIフォーマットに変換した後、色識別を行うようにしているため、各壁面72AA〜72ADに対する照明条件等が変化した場合においてもロボット91内部における色識別時にその影響を受け難くすることができ、かくしてロボット91における色識別の誤判定を効率良く回避することができる。
以上の構成によれば、第3実施例の位置検出システム70(図14)に対し、壁72の各壁面72AA〜72AD及び領域2にそれぞれ塗布する色として、HSI空間において色相が60〔°〕以上離れた色を用いると共に、ロボット91の内部処理としてカメラ61から出力される画像信号S1をHSIフォーマットの画像信号S50に変換した後、当該画像信号S50に基づいて色識別を行うようにしたことにより、ロボット91における色識別の誤判定を効率良く回避することができる。かくするにつきロボット91内部における物体の誤認識を回避し得、かくして領域内における自分の位置をより精度良く検出し得る位置検出システム及びロボット装置を実現できる。
(5)第5実施例
(5−1)第5実施例による位置検出システムの構成
図17との対応部分に同一符号を付して示す図19は、第5実施例による位置検出システム100を示すものであり、壁72の各壁面72AA〜72ADにそれぞれHSI空間において色相が60〔°〕以上離れた互いに異なる固有の色が塗られている。
この場合各壁面72AA〜72ADの色は、図20に示すように、各壁面72AA〜72ADの長手方向の一端が最も低く、当該一端から他端にいくに従って彩度(飽和度)が線形に増加するように、すなわち壁面72AA〜72ADの一端におけるその色の彩度をSmin、他端における彩度をSmax及びその壁面72AA〜72ADの長手方向の長さをMとしたときに、壁面72AA〜72ADの一端から距離xの位置におけるその色の彩度Sが次式
Figure 2004185630
を満足するように塗られている。
一方ロボット101においては、第4実施例のロボット91(図17)に位置検出部92(図18)に代えて図18との対応部分に同一符号を付した図21に示すような位置検出部102が設けられていることを除いてロボット91と同様に構成されている。
この場合位置検出部102には、領域2の各辺に沿う壁面72AA〜72ADの数と同数の色抽出部94A〜94Dが設けられており、カメラ16から出力される画像信号S1の画像フォーマットを画像フォーマット変換部93においてHSIフォーマットに変換した後、かくして得られた画像信号S50を各色抽出部S51A〜S51Dにそれぞれ送出する。
各色抽出部S51A〜S51Dにおいては、それぞれ画像信号S50に基づく画像のなかから所定色の画素を抽出し、当該画素に対応する部分が論理「1」レベルに立ち上がり、これ以外の色の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S51A〜S51Dをそれぞれ壁検出部103に送出する。
壁検出部103は、各色抽出部94A〜94Dからそれぞれ供給される色抽出信号S51A〜S51Dに基づく画像を重ね合わせて走査することにより、ほぼ水平な同色の細長い領域をいずれかの壁面72AA〜72ADとして検出し、検出結果を壁検出信号S60としてこのロボットの行動を司る最上位のCPU36に与える。
このときCPU36は、対応する関節部のアクチュエータを駆動させることによりカメラ16の向き(すなわちロボット101の頭部)を左右方向に移動させており、壁検出部103から供給される壁検出信号S60に基づいて、画像信号S50に基づく画像内において最も画素数の多い壁面(すなわち最も近い壁面)72AA〜72ADを検出すると共に、当該壁面72AA〜72ADの画像内における上端又は下端が水平となるように(すなわちその壁面72AA〜72ADに対してカメラ16の光軸が垂直となるように)カメラ16の向きを調整する。
そしてカメラ16の光軸が最も近い壁面72AA〜72ADに対して垂直に合わせられた状態において、壁検出部103は、各色抽出部94A〜94Dからそれぞれ供給される色抽出信号S51A〜S51Dに基づいてその壁面72AA〜72ADの色を検出すると共に、このとき画像フォーマット変換部93から供給される画像信号S50に基づいて、当該画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADに塗布された色の彩度Sを検出し、これら検出したその壁面72AA〜72ADの色と、画像中央部におけるその壁面72AA〜72ADに塗布された色の彩度Sとを色及び彩度検出信号S61として比較・演算部104に送出する。
比較・演算部104は、色及び彩度検出信号S61に基づき得られるその壁面72AA〜72ADの色と、第1のメモリ105に予め格納されている各壁面72AA〜72ADの色及びそのIDに関するテーブルとに基づいて、その壁面72AA〜72ADのIDを検出する。
また比較・演算部104は、色及び彩度信号S61に基づき得られる画像中央部におけるその壁面72AA〜72ADの彩度Sと、予め第2のメモリ106に格納されている各壁面72AA〜72ADの一端及び他端における各彩度Smin、Smax並びに各壁面72AA〜72ADの長さMとに基づいて(3)式を逆算することによりその壁面72AA〜72ADと平行な方向における自分の位置を検出する。
さらに比較・演算部105は、この後CPU36の制御のもとにカメラ16が90〔°〕回転されてその壁面72AA〜72AD(以下、これを第1の壁面72AA〜72ADと呼ぶ)と異なる壁面72AA〜72AD(以下、これを第2の壁面72AA〜72ADと呼ぶ)に向けられた後、同様の処理を実行することにより第2の壁面72AA〜72ADのIDと、当該第2の壁面72AA〜72ADと平行な方向における自分の位置とを検出する。
さらに比較・演算部104は、この後上述のようにして得られた第1の壁面72AA〜72ADのID及び当該第1の壁面72AA〜72ADと平行な方向における位置と、第2の壁面72AA〜72ADのID及び当該第2の壁面72AA〜72ADと平行な方向における位置と、第3のメモリ107に予め格納されている各壁面72AA〜72ADの位置を含む領域2の地図情報とに基づいて領域内における自分の位置を検出し、検出結果を位置検出信号S62としてCPU36に送出する。
これによりこのロボット101においては、CPU36が位置検出信号S62に基づいて領域2内における自分の位置を認識し得、当該認識結果に基づいて周囲の状況に応じた行動を自律的にとることができるようになされている。
(5−2)第5実施例の動作及び効果
以上の構成において、この位置検出システム100では、ロボット101がカメラ16から出力される画像信号S1に基づいて周囲の第1及び第2の壁面72AA〜72ADの色と、これら色の画像信号S1に基づく画像の中央部における彩度Sとを検出し、これら検出結果と、第1のメモリ105に格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ106に格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端における色の彩度Smin、Smaxと、第3のメモリ107に格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
従ってこの位置検出システム100では、ロボット101が2つの壁面72AA〜72ADの色及びこれら色の彩度の変化に基づいて領域2内における自分の位置を容易かつ精度良く認識することができる。
またこの位置検出システム100では、領域2の各辺に沿って配置された各壁面72AA〜72ADにそれぞれ互いに異なる色を水平方向の彩度を変化させて塗布するだけで良いため、極めて簡単にシステムを構築することができる。
さらにこの位置検出システム100では、電波などの特別な信号を発信する方法を使用していないため、周辺機器への影響や電波法規などを考慮することなく使用することができると共に、領域の床面に信号発生機を設置する必要がないため、ロボット101の行動を妨げるおそれもない。
さらにこの位置検出システム100では、ロボット101の行動領域2の床面に記号や標識等を表記する方式ではないため、他の目的のために床面にペイントなどを施すこともできる。
さらにこの位置検出システム100では、ロボット101のカメラ16をおおよそ水平方向に向けることによって当該ロボット101の正面の壁面72AA〜72ADをカメラ16により撮像することができるため、ロボット101が領域2内における自分の位置を検出するためにカメラ16を所定方向に向ける必要がなく、また他のロボットをカメラ16でとらえながら領域2内における自分の位置を検出し得る利点もある。
以上の構成によれば、各壁面72AA〜72ADに互いに異なる色を水平方向に彩度を変化させてそれぞれ塗布すると共に、ロボット102が2つの壁面72AA〜72ADの色と、これら壁面72AA〜72ADを垂直に撮像した場合におけるその色の画像中央部での彩度Sとをそれぞれ検出し、当該検出結果と、第1のメモリ105に格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ106に格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端における色の彩度Smin、Smaxと、第3のメモリ107に格納されている地図情報とに基づいて領域2内における自分の位置を検出するようにしたことにより、ロボット101が領域2内における自分の位置を精度良く検出することができ、かくして領域2内における自分の位置を精度良く検出し得る位置検出システム及びロボットを実現できる。
(6)第6実施例
(6−1)第6実施例による位置検出システムの構成
図19との対応部分に同一符号を付して示す図22は、第6実施例による位置検出システム110を示すものであり、壁72の各壁面72AA〜72ADにそれぞれHSI空間において色相が60〔°〕以上離れた互いに異なる固有の色が塗布されている。
またこれら各壁面72AA〜72ADには、一端の下端近傍から他端の上端近傍に至るように、HSI空間において各壁面72AA〜72ADに塗布された各色の色相と60〔°〕以上はなれた色を用いて斜線102が表記されている。
一方ロボット111においては、第4実施例のロボット91(図17)に、位置検出部92(図18)に代えて図18との対応部分に同一符号を付した図24に示すような位置検出部113が設けられていることを除いてロボット91と同様に構成されている。
この場合位置検出部113には、領域2の各辺に沿う壁面72AA〜72ADの数よりも1つ多い数の色抽出部94A〜94Eが設けられており、カメラ16から出力される画像信号S1の画像フォーマットを画像フォーマット変換部93においてHSIフォーマットに変換した後、かくして得られた画像信号S50を各色抽出部94A〜94Eにそれぞれ送出する。
各色抽出部94A〜94Eにおいては、画像信号S50に基づく画像のなかからそれぞれ対応する所定色の画素を抽出し、当該画素に対応する部分が論理「1」レベルに立ち上がり、これ以外の色の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S51A〜S51Eをそれぞれ壁検出部114に送出する。なお各色抽出部114は、各壁面72AA〜72ADに塗布された色及び斜線112の色の中からそれぞれ互いに異なる色の画素を抽出する。
壁検出部114は、各色抽出部94A〜94Eからそれぞれ供給される色抽出信号S51A〜S51Eに基づく画像を重ね合わせて走査することにより、ほぼ水平な同色の細長い領域をいずれかの壁面72AA〜72ADとして検出し、検出結果を壁検出信号S60としてこのロボット111の行動を司る最上位のCPU36に与える。
このときCPU36は、対応する関節部のアクチュエータを駆動させることによりカメラ16の向き(すなわちロボット111の頭部)を左右方向に移動させており、壁検出部114から供給される壁検出信号S60に基づいて、画像信号S50に基づく画像内において最も画素数の多い壁面(すなわち最も近い壁面)72AA〜72ADを検出すると共に、当該壁面72AA〜72ADの画像内における上端又は下端が水平となるように(すなわち最も近い壁面72AA〜72ADに対してカメラ16の光軸が垂直となるように)カメラ16の向きを調整する。
そしてカメラ16の光軸が最も近い壁面72AA〜72ADに対して垂直に合わせられた状態において壁検出部114は、画像中央部におけるその壁面72AA〜72ADの斜線112よりも上部分の縦方向の長さUと、斜線112よりも下部分の長さLとをそれぞれ画素を単位として検出し、これら検出したその壁面72AA〜72ADの斜線112よりも上部分の長さU及び下部分の長さLと、その壁面72AA〜72ADの色とを色及び長さ検出信号S70として比較・演算部115に送出する。
比較・演算部115は、色及び長さ検出信号S70に基づき得られるその壁面72AA〜72ADの色と、第1のメモリ116に予め格納されている各壁面72AA〜72ADの色及びそのIDに関するテーブルとに基づいて、その壁面72AA〜72ADのIDを検出する。
また比較・演算部115は、色及び長さ検出信号S70に基づき得られるその壁面72AA〜72ADの斜線112よりも上部分の長さU及び下部分の長さLとに基づいて次式
Figure 2004185630
で与えられる演算を実行することにより、画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADの高さ(=U+L)に対する斜線112よりも上部分の縦方向の長さUの比率Rx1を算出する。
そして比較・演算部115は、この演算結果と、第2のメモリ117に予め格納されている各壁面72AA〜72ADの長さM、各壁面72AA〜72ADの一端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の縦方向の長さの比率Ra1及び各壁面72AA〜72ADの他端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さの比率Rb1とに基づいて、次式
Figure 2004185630
で与えられる演算を実行することにより、その壁面72AA〜72ADの一端からその壁面72AA〜72ADの画像中央部に撮像されている部分までの距離x(その壁面72AA〜72ADと平行な方向における当該壁面72AA〜72ADの一端からロボット111までの距離に相当)を算出する。
なお各壁面72AA〜72ADの一端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さの比率Ra1は、図23に示すように、それぞれその壁面72AA〜72ADの一端におけるその壁面72AA〜72ADの斜線112よりも上部分の長さをUa1とし、斜線112よりも下部分の長さをLa1として次式
Figure 2004185630
により与えられ、各壁面72AA〜72ADの他端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さの比率Rb1は、その壁面72AA〜72ADの他端におけるその壁面72AA〜72ADの斜線112よりも上部分の長さをUb1とし、斜線よりも下部分の長さをLb1として次式
Figure 2004185630
により与えられる。
さらに比較・演算部115は、この後CPU36の制御のもとにカメラ16が90〔°〕回転されてその壁面72AA〜72AD(以下、これを第1の壁面72AA〜72ADと呼ぶ)と異なる壁面72AA〜72AD(以下、これを第2の壁面72AA〜72ADと呼ぶ)に向けられた後、同様の処理を実行することにより第2の壁面72AA〜72ADのIDと、当該第2の壁面72AA〜72ADと平行な方向における自分の位置とを検出する。
さらに比較・演算部115は、この後上述のようにして得られた第1の壁面72AA〜72ADのID及び当該第1の壁面72AA〜72ADと平行な方向における位置と、第2の壁面72AA〜72ADのID及び当該第2の壁面72AA〜72ADと平行な方向における位置と、第3のメモリ118に予め格納されている各壁面72AA〜72ADの位置を含む領域の地図情報とに基づいて領域2内における自分の位置を検出し、検出結果を位置検出信号S71としてCPU36に送出する。
これによりこのロボット111においては、CPU36が位置検出信号S71に基づいて領域2内における自分の位置を認識し得、当該認識結果に基づいて周囲の状況に応じた行動を自律的にとることができるようになされている。
(6−2)第6実施例の動作及び効果
以上の構成において、この位置検出システム110では、ロボット111がカメラ16から出力される画像信号S1に基づいて周囲の第1及び第2の壁面72AA〜72ADの各色と、当該画像信号S1に基づく画像中央部おけるこれら各壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さUの比率Rx1とをそれぞれ検出し、これら検出結果と、第1のメモリ116に予め格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ117に予め格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さUa1、Ub1の比率Ra1、Rb1と、第3のメモリ118に予め格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
従ってこの位置検出システム110では、2つの壁面72AA〜72ADの色及びこれら壁面72AA〜72ADに表記された斜線112に基づいてロボット111が領域2内における自分の位置を容易かつ精度良く認識することができる。
またこの位置検出システム110では、領域2の各辺に沿って配置された各壁面72AA〜72ADにそれぞれ互いに異なる色を塗布すると共に、斜線112を表記するだけで良いため、極めて簡単にシステムを構築することができる。
さらにこの位置検出システム110では、電波などの特別な信号を発信する方法を使用していないため、周辺機器への影響や電波法規などを考慮することなく使用することができると共に、領域2の床面に信号発生機を設置する必要がないため、ロボット111の行動を妨げるおそれもない。
さらにこの位置検出システム110では、ロボット111の行動領域2の床面に記号や標識等を表記する方式ではないため、他の目的のために床面にペイントなどを施すこともできる。
さらにこの位置検出システム110では、ロボット111のカメラ16をおおよそ水平方向に向けることによって当該ロボット111の正面の壁面72AA〜72ADをカメラ16により撮像することができるため、ロボット111が領域2内における自分の位置を検出するためにカメラ16を所定方向に向ける必要がなく、また他のロボットをカメラ16でとらえながら領域2内における自分の位置を検出し得る利点もある。
以上の構成によれば、各壁面72AA〜72ADに互いに異なる色を塗布すると共に、これら各壁面72AA〜72ADに斜線112を表記する一方、ロボット111が2つの壁面72AA〜72ADの色と、これら壁面72AA〜72ADを垂直に撮像した場合における画像中央部での斜線112よりも上部分の縦方向の長さUの比率Rx1とをそれぞれ検出し、これら検出結果と、第1のメモリ116に予め格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ117に予め格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さUa1、Ub1の比率Ra1、Rb1と、第3のメモリ118に予め格納されている地図情報とに基づいて領域2内における自分の位置を検出するようにしたことにより、ロボット111が領域2内における自分の位置を精度良く検出することができ、かくして領域2内における自分の位置を精度良く検出し得る位置検出システム及びロボットを実現できる。
(7)第7実施例
(7−1)第7実施例による位置検出システムの構成
図14との対応部分に同一符号を付して示す図25は、第7実施例による位置検出システム120を示すものであり、壁72の各壁面72AA〜72ADにそれぞれHSI空間において60〔°〕以上離れた互いに異なる色相の色が割り当てられている。
すなわち各壁面72AA〜72ADには、図26に示すように、それぞれ長手方向の一端の下端近傍から他端の上端部近傍に至る仮想線K1を境として、各壁面72AA〜72ADの仮想線K1よりも上部分に所定の色相で彩度の大きい色が塗布され、仮想線K1よりも下部分に上部分と同じ色相で彩度の小さい色が塗布されている。
一方ロボット121においては、第4実施例のロボット91(図17)に、位置検出部92(図18)に代えて図18との対応部分に同一符号を付した図27に示すような位置検出部122が設けられていることを除いてロボット91と同様に構成されている。
この場合位置検出部122には、領域2の各辺に沿う壁面72AA〜72ADの数と同じ数の色抽出部94A〜94Dが設けられており、カメラ16から出力される画像信号S1の画像フォーマットを画像フォーマット変換部93においてHSIフォーマットに変換した後、かくして得られた画像信号S50を各色抽出部94A〜94D及び壁検出部123にそれぞれ送出する。
各色抽出部94A〜94Dは、上述のように、画像信号S50に含まれる各画素の色相情報に基づいて、図16(B)に示す極座標において指定された色相から所定角度内の色相の画素を抽出すべき色の画素として検出し、当該検出結果に基づいて抽出すべき色の画素に対応する部分が論理「1」レベルに立ち上がり、他の色の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S51A〜S51Dを生成し、これを壁検出部123に送出する。
また壁検出部123は、各色抽出部94A〜94Dからそれぞれ供給される色抽出信号S51A〜S51Dに基づく画像を重ね合わせて走査することにより、ほぼ水平な同じ色相の細長い領域をいずれかの壁面72AA〜72ADとして検出し、検出結果を壁検出信号S80としてこのロボット121の行動を司る最上位のCPU36に与える。
このときCPU36は、対応する関節部のアクチュエータを駆動させることによりカメラの向き(すなわちロボットの頭部)を左右方向に移動させており、壁検出部123から供給される壁検出信号S80に基づいて、画像信号S50に基づく画像内において最も画素数の多い壁面(すなわち最も近い壁面)72AA〜72ADを検出すると共に、当該壁面72AA〜72ADの画像内における上端又は下端が水平となるように(すなわち当該壁面72AA〜72ADに対してカメラ16の光軸が垂直となるように)カメラ16の向きを調整する。
そしてカメラ16の光軸が最も近い壁面72AA〜72ADに垂直に向けられた状態において壁検出部123は、各色抽出部94A〜94Dから与えられる色抽出信号S51A〜S51Dと、画像フォーマット変換部93から与えられる画像信号S50に含まれる各画素の彩度情報とに基づいて、画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADの彩度の大きい方の色が塗布された部分(すなわち仮想線K1よりも上部分、以下、これを壁面72AA〜72ADの高彩度部分と呼ぶ)の縦方向の長さH(図26)と、画像中央部におけるその壁面72AA〜72ADの彩度の小さい方の色が塗布された部分(すなわち仮想線K1よりも下部分、以下、これを壁面72AA〜72ADの低彩度部分と呼ぶ)の縦方向の長さL(図26)とをそれぞれ画素を単位として検出し、これら検出した壁面72AA〜72ADの高彩度部分の長さH、その壁面72AA〜72ADの低彩度部分の長さL及びその壁面72AA〜72ADの色相とを壁面検出信号S81として比較・演算部124に送出する。
比較・演算部124は、壁面検出信号S81に基づき得られるその壁面72AA〜72ADの色相と、第1のメモリ125に予め格納されている各壁面72AA〜72ADの色相及びそのIDに関するテーブルとに基づいて、その壁面72AA〜72ADのIDを検出する。
また比較・演算部124は、壁面検出信号S81に基づき得られる画像中央部におけるその壁面72AA〜72ADの高彩度部分及び低彩度部分の各長さH、Lとに基づいて次式
Figure 2004185630
で与えられる演算を実行すると共に、かくして算出された画像中央部におけるその壁面の高さに対する高彩度部分の縦方向の長さの比率Rx2と、第2のメモリ126に予め格納されている各壁面72AA〜72ADの一端におけるその壁面72AA〜72ADの高さに対する高彩度部分の長さの比率Ra2、各壁面72AA〜72ADの他端におけるその壁面72AA〜72ADの高さに対する高彩度部分の長さの比率Rb2及び各壁面72AA〜72ADの長さMとに基づいて、次式
Figure 2004185630
で与えられる演算を実行することにより、その壁面72AA〜72ADの一端からその壁面72AA〜72ADの画像中央部に撮像されている部分までの距離x(その壁面72AA〜72ADと平行な方向における当該壁面72AA〜72ADの一端からロボット121までの距離に相当)を算出する。
なお各壁面72AA〜72ADの一端におけるその壁面72AA〜72ADの高さに対する高彩度部分の縦方向の長さの比率Ra2は、図26に示すように、その壁面72AA〜72ADの一端における高彩度部分の長さをHa2とし、低彩度部分の長さをLa2として次式
Figure 2004185630
により与えられる。また各壁面72AA〜72ADの他端におけるその壁面72AA〜72ADの高さに対する高彩度部分の長さの比率Rb2は、その壁面72AA〜72ADの他端における高彩度部分の長さをHb2とし、低彩度部分の長さをLb2として次式
Figure 2004185630
により与えられる。
さらにこの後比較・演算部124は、CPU36の制御のもとにカメラ16が90〔°〕回転されてその壁面72AA〜72AD(以下、これを第1の壁面72AA〜72ADと呼ぶ)と異なる壁面72AA〜72AD(以下、これを第2の壁面72AA〜72ADと呼ぶ)に向けられた後、同様の処理を実行することにより第2の壁面72AA〜72ADのIDと、当該第2の壁面72AA〜72ADと平行な方向における自分の位置とを検出する。
さらに比較・演算部124は、この後上述のようにして得られた第1の壁面72AA〜72ADのID及び当該第1の壁面72AA〜72ADと平行な方向における位置と、第2の壁面72AA〜72ADのID及び当該第2の壁面72AA〜72ADと平行な方向における位置と、第3のメモリ127に予め格納されている各壁面72AA〜72ADの位置を含む領域の地図情報とに基づいて領域2内における自分の位置を検出し、検出結果を位置検出信号S82としてCPU36に送出する。
これによりこのロボット121においては、CPU36が位置検出信号S82に基づいて領域2内における自分の位置を認識し得、当該認識結果に基づいて周囲の状況に応じた行動を自律的にとることができるようになされている。
(7−2)第7実施例の動作及び効果
以上の構成において、この位置検出システム120では、ロボット121がカメラ16から出力される画像信号S1に基づいて周囲の第1及び第2の壁面72AA〜72ADの色と、画像信号S1に基づく画像の中央部おけるこれら各壁面72AA〜72Dの高さに対する高彩度部分の長さHの比率Rx2とを検出し、これら検出結果と、第1のメモリ125に格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ126に格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端における壁面72AA〜72ADの高さに対する高彩度部分の長さHa2、Hb2の比率Ra2、Rb2と、第3のメモリ127に格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
従ってこの位置検出システム120では、2つの壁面72AA〜72ADの色相と、これら壁面72AA〜72ADの高彩度部分とに基づいてロボット121が領域2内における自分の位置を容易かつ精度良く認識することができる。
またこの位置検出システム120では、領域2の各辺に沿って配置された各壁面72AA〜72ADにそれぞれ互いに異なる色相で、かつ彩度の大きく異なる2色を所定パターンで塗布するだけで良いため、極めて簡単にシステムを構築することができる。
さらにこの位置検出システム120では、電波などの特別な信号を発信する方法を使用していないため、周辺機器への影響や電波法規などを考慮することなく使用することができると共に、領域2の床面に信号発生機を設置する必要がないため、ロボット121の行動を妨げるおそれもない。
さらにこの位置検出システム120では、ロボット121の行動領域2の床面に記号や標識等を表記する方式ではないため、他の目的のために床面にペイントなどを施すこともできる。
さらにこの位置検出システム120では、ロボット121のカメラ16をおおよそ水平方向に向けることによって当該ロボット121の正面の壁面72AA〜72ADをカメラ16により撮像することができるため、ロボット121が領域2内における自分の位置を検出するためにカメラ16を所定方向に向ける必要がなく、また他のロボットをカメラ16でとらえながら領域2内における自分の位置を検出し得る利点もある。
以上の構成によれば、各壁面72AA〜72AD毎に互いに異なる色相を用いて、これら各壁面72AA〜72ADに同じ色相で彩度の異なる2色を所定パターンでそれぞれ塗布し、ロボット121が2つの壁面72AA〜72ADの色相と、これら壁面72AA〜72ADをカメラ16により垂直に撮像した場合の画像中央部におけるその壁面72AA〜72ADの高さに対する高彩度部分の縦方向の長さHとをそれぞれ検出し、これら検出結果と、第1のメモリ125に格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ126に格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端における壁面72AA〜72ADの高さに対する高彩度部分の長さHa2、Hb2の比率Ra2、Rb2と、第3のメモリ127に格納されている地図情報とに基づいて領域2内における自分の位置を検出するようにしたことにより、ロボット121が領域2内における自分の位置を精度良く検出することができ、かくして領域2内における自分の位置を精度良く検出し得る位置検出システム及びロボットを実現できる。
(8)第8実施例
(8−1)第8実施例による位置検出システムの構成
図17との対応部分に同一符号を付して示す図28は、第8実施例による位置検出システム130を示すものであり、領域2の各辺に沿って設けられた各壁面131AA〜131ADがそれぞれ複数の液晶パネル132のパネル面で構成されている点を除いて第4実施例の位置検出システム90(図17)と同様に構成されている。
この場合各液晶パネル132は、図29に示すように、領域2の同じ辺に沿うもの同士が同じ色で、かつ領域2の異なる辺に沿うもの同士がHSI空間において色相が60〔°〕以上離れた互いに異なる色の光を領域2内に向けて発射するように制御部133により制御される。
これによりこの位置検出システム130においては、第4実施例の位置検出システム90(図17)と同様に、ロボット91が各壁面131AA〜131ADの色に基づいてその壁面131AA〜131ADを容易に識別し得るようになされている。
(8−2)第8実施例の動作及び効果
以上の構成において、この位置検出システム130では、図18について上述したように、ロボット91がカメラ16から出力される画像信号S1に基づいて、周囲の第1及び第2の壁面131AA〜131ADの色と、画像信号S1に基づく画像内におけるその第1及び第2の壁面131AA〜131ADの高さとを検出し、当該検出結果と、第1のメモリ83に予め格納されている各壁面131AA〜131ADの色及びそのIDと、第2のメモリ84に予め格納されている基準値Hstdと、第3のメモリ85に予め格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
従ってこの位置検出システム130によれば、第4実施例の位置検出システム90(図17)と同様の作用効果を得ることができる。
これに加えこの位置検出システム130では、各壁面131AA〜131ADが自ら所定の色を発光するため、例えば第4実施例のように各壁面72AA〜72ADにおける光の反射を利用する場合に比べてロボット91内部において色識別を行う際に照明などの外部環境の影響を受け難くすることができる。
またこの位置検出システム130では、各壁面131AA〜131ADを液晶パネル132のパネル面により構成するようにしているため、ロボット91の種類や、作業内容に応じて各壁面131AA〜131ADの色を自由に切り換えることができる利点をも有している。
以上の構成によれば、第4実施例の位置検出システム90(図17)に対し、領域2の各辺に沿う各壁面131AA〜131ADをそれぞれ複数の液晶パネル132のパネル面で構成すると共に、これら液晶パネル132を、領域2の同じ辺に沿うもの同士が同じ色で、かつ領域2の異なる辺に沿うもの同士がHSI空間において色相が60〔°〕以上離れた互いに異なる色の光を領域2内に向けて発射するように制御するようにしたことにより、ロボット91内部における色識別に外部環境の変化の影響を受け難くすることができ、かくして領域2内における自分の位置を精度良く検出し得る位置検出システム及びロボットを実現できる。
(9)他の実施例
なお上述の第1〜第8実施例においては、本発明を自律移動型のロボット3A〜3C、51A〜51C、71、91、101、111、121に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々のロボット又は他の移動体に適用することができる。
また上述の第1実施例においては、図2(A)のように、識別体23を支持棒22を介して各ロボット3A〜3Cに取り付けるようにした場合について述べたが、本発明はこれに限らず、識別体23を例えば図30のようにロボット140の頭部12上に配設するようにしても良く、要は、ロボット3A〜3Cに対して他のロボット3A〜3Cから見やすい位置に識別体23を取り付けるのであれば、識別体23の取り付け位置としては、この他種々の位置を適用できる。
さらに上述の第1実施例においては、識別体23を球状に形成するようにした場合について述べたが、本発明はこれに限らず、例えば図31(A)のような楕円回転体形状や、図31(B)のような円柱形状等のこの他種々の形状にするようにしても良い。ただし識別体23の形状をロボット3A〜3Cの移動方向と垂直な中心軸を有する回転体に選定し、その表面を当該ロボット3A〜3Cの移動方向と平行な複数の帯状領域に分割し、所定の色パターンで各帯状領域をそれぞれ所定色に着色するようにすることによって、領域2が平坦な場合にどの方向から見ても識別体を同じ形状及び同じ色パターンで見ることができるため、識別体の個体識別を容易にすることができる。
さらに上述の第1実施例においては、識別体23の表面を3色に色分けするようにした場合について述べたが、本発明はこれに限らず、この他の数に色分けするようにしても良い。また上述の第1実施例においては、識別のための色として16色用意するようにした場合について述べたが、本発明はこれに限らず、この他の数であっても良い。
さらに上述の第1実施例においては、他のロボット3A〜3Cに配設されたロボット3A〜3C毎に異なる色パターンの識別体23を撮像する撮像手段としてカメラ16を適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の撮像手段を適用できる。
さらに上述の第1実施例においては、カメラ16から供給される画像情報(画像信号S1)に基づいて、カメラ16により撮像された識別体23の色パターンを検出する色パターン検出手段を、図6のように構成された複数の色抽出部31A〜31Uと色パターン検出部32とで構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。
さらに上述の第1実施例においては、色パターン検出部32により検出された識別体23の色パターンと、予め記憶している各ロボット3A〜3Cごとの識別体23の色パターン情報とに基づいて、カメラ16により撮像した識別体23を有するロボット3A〜3Cの個体を識別する識別手段を、比較・演算部33、第1のメモリ34により構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。この場合第1のメモリ34に代えてこの他種々の記憶手段を適用できる。
さらに上述の第1実施例においては、カメラ16から供給される画像信号S1に基づく画像内における識別体23の直径(又は他の部分の大きさでも良い)を検出する大きさ検出手段を、複数の色抽出部31A〜31Uと色パターン検出部32とで構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。
さらに上述の第1実施例においては、色パターン検出部32により検出された識別体23の大きさと、予め記憶している基準値とに基づいて、カメラ16から識別体23までの距離L1を算出する演算手段を、比較・演算部33及び第2のメモリ35により構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。この場合第2のメモリ35に代えてこの他種々の記憶手段を適用できる。
さらに上述の第1実施例においては、カメラ16から識別体23までの距離L1を算出するための基準値を、カメラ16及び識別体23が1〔m〕離れているときの識別体23の画素を単位とした直径に選定するようにした場合について述べたが、本発明はこれに限らず、この他種々の値を適用できる。
さらに上述の第1実施例においては、各識別体23を単に複数色で固有の色パターンに色づけするようにした場合について述べたが、本発明はこれに限らず、例えば各識別体23の色パターンをそれぞれ所定の色空間(例えば図16を用いて説明したHSI空間や、色を赤色、緑色及び青色の各レベルで表すRGB空間、又は色を輝度レベル並びに第1及び第2の色差レベルで表すYUV空間など)において所定の第1の距離だけ離れた複数色の組み合わせにより形成する(すなわち識別のための色として所定の色空間において第1の距離だけ離れた色を用いる)ようにしても良い。
この場合各ロボット3A〜3Cの個体識別部30には、色抽出部31A〜31Uに代えて、カメラ16から供給される画像信号S1をその色空間に応じた画像フォーマットの画像信号に変換する変換手段(例えば第4実施例の画像フォーマット変換部93)と、当該変換手段から出力される画像信号に基づく画像のなかからそれぞれ互いに異なる指定された色の画素を抽出する複数の色抽出手段(例えば第4実施例の各色抽出部94A〜94D)とを設け、これら変換手段及び複数の色抽出手段と、色パターン検出部32(図4)とで構成される色パターン検出手段によってカメラ16により撮像した識別体23の色パターンを検出するようにするようにすれば良い。このようにすることによって、ロボット3A〜3Cにおける識別体23に着色された色の誤判定を未然に回避でき、その分より精度良くロボット3A〜3Cの個体を識別し得る個体識別システム及びロボットを実現できる。なおこの場合、カメラ16から出力される画像信号S1の画像フォーマットが上述の色空間に応じたものである場合には、変換手段を省略することができる。
さらにこの場合、識別体23に塗布する色の組み合わせとして、隣接する色同士が上述の色空間において第1の距離よりも大きい第2の距離だけ離れるように選定するようにしても良く、このようにすることによってより精度良くロボット3A〜3Cの個体を識別し得る個体識別システム及びロボットを実現できる。
さらに上述の第1実施例においては、識別体23として発光しないものを適用するようにした場合について述べたが、本発明はこれに限らず、識別体23として、例えば透明な球殻の内部に電球等の発光手段を収容すると共に、球殻の表面を対応する色パターンの色づけするなどして識別体23が対応する色パターンの光を発光するようにしても良く、このようにすることによって識別手段による色識別に誤識別が発生する確立を低減することができ、その分より精度良くロボット3A〜3Cの個体を識別し得る個体識別システム及びロボットを実現できる。
さらに上述の第2実施例においては、図10のように識別シール52の表面を色分けするようにして色パターンを形成するようにした場合について述べたが、本発明はこれに限らず、識別シール52の表面を図32のように色分けするようにしても良く、要は、識別シール52の表面を複数の色で色分けするのであれば、色パターンの形状としては、この他種々の形状を適用できる。
この場合例えば図33に示すように、複数種類の識別色のなかから所定数の色を用いて同心状の複数の環状領域141A〜141Cを色づけするようにして色パターンを形成するようにしても良い。
またこれに加えて、例えば図34(A)〜(C)のように各環状領域141A〜141Cの所定の径方向に延長する所定色に着色された直線領域141Dや、着色されていない長方形領域141E又は扇状領域141Fなどの領域を設けるようにしても良い。この場合直線領域141D、長方形領域141E又は扇状領域141Fなどの所定形状の領域がロボット51A〜51Cの前方向又は後方向などを向くように予め設定しておくことによって当該領域の向きに基づいてロボット51A〜51Cの向きをも検出し得るようにすることができる。
さらに上述の第2実施例においては、各ロボット51A〜51Cに互いに異なる色パターンを付与する手段として表面が所定の色パターンで色分けされた識別シール52を貼り付けるようにした場合について述べたが、本発明はこれに限らず、例えばロボット51A〜51Cの上面(又はカメラ53により撮像できる他の所定位置)に直接ペンキを塗ることにより各ロボット51A〜51Cに互いに異なる所定の色パターンを付与するようにしても良く、各ロボット51A〜51Cに互いに異なる所定の色パターンを付与する手段としては、この他種々の方法を適用できる。
この場合例えば各ロボット51A〜51Cに互いに異なる色パターンの光を発光する発光手段(例えば透明フィルムの下側に電球等の発光体を配設すると共に、透明フィルムに対応する色パターンで色づけする)を配設するようにしても良く、このようにすることによって識別手段による色識別に誤識別が発生する確立を低減することができ、その分より精度良くロボット3A〜3Cの個体を識別し得る個体識別システム及びロボットを実現できる。
さらに上述の第2実施例においては、カメラ53から供給される画像情報(画像信号S1)に基づく画像内における各ロボット51A〜51Cの色パターンの位置に基づいて、領域2内における各ロボット51A〜51Cの位置を検出する位置検出手段を、比較・演算部56及びメモリ57で構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。この場合メモリ57に代えてこの他種々の記憶手段を適用することができる。
さらに上述の第2実施例においては、個体識別部54により検出した各ロボット51A〜51Cの位置を電波により各ロボット51A〜51Cに伝達するようにした場合について述べたが、本発明はこれに限らず、この他の赤外線等の無線手段又は有線等のこの他種々の伝達手段を適用できる。
さらに上述の第2実施例においては、各識別シール52を単に複数色で固有の色パターンに色分けするようにした場合について述べたが、本発明はこれに限らず、例えば各識別シール52の色パターンをそれぞれ所定の色空間(例えばHSI空間や、RGB空間又はYUV空間など)において所定の第1の距離だけ離れた複数色の組み合わせにより形成する(すなわち識別のための色として所定の色空間において第1の距離だけ離れた色を用いる)ようにしても良い。
この場合個体識別部54には、色抽出部31A〜31Uに代えて、カメラ53から供給される画像信号S30をその色空間に応じた画像フォーマットの画像信号に変換する変換手段(例えば第4実施例の画像フォーマット変換部93)と、当該変換手段から出力される画像信号に基づく画像のなかからそれぞれ互いに異なる指定された色の画素を抽出する複数の色抽出手段(例えば第4実施例の各色抽出部94A〜94D)とを設け、これら変換手段及び複数の色抽出手段と、色パターン検出部55(図11)とで構成される色パターン検出手段によってカメラ53により撮像した各識別シール52の色パターンを検出するようにするようにしても良い。このようにすることによって、個体識別部54における識別シール52に着色された色の誤判定を未然に回避でき、その分より精度良くロボット51A〜51Cの個体を識別し得る個体識別システムを実現できる。なおこの場合においても、カメラ16から出力される画像信号S1の画像フォーマットが上述の色空間に応じたものである場合には変換手段を省略することができる。
さらにこの場合、識別シール52に塗布する色の組み合わせとして、隣接する色同士が上述の色空間において第1の距離よりも大きい第2の距離だけ離れるように選定するようにしても良く、このようにすることによってより精度良くロボット51A〜51Cの個体を識別し得る個体識別システムを実現できる。
さらに上述の第3実施例においては、領域2の各辺に沿った各壁面72AA〜72ADごとに塗布する色を変えるようにした場合について述べたが、本発明はこれに限らず、領域2の各辺に沿った各壁面72AA〜72ADをZ方向と平行な複数の領域に分割し、当該各領域ごとに塗布する色を変えるようにしても良い。
さらに上述の第1〜第3実施例においては、色抽出部31A〜31Uを図6のように構成するようにした場合について述べたが、本発明はこれに限らず、要は、供給される画像信号を輝度信号及び色差信号に分離する分離手段(実施例では分離回路41と、輝度信号及び色差信号に基づいて、画像信号に基づく画像内の画素ごとの輝度レベル及び色差レベルを順次検出するレベル検出手段(実施例ではアナログ/ディジタル変換回路42、43A、43B)と、レベル検出手段により検出された画素の輝度レベル及び色差レベルと予め記憶している各輝度レベルごとの色差レベルの上限値及び下限値とに基づいて各画素ごとに所定色か否かを判定する判定手段(実施例では第1〜第4のメモリ44A〜44D、第1〜第4の比較回路45A〜45D及び判定回路48)とを設けるようにするのであれば、色抽出部の構成としては、この他種々の構成を適用できる。
さらに上述の第3〜第8実施例においては、領域2の周囲に沿って設けられた互いに異なる色の複数の壁面72AA〜72AD、131AA〜131ADのうち、対応する所定の壁面72AA〜72AD、131AA〜131AD(すなわち正面の壁面72AA〜72AD、131AA〜131AD)を撮像する撮像手段としてカメラ16を適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の撮像手段を適用できる。
さらに上述の第3〜第8実施例においては、カメラ16から出力される画像情報(画像信号S1)に基づいて、当該カメラ16により撮像された壁面72AA〜72AD、131AA〜131ADの色及び当該壁面72AA〜72AD、131AA〜131ADに対する相対位置(その壁面72AA〜72AD、131AA〜131ADからの距離L2又はその壁面72AA〜72AD、131AA〜131ADと平行な方向における当該壁面72AA〜72AD、131AA〜131ADの一端からの距離x)を検出する色及び相対位置検出手段を、複数の色抽出部31A〜31D、94A〜94E、壁検出部8、103、114、123、比較・演算部82、104、115、124並びに第1及び第2のメモリ83、84、105、106、116、117、125、126により構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。この場合第1及び第2のメモリ83、84、105、106、116、117、125、126に代えてこの他種々の記憶手段を適用できる。
さらに上述の第3〜第8実施例においては、カメラ16により撮像された壁面72AA〜72AD、131AA〜131ADの色及び当該壁面72AA〜72AD、131AA〜131ADに対する相対位置と、予め記憶している全ての各壁面72AA〜72AD、131AA〜131ADの色及び全ての壁面72AA〜72AD、131AA〜131ADの位置を含む領域2の地図情報とに基づいて領域2内における自分の位置を検出する位置検出手段を、比較・演算部82、104、115、124及び第3のメモリ85、107、118、127により構成するようにした場合について述べたが、本発明はこれに限らず、第3のメモリ85、107、118、127に代えてこの他種々の記憶手段を適用できる。
さらに上述の第3〜第8実施例においては、ロボット71、91、101、111、121が2つの壁面72AA〜72AD、131AA〜131ADから領域2内における自分の位置を検出するようにした場合について述べたが、本発明はこれに限らず、3以上の壁面72AA〜72AD、131AA〜131ADから領域2内における自分の位置を検出するようにしても良い。
さらに上述の第4〜第8実施例においては、識別のための色として、HSI空間において図16(B)に示す極座標での原点Oまわりの角度が60〔°〕以上離れた色を選択するようにした場合について述べたが、本発明はこれに限らず、図16(B)に示す極座標での原点Oまわりの角度がこれ以外の角度離れた色を用いるようにしても良い。また識別のための色として、HSI空間以外の色空間(RGB空間や、YUV空間など)において所定距離だけ離れた色を用いるようにしても良い。
さらに上述の第4〜第8実施例においては、単に識別のための色としてHSI空間において図16(B)に示す極座標での原点Oまわりの角度が60〔°〕以上離れた色を選択するようにした場合について述べたが、本発明はこれに限らず、例えば隣接する壁面にはHSI空間(又は他の色空間)において60〔°〕以上離れた色を割り当てる(例えば図16(B)において壁面72AAには黄色(Y)、壁面72ABにはシアン(C)、壁面72ACには赤色(R)及び壁面72ADには青色(B)を塗布する)ようにしても良い。このようにすることによって、ロボット91、101、111、121内部において壁面72AA〜72AD131AA〜131ADの色を判別する際の誤判別を未然に回避でき、その分より精度良く領域2内における自分の位置を検出し得る位置検出システム及びロボット装置を構築することができる。
さらに上述の第5実施例においては、各壁面72AA〜72ADに塗布する色の飽和度(彩度)を線形に変化させるようにした場合について述べたが、本発明はこれに限らず、非線形に変化させるようにしても良い。ただしこの場合には1つの壁面72AA〜72ADにおいて同じ飽和度の部分が存在しないようにする必要がある。
さらに上述の第5実施例においては、各壁面72AA〜72ADの飽和度の変化に関する所定データとして、各壁面72AA〜72ADの長さMと、に各壁面72AA〜72ADの一端及び他端における飽和度Smin、Smaxとを第2のメモリ106に格納するようにした場合について述べたが、本発明はこれに限らず、要は、そのデータと、壁検出部103により検出された画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADに塗布された色の飽和度Sとに基づいて比較・演算部104が領域2内における自分の位置を検出することができるデータであるのならば、第2のメモリ106に格納するデータとしてはこれ以外のデータを適用できる。
さらに上述の第6実施例においては、壁面72AA〜72ADの一端の下端近傍から他端の上端近傍に至るように各壁面72AA〜72ADに斜線112を表記するようにした場合について述べたが、本発明はこれに限らず、例えば図35に示すように、壁面72AA〜72ADの一端の下端から他端の上端に至るように各壁面72AA〜72ADに斜線112を表記するようにしても良く、これ以外の形態に斜線を表記するようにしても良い。
さらに上述の第6実施例においては、各壁面72AA〜72ADにおける壁面72AA〜72ADの高さに対する斜線112よりも上部分の比率の変化に関する所定データとして、各壁面72AA〜72ADの長さMと、各壁面72AA〜72ADの一端及び他端における斜線112よりも上部分及び下部分の長さUa1、Ub1、La1、Lb1とを第2のメモリ117に格納するようにした場合について述べたが、本発明はこれに限らず、要は、そのデータと、壁検出部115により検出された画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分(下部分でも良い)の比率Rとに基づいて比較・演算部115が領域2内における自分の位置を検出することができるデータであるのならば、第2のメモリ117に格納するデータとしてはこれ以外のデータを適用できる。
さらに上述の第7実施例においては、壁面72AA〜72ADの上部分と下部分とを分ける仮想線K1が壁面72AA〜72ADの一端の下端近傍と他端の上端近傍とを通るようにした場合について述べたが、本発明はこれに限らず、例えば図36に示すように、仮想線K1(又は斜線でも良い)が壁面72AA〜72ADの一端の下端と、他端の上端とを通るように各壁面72AA〜72ADを上部分及び下部分に分けるようにしても良く、これ以外の形態に仮想線K1又は斜線を選定し、又は表記するようにしても良い。
さらに上述の第7実施例においては、壁面72AA〜72ADの高さに対する高彩度部分の長さHの比率Rが線形に変化するようにした場合について述べたが、本発明はこれに限らず、非線形に変化するようにしても良い。ただしこの場合においても、1つの壁面72AA〜72ADにおいて壁面72AA〜72ADの高さに対する高彩度部分の長さHの比率Rが同じとなる部分が存在しないようにする必要がある。
さらに上述の第7実施例においては、各壁面72AA〜72ADにおける壁面72AA〜72ADの高さに対する高彩度部分の長さHの比率Rの変化に関する所定データとして、各壁面72AA〜72ADの長さMと、各壁面72AA〜72ADの一端及び他端における高彩度部分及び低彩度部分の長さHa2、La2、Hb2、Lb2とを第2のメモリ126に格納するようにした場合について述べたが、本発明はこれに限らず、要は、そのデータと、壁検出部123により検出された画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADの高さに対する高彩度部分の長さHの比率Rとに基づいて比較・演算部124が領域2内における自分の位置を検出することができるデータであるのならば、第2のメモリ126に格納するデータとしてはこれ以外のデータを適用できる。
さらに上述の第3及び第8実施例においては、ロボット91内部において、壁面72AA〜72AD、131AA〜131ADに対する相対位置として当該壁面72AA〜72AD、131AA〜131ADからの距離を検出し、第4〜第8実施例においては、ロボット101、111、121内部において、壁面72AA〜72ADに対する相対位置として当該壁面72AA〜72ADと平行な方向のおける当該壁面72AA〜72ADの一端からの距離を検出するようにした場合について述べたが、本発明はこれに限らず、これ以外の相対位置を検出するようにしても良い。
さらに上述の第8実施例においては、各壁面131AA〜131ADを液晶パネルディスプレイ132のパネル面により構成するようにした場合について述べたが、本発明はこれに限らず、各壁面131AA〜131ADを液晶パネルディスプレイ132以外のディスプレイ(例えばCRT(Cathode Ray Tube)など)の表示面で構成するようにしても良い。また例えば通常の壁面72AA〜72AD(図13)に凹部を設け、当該凹部を覆うように所定色のフィルムを貼り付けると共に、当該凹部内に光源を配設するようにしてその壁面72AA〜72ADに割り当てられた色の光を領域2に向けて発光させるようにしても良く、要は、その壁面に割り当てられた色の光2を領域に向けて発光する発光手段により壁面を構成し、又は発光手段を壁面に設けるのであれば、発光手段の構成としては、この他種々の構成を適用できる。
さらに上述の第8実施例においては、単に各液晶パネルディスプレイ132が各壁面131AA〜131AD毎に異なる色の光を発光するようにした場合について述べたが、本発明はこれに限らず、例えば各液晶パネルディスプレイ132に第5〜第7実施例のように割り当てられた色や斜線を表示させると共に、ロボット91を第5〜第7実施例のように構成するようにしても良い。
さらに上述の第4〜第7実施例においては、カメラ16から出力される画像信号S1の画像フォーマットをHSI空間に応じた画像フォーマットに変換するため画像フォーマット変換部93を設けるようにした場合について述べたが、本発明はこれに限らず、例えばカメラ16から出力される画像信号S1の画像フォーマットが各壁面72AA〜72ADの色を選定する際に使用した色空間に対応した画像フォーマットである場合には画像フォーマット変換部93を省略するようにしても良い。
本願発明は、自律移動型ロボットのほか、種々のロボット装置等に広く適用することができる。
第1実施例による個体識別システムの全体構成を示す平面図である。 第1実施例によるロボットの構成及び識別体の構成を示す略線的な側面図である。 第1実施例によるロボットの構成示す略線的なブロック図である。 第1実施例による個体識別部の構成示すブロック図である。 色抽出部の構成の説明に供する略線図である。 色抽出部の構成を示すブロック図である。 第2実施例による個体識別システムの全体構成を示す平面図である。 第2実施例による個体識別システムの全体構成を示す平面図である。 第2実施例によるロボットの構成を示す略線的な斜視図である。 識別シールの説明に供する平面図である。 第2実施例による個体識別部の構成示すブロック図である。 第2実施例によるロボットの構成示す略線的なブロック図である。 第3実施例による位置識別システムの全体構成を示す斜視図である。 第3実施例による位置識別システムの全体構成を示す平面図である。 第3実施例による位置検出部の構成を示すブロック図である。 HSI空間の説明に供する略線図である。 第4実施例による位置識別システムの全体構成を示す平面図である。 第4実施例による位置検出部の構成を示すブロック図である。 第5実施例による位置識別システムの全体構成を示す平面図である。 第5実施例における各壁面の様子を示す略線図である。 第5実施例による位置検出部の構成を示すブロック図である。 第6実施例による位置識別システムの全体構成を示す平面図である。 第6実施例における各壁面の様子を示す略線図である。 第6実施例による位置検出部の構成を示すブロック図である。 第7実施例による位置識別システムの全体構成を示す平面図である。 第7実施例における各壁面の様子を示す略線図である。 第7実施例による位置検出部の構成を示すブロック図である。 第8実施例による位置識別システムの全体構成を示す平面図である。 第8実施例による位置識別システムの構成の説明に供する平面図である。 他の実施例を示す略線的な側面図である。 他の実施例を示す側面図及び斜視図である。 他の実施例を示す平面図である。 他の実施例を示す平面図である。 他の実施例を示す平面図である。 他の実施例を示す平面図である。 他の実施例を示す平面図である。
符号の説明
1、50……個体識別システム、2……領域、3A〜3C、51A〜51C、71、91、101、111、121……ロボット、16、53……カメラ、23……識別体、30、54……個体識別部、31A〜31U、94A〜94E……色抽出部、32、55……色パターン抽出部、33、56、82、104、115、124……比較・演算部、34、35、44A〜44D、57、83〜85、105〜107、116〜118、125〜127……メモリ、36……CPU、41……分離回路、42、43A、43B……アナログ/ディジタル変換回路、45A〜45D……比較回路、48……判定回路、49……フレームメモリ、52……識別シール、58……送信部、70……壁、72AA〜72AD、131AA〜131AD……壁面、80、102、113、122……位置検出部、81、103、114、123……壁検出部、93……画像フォーマット変換部、132……液晶パネル、133……制御部、D1……輝度データ、D2A、D2B……色差データ、S1、S30、S50……画像信号、S10A〜S10U、S51A〜S51D……色抽出信号、S11……識別体情報信号、S12……識別体検出信号、S20……輝度信号、S21A、S21B……色差信号、S31……識別シール検出信号、S32……ロボット位置検出信号、S40……壁検出信号、S41、S62、S71、S82……位置検出信号。

Claims (33)

  1. 所定の領域内を移動する移動体を識別する識別装置において、
    各上記移動体にそれぞれ設けられた互いに異なる色パターンの識別体と、
    各上記移動体にそれぞれ設けられ、他の上記移動体に配設された上記識別体を撮像する撮像手段と、
    上記撮像手段から供給される第1の画像情報に基づいて、当該撮像手段により撮像した上記識別体の上記色パターンを検出する色パターン検出手段と、
    上記色パターン検出手段による検出結果と、予め記憶している各上記移動体ごとの上記識別体の色パターン情報とに基づいて、上記撮像手段により撮像した上記識別体を有する上記移動体を識別する識別手段と
    を具えることを特徴とする識別装置。
  2. 上記撮像手段から供給される上記第1の画像情報に基づく画像内における上記識別体の大きさを検出する大きさ検出手段と、
    上記検出手段による検出結果と、予め記憶している基準値とに基づいて当該識別体までの距離を算出する演算手段と
    を具えることを特徴とする請求項1に記載の識別装置。
  3. 上記識別体は、
    上記移動体の移動方向と垂直な中心軸を有する回転体でなり、その表面が上記移動体の移動方向と平行な複数の帯状領域に分割され、所定の上記色パターンで各上記帯状領域がそれぞれ所定色に色づけされた
    ことを特徴とする請求項1に記載の識別装置。
  4. 各上記色パターンは、所定の色空間において互いに所定の第1の距離だけ離れた複数色の組み合わせにより形成され、
    上記色パターン検出手段は、上記撮像手段から供給される上記第1の画像情報を対応する上記色空間に応じた第2の画像情報に変換した後、当該第2の画像情報に基づいて上記撮像手段により撮像した上記識別体の上記色パターンを検出する
    ことを特徴とする請求項1に記載の識別装置。
  5. 各上記色パターンは、隣接する上記色同士が上記色空間において上記第1の距離より大きい第2の距離だけ離れるように上記色の組み合わせが選定されて形成された
    ことを特徴とする請求項4に記載の識別装置。
  6. 各上記識別体は、それぞれ対応する上記色パターンの光を発光する
    ことを特徴とする請求項1に記載の識別装置。
  7. 所定の領域内を移動する移動体を識別する識別装置において、
    各上記移動体にそれぞれ設けられ、他の上記移動体に配設された上記移動体毎に異なる色パターンの識別体を撮像する撮像手段と、
    上記撮像手段から供給される第1の画像情報に基づいて、当該撮像手段により撮像した上記識別体の上記色パターンを検出する色パターン検出手段と、
    上記色パターン検出手段による検出結果と、予め記憶している各上記移動体ごとの上記識別体の色パターン情報とに基づいて、上記撮像手段により撮像した上記識別体を有する上記移動体を識別する識別手段と
    を具えることを特徴とする識別装置。
  8. 上記撮像手段から供給される上記第1の画像情報に基づく画像内における上記識別体の大きさを検出する大きさ検出手段と、
    上記検出手段による検出結果と、予め記憶している基準値とに基づいて当該識別体までの距離を算出する演算手段と
    を具えることを特徴とする請求項7に記載の識別装置。
  9. 上記識別体は、
    上記移動体の移動方向と垂直な中心軸を有する回転体でなり、その表面が上記移動体の移動方向と平行な複数の帯状領域に分割され、所定の上記色パターンで各上記帯状領域がそれぞれ所定色に色づけされた
    ことを特徴とする請求項7に記載の識別装置。
  10. 各上記色パターンは、それぞれ所定の色空間において互いに所定の第1の距離だけ離れた複数色の組み合わせにより形成され、
    上記色パターン検出手段は、上記撮像手段から供給される上記第1の画像情報を対応する上記色空間に応じた第2の画像情報に変換した後、当該第2の画像情報に基づいて上記撮像手段により撮像した上記識別体の上記色パターンを検出する
    ことを特徴とする請求項7に記載の識別装置。
  11. 所定の領域内を移動する移動体を識別する識別方法において、
    各上記移動体に、それぞれ互いに異なる色パターンの識別体を設ける第1のステップと、
    各上記移動体にそれぞれ設けられた撮像手段により、他の上記移動体の上記識別体を撮像する第2のステップと、
    上記撮像手段から出力される第1の画像情報に基づいて、当該撮像手段により撮像した上記識別体の上記色パターンを検出する第3のステップと、
    検出した上記識別体の上記色パターンと、予め記憶している各上記識別体の色パターン情報とに基づいて、上記撮像手段により撮像した上記識別体を識別する第4のステップと
    を具えることを特徴とする識別方法。
  12. 上記撮像手段から出力される上記第1の画像情報に基づく画像内における上記識別体の大きさを検出する検出ステップと、
    検出した上記識別体の大きさと、予め記憶している基準値とに基づいて当該識別体までの距離を算出する演算ステップと
    を具えることを特徴とする請求項11に記載の識別方法。
  13. 上記識別体は、
    上記移動体の移動方向と垂直な中心軸を有する回転体でなり、その表面が上記移動体の移動方向と平行な複数の帯状領域に分割され、所定の上記色パターンで各上記帯状領域がそれぞれ所定色に着色された
    ことを特徴とする請求項11に記載の識別方法。
  14. 各上記色パターンは、それぞれ所定の色空間において所定の第1の距離だけ離れた複数色の組み合わせにより形成され、
    上記第3のステップでは、上記撮像手段から供給される上記第1の画像情報を対応する上記色空間に応じた第2の画像情報に変換した後、当該第2の画像情報に基づいて上記撮像手段により撮像した上記識別体の上記色パターンを検出する
    ことを特徴とする請求項11に記載の識別方法。
  15. 各上記色パターンは、隣接する上記色同士が上記色空間において上記第1の距離よりも大きい第2の距離だけ離れるように上記色の組み合わせが選定されて形成された
    ことを特徴とする請求項14に記載の識別方法。
  16. 各上記識別体は、それぞれ対応する上記色パターンの光を発光する
    ことを特徴とする請求項11に記載の識別方法。
  17. 他の物体にそれぞれ設けられた互いに異なる色パターンの識別体を撮像する撮像手段と、
    上記撮像手段から供給される第1の画像情報に基づいて、当該撮像手段により撮像した上記識別体の上記色パターンを検出する色パターン検出手段と、
    上記色パターン検出手段による検出結果と、予め記憶している各上記識別体の色パターン情報とに基づいて、上記撮像手段により撮像した上記識別体を識別する識別手段と
    を具えることを特徴とするロボット装置。
  18. 上記撮像手段から供給される上記第1の画像情報に基づく画像内における上記識別体の大きさを検出する大きさ検出手段と、
    上記検出手段による検出結果と、予め記憶している基準値とに基づいて当該識別体までの距離を算出する演算手段と
    を具えることを特徴とする請求項17に記載のロボット装置。
  19. 各上記色パターンは、それぞれ所定の色空間において所定の第1の距離だけ離れた複数色の組み合わせにより形成され、
    上記色パターン検出手段は、上記撮像手段から供給される上記第1の画像情報を対応する上記色空間に応じた第2の画像情報に変換した後、当該第2の画像情報に基づいて上記撮像手段により撮像した上記識別体の上記色パターンを検出する
    ことを特徴とする請求項17に記載のロボット装置。
  20. 所定の領域内を移動する複数の移動体を識別する識別装置において、
    上記領域全体を撮像する撮像手段と、
    上記撮像手段から出力される第1の画像情報に基づいて、各上記移動体の所定位置にそれぞれ付与された各上記移動体ごとに異なる色パターンをそれぞれ検出する色パターン検出手段と、
    上記色パターン検出手段による検出結果と、予め記憶している各移動体にそれぞれ付与された上記色パターンの情報とに基づいて、各上記移動体を識別する識別手段と
    を具えることを特徴とする識別装置。
  21. 上記撮像手段から供給される上記第1の画像情報に基づく画像内における各上記移動体の上記色パターンの位置に基づいて、上記領域内における各上記移動体の位置を検出する位置検出手段を具える
    ことを特徴とする請求項20に記載の識別装置。
  22. 各上記色パターンは、それぞれ複数種類の所定色のなかから所定数の色を用いて同心状の複数の環状領域をそれぞれ色づけしてなる
    ことを特徴とする請求項20に記載の識別装置。
  23. 各上記色パターンは、それぞれ上記環状領域の径方向に延長する領域を具える
    ことを特徴とする請求項20に記載の識別装置。
  24. 各上記色パターンは、それぞれ所定の色空間において所定の第1の距離だけ離れた複数色の組み合わせにより形成され、
    上記色パターン検出手段は、上記撮像手段から供給される上記第1の画像情報を対応する上記色空間に応じた第2の画像情報に変換した後、当該第2の画像情報に基づいて各上記移動体の上記色パターンをそれぞれ検出する
    ことを特徴とする請求項20に記載の識別装置。
  25. 各上記色パターンは、それぞれ隣接する上記色同士が上記色空間において上記第1の距離よりも大きい第2の距離だけ離れるように上記色の組み合わせが選定されて形成された
    ことを特徴とする請求項24に記載の識別装置。
  26. 各上記移動体にそれぞれ設けられ、対応する上記色パターンの光を発光する発光手段
    を具えることを特徴とする請求項20に記載の識別装置。
  27. 所定の領域内を移動する複数の移動体を識別する識別方法において、
    上記領域全体を撮像する撮像手段を所定位置に配置すると共に、各上記移動体の所定位置にそれぞれ互いに異なる色パターンを付与する第1のステップと、
    上記撮像手段から出力される第1の画像情報に基づいて、各上記移動体の上記色パターンをそれぞれ検出する第2のステップと、
    上記第2のステップにおける検出結果と、予め記憶している各移動体にそれぞれ設けられた上記色パターンとに基づいて、各上記移動体を識別する第3のステップと
    を具えることを特徴とする識別方法。
  28. 上記撮像手段から供給される上記第1の画像情報に基づく画像内における各上記移動体の上記色パターンの位置に基づいて、上記領域内における各上記移動体の位置を検出する検出ステップ
    を具えることを特徴とする請求項27に記載の識別方法。
  29. 各上記色パターンは、
    それぞれ複数種類の所定色のなかから所定数の色を用いて同心状の複数の環状領域をそれぞれ色づけしてなる
    ことを特徴とする請求項27に記載の識別方法。
  30. 各上記色パターンは、
    それぞれ上記環状領域の径方向に延長する領域を具える
    ことを特徴とする請求項27に記載の識別方法。
  31. 各上記色パターンは、それぞれ所定の色空間において所定の第1の距離だけ離れた複数色の組み合わせにより形成され、
    上記第2のステップでは、
    上記撮像手段から供給される上記第1の画像情報を対応する上記色空間に応じた第2の画像情報に変換した後、当該第2の画像情報に基づいて各上記移動体の上記色パターンをそれぞれ検出する
    ことを特徴とする請求項27に記載の識別方法。
  32. 各上記色パターンは、それぞれ隣接する上記色同士が上記色空間において上記第1の距離よりも大きい第2の距離だけ離れるように上記色の組み合わせが選定されて形成された
    ことを特徴とする請求項31に記載の識別装置。
  33. 供給される画像信号を輝度信号及び色差信号に分離する分離手段と、
    上記輝度信号及び上記色差信号に基づいて、上記画像信号に基づく画像内の各画素ごとの輝度レベル及び色差レベルを順次検出するレベル検出手段と、
    上記レベル検出手段により検出された上記画素の上記輝度レベル及び上記色差レベルと、予め記憶している各上記輝度レベル毎の上記色差レベルの上限値及び下限値とに基づいて、各上記画素ごとに所定色か否かを判定する判定手段と
    を具えることを特徴とする色抽出装置。
JP2003408263A 1996-09-30 2003-12-05 識別装置及び方法 Expired - Fee Related JP3928871B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003408263A JP3928871B2 (ja) 1996-09-30 2003-12-05 識別装置及び方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP28004196 1996-09-30
JP2003408263A JP3928871B2 (ja) 1996-09-30 2003-12-05 識別装置及び方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP04878697A Division JP3512099B2 (ja) 1996-09-30 1997-03-04 位置検出システム、位置検出装置及び位置検出方法並びにロボツト装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2004185630A true JP2004185630A (ja) 2004-07-02
JP3928871B2 JP3928871B2 (ja) 2007-06-13

Family

ID=32774135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003408263A Expired - Fee Related JP3928871B2 (ja) 1996-09-30 2003-12-05 識別装置及び方法

Country Status (1)

Country Link
JP (1) JP3928871B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252643A (ja) * 2007-03-30 2008-10-16 Toshiba Corp 移動体監視システムおよびその監視方法
WO2010063916A1 (fr) * 2008-12-04 2010-06-10 Parrot Jeu de drones munis de balises de reconnaissance
JP5327822B1 (ja) * 2012-10-22 2013-10-30 ニチユ三菱フォークリフト株式会社 無人搬送システム
WO2019053798A1 (ja) * 2017-09-13 2019-03-21 株式会社Doog 自律走行ロボットシステム
CN111399496A (zh) * 2018-12-28 2020-07-10 松下知识产权经营株式会社 移动体系统、以及控制方法
WO2022185787A1 (ja) * 2021-03-04 2022-09-09 村田機械株式会社 走行車及び走行車システム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252643A (ja) * 2007-03-30 2008-10-16 Toshiba Corp 移動体監視システムおよびその監視方法
WO2010063916A1 (fr) * 2008-12-04 2010-06-10 Parrot Jeu de drones munis de balises de reconnaissance
FR2939325A1 (fr) * 2008-12-04 2010-06-11 Parrot Systeme de drones munis de balises de reconnaissance
US8818083B2 (en) 2008-12-04 2014-08-26 Parrot System of drones provided with recognition beacons
JP5327822B1 (ja) * 2012-10-22 2013-10-30 ニチユ三菱フォークリフト株式会社 無人搬送システム
WO2019053798A1 (ja) * 2017-09-13 2019-03-21 株式会社Doog 自律走行ロボットシステム
JPWO2019053798A1 (ja) * 2017-09-13 2020-10-29 株式会社Doog 自律走行ロボットシステム
JP7023009B2 (ja) 2017-09-13 2022-02-21 株式会社Doog 自律走行ロボットシステム
CN111399496A (zh) * 2018-12-28 2020-07-10 松下知识产权经营株式会社 移动体系统、以及控制方法
WO2022185787A1 (ja) * 2021-03-04 2022-09-09 村田機械株式会社 走行車及び走行車システム
JP7396532B2 (ja) 2021-03-04 2023-12-12 村田機械株式会社 走行車及び走行車システム

Also Published As

Publication number Publication date
JP3928871B2 (ja) 2007-06-13

Similar Documents

Publication Publication Date Title
US6088469A (en) Identifying apparatus and method, position detecting apparatus and method, robot apparatus and color extracting apparatus
US5911767A (en) Navigation system for an autonomous mobile robot
JP2001325069A (ja) 位置検出装置およびその方法
US7747072B2 (en) Image processing method, image processing program, its storage medium, and image processing device for extracting points from a color image
US8638988B2 (en) Movement analysis and/or tracking system
US10319100B2 (en) Methods, devices, and systems for identifying and tracking an object with multiple cameras
KR101046283B1 (ko) 프로젝터 시스템
EP2575105B1 (en) Information acquisition device, information acquisition method, program, and information acquisition system
CN107527368B (zh) 基于二维码的三维空间姿态定位方法与装置
JP4572377B2 (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US20200247651A1 (en) Multi-function camera system
CN111823237B (zh) 基于rgb led动态信标的多机器人定位方法及系统
JP3928871B2 (ja) 識別装置及び方法
JP3512099B2 (ja) 位置検出システム、位置検出装置及び位置検出方法並びにロボツト装置及びその制御方法
CN110070581B (zh) 双视野定位方法、装置及系统
US20150356751A1 (en) Display evaluation device, display evaluation method, and non-transitory computer readable medium
US7120296B2 (en) Information processing method
JP2000081950A (ja) 画像処理装置、画像処理方法、及び提供媒体、並びにプレゼンテーションシステム
JP2013084031A (ja) マーカー、二次元コード、およびマーカーの認識方法、二次元コードの認識方法
CN111784768A (zh) 基于三色四灯标记识别的无人机姿态估计方法及系统
CN118038071A (en) Object identification method and robot debugging method
RU2785076C1 (ru) Способ автономной посадки беспилотного летательного аппарата
RU2794046C1 (ru) Способ позиционирования объекта
JPS61182509A (ja) ぜんまい形状検査装置
JP2013229785A (ja) 画像処理lsi、画像処理システムおよび画像処理方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070301

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100316

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees