JPH10109290A - 位置検出装置及び方法並びにロボツト装置 - Google Patents
位置検出装置及び方法並びにロボツト装置Info
- Publication number
- JPH10109290A JPH10109290A JP8280042A JP28004296A JPH10109290A JP H10109290 A JPH10109290 A JP H10109290A JP 8280042 A JP8280042 A JP 8280042A JP 28004296 A JP28004296 A JP 28004296A JP H10109290 A JPH10109290 A JP H10109290A
- Authority
- JP
- Japan
- Prior art keywords
- area
- detected
- moving body
- sign
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 74
- 238000001514 detection method Methods 0.000 claims abstract description 99
- 239000003550 marker Substances 0.000 claims description 75
- 238000003384 imaging method Methods 0.000 claims description 18
- 238000005259 measurement Methods 0.000 claims 2
- 239000003086 colorant Substances 0.000 description 18
- 230000000694 effects Effects 0.000 description 17
- 230000014509 gene expression Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000006073 displacement reaction Methods 0.000 description 5
- 210000002414 leg Anatomy 0.000 description 3
- 102100022907 Acrosin-binding protein Human genes 0.000 description 2
- 210000003141 lower extremity Anatomy 0.000 description 2
- 210000001364 upper extremity Anatomy 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- PNDPGZBMCMUPRI-UHFFFAOYSA-N iodine Chemical compound II PNDPGZBMCMUPRI-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】
【課題】所定の領域内における移動体又は自分自身の位
置を精度良く検出し得る位置検出装置及び方法並びにロ
ボツト装置を実現し難かつた。 【解決手段】単数又は複数の標識をそれぞれ領域内又は
領域の周囲の所定位置に配置すると共に、対応する標識
を移動体又は自分自身に設けられた撮像手段により撮像
し、得られる画像情報に基づいて、撮像した標識を認識
し、かつ当該標識及び移動体若しくは自分自身間の距離
及び又は当該標識に対する移動体若しくは自分自身の方
向を検出し、検出結果に基づいて領域内における移動体
又は自分自身の位置を検出するようにしたことにより、
所定の領域内における移動体又は自分自身の位置を精度
良く検出し得る位置検出装置及び方法並びにロボツト装
置を実現できる。
置を精度良く検出し得る位置検出装置及び方法並びにロ
ボツト装置を実現し難かつた。 【解決手段】単数又は複数の標識をそれぞれ領域内又は
領域の周囲の所定位置に配置すると共に、対応する標識
を移動体又は自分自身に設けられた撮像手段により撮像
し、得られる画像情報に基づいて、撮像した標識を認識
し、かつ当該標識及び移動体若しくは自分自身間の距離
及び又は当該標識に対する移動体若しくは自分自身の方
向を検出し、検出結果に基づいて領域内における移動体
又は自分自身の位置を検出するようにしたことにより、
所定の領域内における移動体又は自分自身の位置を精度
良く検出し得る位置検出装置及び方法並びにロボツト装
置を実現できる。
Description
【0001】
【目次】以下の順序で本発明を説明する。 発明の属する技術分野 従来の技術 発明が解決しようとする課題 課題を解決するための手段 発明の実施の形態 (1)第1実施例 (1−1)原理(図1及び図2) (1−2)第1実施例による位置検出システムの構成
(図3〜図5) (1−3)第1実施例の動作及び効果(図3〜図6) (2)第2実施例 (2−1)原理(図7) (2−2)第2実施例による位置検出システムの構成
(図3〜図11) (2−3)第2実施例の動作及び効果(図3〜図11) (3)第3実施例 (3−1)原理(図12) (3−2)第3実施例による位置検出システムの構成
(図13〜図15) (3−3)第3実施例の動作及び効果(図13〜図1
5) (4)第4実施例 (4−1)原理(図16) (4−2)第4実施例による位置検出システムの構成
(図17〜図19) (4−3)第4実施例の動作及び効果(図17〜図1
9) (5)第5実施例 (5−1)原理(図20) (5−2)第5実施例による位置検出システムの構成
(図21〜図23) (5−3)第5実施例の動作及び効果(図21〜図2
3) (6)第6実施例 (6−1)原理(図24及び図25) (6−2)第6実施例による位置検出システムの構成
(図26及び図27) (6−3)第6実施例の動作及び効果(図26及び図2
7) (7)第7実施例 (7−1)原理(図28) (7−2)第7実施例による位置検出システムの構成
(図29〜図31) (7−3)第7実施例の動作及び効果(図29〜図3
1) (8)第8実施例 (8−1)原理(図32) (8−2)第8実施例による位置検出システムの構成
(図33及び図34) (8−3)第8実施例の動作及び効果(図33及び図3
4) (9)他の実施例(図1〜図39) 発明の効果
(図3〜図5) (1−3)第1実施例の動作及び効果(図3〜図6) (2)第2実施例 (2−1)原理(図7) (2−2)第2実施例による位置検出システムの構成
(図3〜図11) (2−3)第2実施例の動作及び効果(図3〜図11) (3)第3実施例 (3−1)原理(図12) (3−2)第3実施例による位置検出システムの構成
(図13〜図15) (3−3)第3実施例の動作及び効果(図13〜図1
5) (4)第4実施例 (4−1)原理(図16) (4−2)第4実施例による位置検出システムの構成
(図17〜図19) (4−3)第4実施例の動作及び効果(図17〜図1
9) (5)第5実施例 (5−1)原理(図20) (5−2)第5実施例による位置検出システムの構成
(図21〜図23) (5−3)第5実施例の動作及び効果(図21〜図2
3) (6)第6実施例 (6−1)原理(図24及び図25) (6−2)第6実施例による位置検出システムの構成
(図26及び図27) (6−3)第6実施例の動作及び効果(図26及び図2
7) (7)第7実施例 (7−1)原理(図28) (7−2)第7実施例による位置検出システムの構成
(図29〜図31) (7−3)第7実施例の動作及び効果(図29〜図3
1) (8)第8実施例 (8−1)原理(図32) (8−2)第8実施例による位置検出システムの構成
(図33及び図34) (8−3)第8実施例の動作及び効果(図33及び図3
4) (9)他の実施例(図1〜図39) 発明の効果
【0002】
【発明の属する技術分野】本発明は位置検出装置及び方
法並びにロボツト装置に関し、例えば自律移動型ロボツ
トに適用して好適なものである。
法並びにロボツト装置に関し、例えば自律移動型ロボツ
トに適用して好適なものである。
【0003】
【従来の技術】近年、移動型ロボツトの1つとして、周
囲の環境についての情報を順次取り込み、得られた情報
に基づいて自分で行動を決定して移動し得るようになさ
れた、いわゆる自律移動型ロボツトの研究が進められて
いる。
囲の環境についての情報を順次取り込み、得られた情報
に基づいて自分で行動を決定して移動し得るようになさ
れた、いわゆる自律移動型ロボツトの研究が進められて
いる。
【0004】
【発明が解決しようとする課題】ところでこのような自
律移動型ロボツトに行動領域内における自分の位置を検
出させる方法としては、床面にテープを貼るなどして行
動領域内における位置を直接検出できるものを用意する
第1の方法や、初期位置からの移動距離を積算する第2
の方法などが考えられる。
律移動型ロボツトに行動領域内における自分の位置を検
出させる方法としては、床面にテープを貼るなどして行
動領域内における位置を直接検出できるものを用意する
第1の方法や、初期位置からの移動距離を積算する第2
の方法などが考えられる。
【0005】ところがこのような方法のうち、第1の方
法によると、テープ等の位置検出用の標識を数多く必要
とする問題があり、またそのロボツトがテープ上に位置
していなければ位置検出を行えない問題がある。また第
2の方法によると、実際のロボツトの移動距離と計算上
の移動距離との間に僅かながらも誤差が生じ易く、移動
距離が長くその誤差が累積されるために精度良く位置を
検出し得ない問題がある。
法によると、テープ等の位置検出用の標識を数多く必要
とする問題があり、またそのロボツトがテープ上に位置
していなければ位置検出を行えない問題がある。また第
2の方法によると、実際のロボツトの移動距離と計算上
の移動距離との間に僅かながらも誤差が生じ易く、移動
距離が長くその誤差が累積されるために精度良く位置を
検出し得ない問題がある。
【0006】本発明は以上の点を考慮してなされたもの
で、所定の領域内における移動体又は自分自身の位置を
精度良く検出し得る位置検出装置及び方法並びにロボツ
ト装置を提案しようとするものである。
で、所定の領域内における移動体又は自分自身の位置を
精度良く検出し得る位置検出装置及び方法並びにロボツ
ト装置を提案しようとするものである。
【0007】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、位置検出装置において、それぞれ
領域内又は当該領域の周囲の所定位置に配置された単数
又は複数の標識と、移動体に設けられた標識を撮像する
撮像手段と、撮像手段から出力される画像情報に基づい
て、撮像した標識を認識し、かつ当該標識及び移動体間
の距離及び又は当該標識に対する移動体の方向を検出す
る検出手段と、検出結果に基づいて領域内における移動
体の位置を算出する演算手段とを設けるようにした。こ
の結果標識に基づいて、領域内における移動体の位置を
精度良く検出することができる。
め本発明においては、位置検出装置において、それぞれ
領域内又は当該領域の周囲の所定位置に配置された単数
又は複数の標識と、移動体に設けられた標識を撮像する
撮像手段と、撮像手段から出力される画像情報に基づい
て、撮像した標識を認識し、かつ当該標識及び移動体間
の距離及び又は当該標識に対する移動体の方向を検出す
る検出手段と、検出結果に基づいて領域内における移動
体の位置を算出する演算手段とを設けるようにした。こ
の結果標識に基づいて、領域内における移動体の位置を
精度良く検出することができる。
【0008】また本発明においては、位置検出方法にお
いて、それぞれ領域内又は当該領域の周囲の所定位置に
配置された標識のうち、対応する標識を移動体に設けら
れた撮像手段により撮像する第1のステツプと、撮像手
段から出力される画像情報に基づいて、撮像された標識
を認識すると共に、当該標識及び移動体間の距離及び又
は当該標識に対する移動体の方向を検出する第2のステ
ツプと、検出した距離及び又は方向に基づいて領域内に
おける移動体の位置を算出する第3のステツプとを設け
るようにした。この結果標識に基づいて、領域内におけ
る移動体の位置を精度良く検出することができる。
いて、それぞれ領域内又は当該領域の周囲の所定位置に
配置された標識のうち、対応する標識を移動体に設けら
れた撮像手段により撮像する第1のステツプと、撮像手
段から出力される画像情報に基づいて、撮像された標識
を認識すると共に、当該標識及び移動体間の距離及び又
は当該標識に対する移動体の方向を検出する第2のステ
ツプと、検出した距離及び又は方向に基づいて領域内に
おける移動体の位置を算出する第3のステツプとを設け
るようにした。この結果標識に基づいて、領域内におけ
る移動体の位置を精度良く検出することができる。
【0009】さらに本発明においては、ロボツト装置に
おいて、それぞれ領域内又は当該領域の周囲の所定位置
に配置された標識のうち、対応する所定の標識を撮像す
る撮像手段と、撮像手段から出力される画像情報に基づ
いて、撮像された標識を認識すると共に、当該標識まで
の距離及び又は当該標識に対する方向を検出する検出手
段と、検出手段により検出された距離及び又は方向に基
づいて領域内における位置を算出する演算手段とを設け
るようにした。この結果標識に基づいて、領域内におけ
る移動体の位置を精度良く検出することができる。
おいて、それぞれ領域内又は当該領域の周囲の所定位置
に配置された標識のうち、対応する所定の標識を撮像す
る撮像手段と、撮像手段から出力される画像情報に基づ
いて、撮像された標識を認識すると共に、当該標識まで
の距離及び又は当該標識に対する方向を検出する検出手
段と、検出手段により検出された距離及び又は方向に基
づいて領域内における位置を算出する演算手段とを設け
るようにした。この結果標識に基づいて、領域内におけ
る移動体の位置を精度良く検出することができる。
【0010】
【発明の実施の形態】以下図面について、本発明の一実
施例を詳述する。
施例を詳述する。
【0011】(1)第1実施例 (1−1)原理 図1において、それぞれ座標が分かつている同一平面上
の3つの点A、B、Cに基づいて当該平面上の任意の点
Oの座標を算出する方法について考える。まず∠AOB
=α、∠BOC=β、∠ABC=φ、∠ABO=ψと
し、AB=L1 、BC=L2 、BO=Lとすると、△A
BOに正弦定理を適用して次式
の3つの点A、B、Cに基づいて当該平面上の任意の点
Oの座標を算出する方法について考える。まず∠AOB
=α、∠BOC=β、∠ABC=φ、∠ABO=ψと
し、AB=L1 、BC=L2 、BO=Lとすると、△A
BOに正弦定理を適用して次式
【数1】 が得られ、同様に△BCOに正弦定理を適用して次式
【数2】 が得られる。
【0012】この(1)式及び(2)式を用いてLを消
去すると、次式
去すると、次式
【数3】 が得られ、当該(3)式を加法定理を用いて整理する
と、次式
と、次式
【数4】 が得られる。
【0013】さらにこの(4)式をψについて解くと、
次式
次式
【数5】 となる。この場合L1 、L2 は既知であり、φ、α及び
βを測定することにより(5)式からψを求めることが
できる。さらに得られたψを(1)式に代入することに
よりLを求めことができ、かくしてL及びφとから点O
の座標を得ることができる。
βを測定することにより(5)式からψを求めることが
できる。さらに得られたψを(1)式に代入することに
よりLを求めことができ、かくしてL及びφとから点O
の座標を得ることができる。
【0014】次いで図2を用いて、ロボツトの行動領域
の周囲に沿つて所定高さの壁を設け、当該壁を用いてコ
ーナから見たロボツトの方位を検出する方法について説
明する。まずロボツトのカメラ1により壁2を撮像し、
当該カメラ1から出力される画像信号に基づく画像4内
における壁2の上端のエツジを検出する。この線分は、
カメラ1の撮像方向が壁2の内壁面(以下、これを単に
壁面2A、2Bと呼ぶ)に対して垂直のときには画像平
面に水平に写像されるが、撮像方向が斜めであるときに
は写像される線分も角度をもつ。
の周囲に沿つて所定高さの壁を設け、当該壁を用いてコ
ーナから見たロボツトの方位を検出する方法について説
明する。まずロボツトのカメラ1により壁2を撮像し、
当該カメラ1から出力される画像信号に基づく画像4内
における壁2の上端のエツジを検出する。この線分は、
カメラ1の撮像方向が壁2の内壁面(以下、これを単に
壁面2A、2Bと呼ぶ)に対して垂直のときには画像平
面に水平に写像されるが、撮像方向が斜めであるときに
は写像される線分も角度をもつ。
【0015】そこでカメラ1により壁2のコーナ2Cを
撮像し、得られる画像4内における2つの壁面2A、2
Bの角度θ1 、θ2 を求める。壁面2A、2B同士の交
わる角度が既知であるのならば、壁2のそのコーナ2C
までの距離rや壁2の高さなどの情報を使うことなく、
カメラの撮像方向と一方の壁面2Aのなす角α、つまり
壁2のコーナ2Cに対するロボツトの方位を求めること
ができる。この場合、壁2のコーナ2Cに対するロボツ
トの方位を求める演算式は以下のようにして得ることが
できる。
撮像し、得られる画像4内における2つの壁面2A、2
Bの角度θ1 、θ2 を求める。壁面2A、2B同士の交
わる角度が既知であるのならば、壁2のそのコーナ2C
までの距離rや壁2の高さなどの情報を使うことなく、
カメラの撮像方向と一方の壁面2Aのなす角α、つまり
壁2のコーナ2Cに対するロボツトの方位を求めること
ができる。この場合、壁2のコーナ2Cに対するロボツ
トの方位を求める演算式は以下のようにして得ることが
できる。
【0016】すなわちまずロボツトの位置を原点、カメ
ラ1の撮像方向をZ軸とする座標系で観測した場合、カ
メラ1の撮像方向に位置する壁2のコーナ2Cまでの距
離をrとし、壁2の視点からの高さをhとすると、コー
ナ2Cの上端の座標は、次式
ラ1の撮像方向をZ軸とする座標系で観測した場合、カ
メラ1の撮像方向に位置する壁2のコーナ2Cまでの距
離をrとし、壁2の視点からの高さをhとすると、コー
ナ2Cの上端の座標は、次式
【数6】 のように与えられる。また壁面2Aに対して垂直となる
方向の当該壁2Aの上端の位置は、次式
方向の当該壁2Aの上端の位置は、次式
【数7】 のように求めることができる。
【0017】ここでこれら各点は、それぞれ画像平面上
の以下の位置に写される。
の以下の位置に写される。
【数8】
【数9】 また画像上の位置関係から次式
【数10】 が得られ、同様にしてもう一方の壁面2Bから次式
【数11】 が得られる。
【0018】ここで壁面2A、2B同士が90〔°〕で交
わるものとすると、次式
わるものとすると、次式
【数12】 から次式
【数13】 が得られる。
【0019】さらに(10)式、(11)式及び(13)式か
ら次式
ら次式
【数14】 が得られる。従つてこの(14)式を用いることによつ
て、ロボツトの壁2のコーナ2Cからの方位(例えば
α)を求めることができる。
て、ロボツトの壁2のコーナ2Cからの方位(例えば
α)を求めることができる。
【0020】(1−2)第1実施例による位置検出シス
テムの構成 図3において、10は全体として第1実施例による位置
検出システムを示し、ロボツト11の行動領域(以下、
単に領域と呼ぶ)12の周囲に沿つて所定高さの壁13
が設けられると共に、当該領域12の各コーナ13A〜
13Dにそれぞれ標識14A〜14Dが配設されてい
る。なお以下の説明においては、領域12が長方形状で
あるものとし、所定の一辺と平行な方向をX方向(矢印
x)、これと垂直な方向をY方向(矢印y)及び領域3
と垂直な方向をZ方向(矢印z)とする。
テムの構成 図3において、10は全体として第1実施例による位置
検出システムを示し、ロボツト11の行動領域(以下、
単に領域と呼ぶ)12の周囲に沿つて所定高さの壁13
が設けられると共に、当該領域12の各コーナ13A〜
13Dにそれぞれ標識14A〜14Dが配設されてい
る。なお以下の説明においては、領域12が長方形状で
あるものとし、所定の一辺と平行な方向をX方向(矢印
x)、これと垂直な方向をY方向(矢印y)及び領域3
と垂直な方向をZ方向(矢印z)とする。
【0021】各標識14A〜14Dにおいては、それぞ
れ互いに異なる色を発光するLED(Light Eeitting D
iode)等の発光手段を有し、それぞれロボツト11が領
域12内のどの位置に位置した場合においても見ること
ができるように、対応する色の光を領域12内の各方向
に向けて発射し得るようになされている。
れ互いに異なる色を発光するLED(Light Eeitting D
iode)等の発光手段を有し、それぞれロボツト11が領
域12内のどの位置に位置した場合においても見ること
ができるように、対応する色の光を領域12内の各方向
に向けて発射し得るようになされている。
【0022】一方ロボツト11においては、図4及び図
5に示すように、それぞれ胴体部20の上面前端に首部
21を介して頭部22が配設されるとともに、胴体部2
0の下面の前後左右の4隅にそれぞれ太股部23及び脛
部24からなる右前脚部25A、左前脚部25B、右後
脚部25C及び左後脚部25D(以下、これらをまとめ
て各脚部25A〜25Dと呼ぶ)が配設されることによ
り構成されている。
5に示すように、それぞれ胴体部20の上面前端に首部
21を介して頭部22が配設されるとともに、胴体部2
0の下面の前後左右の4隅にそれぞれ太股部23及び脛
部24からなる右前脚部25A、左前脚部25B、右後
脚部25C及び左後脚部25D(以下、これらをまとめ
て各脚部25A〜25Dと呼ぶ)が配設されることによ
り構成されている。
【0023】この場合頭部22にはその光軸を矢印aで
示す当該ロボツトの前方向に向けてカメラ26が取り付
けられていると共に、当該頭部22の所定位置にはマイ
クロホン27(図5)が取り付けられ、かつ頭部22、
胴体部20及び各脚部25A〜25Dの表面にはそれぞ
れ複数の接触センサ28A〜28Z(図5)が取り付け
られている。
示す当該ロボツトの前方向に向けてカメラ26が取り付
けられていると共に、当該頭部22の所定位置にはマイ
クロホン27(図5)が取り付けられ、かつ頭部22、
胴体部20及び各脚部25A〜25Dの表面にはそれぞ
れ複数の接触センサ28A〜28Z(図5)が取り付け
られている。
【0024】また胴体部20内には制御部29(図5)
が配設されており、制御部29は、図5のようにカメラ
26から供給される画像信号S1、マイクロホン27か
ら供給される音声信号S2及び接触センサ28A〜28
Zから供給されるセンサ信号S3A〜S3Zに基づいて
周囲の状況を認識し、認識結果に基づいて各構成ユニツ
ト(頭部22、首部21、胴体部20、各太股部23及
び各脛部24)をそれぞれ連結する各関節部30A〜3
0J(図4)内のアクチユエータ31A〜31Jをそれ
ぞれ必要に応じて駆動させるようになされている。
が配設されており、制御部29は、図5のようにカメラ
26から供給される画像信号S1、マイクロホン27か
ら供給される音声信号S2及び接触センサ28A〜28
Zから供給されるセンサ信号S3A〜S3Zに基づいて
周囲の状況を認識し、認識結果に基づいて各構成ユニツ
ト(頭部22、首部21、胴体部20、各太股部23及
び各脛部24)をそれぞれ連結する各関節部30A〜3
0J(図4)内のアクチユエータ31A〜31Jをそれ
ぞれ必要に応じて駆動させるようになされている。
【0025】これによりロボツト11においては、制御
部29の制御により各構成ユニツトを自在に駆動し得る
ようになされ、かくして周囲の状況に応じた行動を自律
的にとることができるようになされている。かかる構成
に加えこの位置検出システム10の場合、ロボツト11
の制御部29は、領域12を取り囲む壁13に基づいて
当該領域12内における自分の位置を検出し得るように
なされている。
部29の制御により各構成ユニツトを自在に駆動し得る
ようになされ、かくして周囲の状況に応じた行動を自律
的にとることができるようになされている。かかる構成
に加えこの位置検出システム10の場合、ロボツト11
の制御部29は、領域12を取り囲む壁13に基づいて
当該領域12内における自分の位置を検出し得るように
なされている。
【0026】すなわち制御部29は、位置検出モード
時、図6に示す位置検出処理手順RT1をステツプSP
0において開始し、続くステツプSP1においてカメラ
26の向きを必要に応じて所定方向に回転させることに
より、任意の第1の標識14A〜14D(図1において
点Oをロボツト11の位置とした場合の点Aに相当)を
サーチする。このときこのロボツト11には、図5から
も明らかなように、カメラ26から供給される画像信号
S1に基づいて当該カメラ26により撮像された標識1
4A〜4Dの発光色を検出し、当該検出結果と、予めメ
モリ等の記憶手段に記憶している各標識14A〜14D
の発光色情報とからその標識14A〜14Dの個体を認
識する画像処理部32が設けられている。またこの画像
処理部32は、認識結果を標識認識信号S4として制御
部29に送出するようになされている。
時、図6に示す位置検出処理手順RT1をステツプSP
0において開始し、続くステツプSP1においてカメラ
26の向きを必要に応じて所定方向に回転させることに
より、任意の第1の標識14A〜14D(図1において
点Oをロボツト11の位置とした場合の点Aに相当)を
サーチする。このときこのロボツト11には、図5から
も明らかなように、カメラ26から供給される画像信号
S1に基づいて当該カメラ26により撮像された標識1
4A〜4Dの発光色を検出し、当該検出結果と、予めメ
モリ等の記憶手段に記憶している各標識14A〜14D
の発光色情報とからその標識14A〜14Dの個体を認
識する画像処理部32が設けられている。またこの画像
処理部32は、認識結果を標識認識信号S4として制御
部29に送出するようになされている。
【0027】かくして制御部29は、続くステツプSP
2において画像処理部32からの標識認識信号S4を待
ち受け、やがて供給される標識認識信号S4に基づいて
第1の標識14A〜13Dを認識すると、ステツプSP
3に進んでカメラ26の向きを所定方向に回転させるこ
とにより、任意の第2の標識14A〜14D(図1にお
いて点Bに相当)をサーチする。
2において画像処理部32からの標識認識信号S4を待
ち受け、やがて供給される標識認識信号S4に基づいて
第1の標識14A〜13Dを認識すると、ステツプSP
3に進んでカメラ26の向きを所定方向に回転させるこ
とにより、任意の第2の標識14A〜14D(図1にお
いて点Bに相当)をサーチする。
【0028】次いで制御部29は、ステツプSP4に進
み、画像処理部32から供給される標識認識信号S4に
基づいて第2の標識14A〜14Dを認識すると共に、
続くステツプSP5においてカメラ26の回転情報に基
づいてロボツト11から見た第1及び第2の標識14A
〜14D間の角度(図1におけるαに相当)を検出す
る。次いで制御部29は、ステツプSP6に進み、(1
4)式を用いて第2の標識14A〜14Dから見たロボ
ツト11及び第1の標識14A〜14D間の角度(図1
におけるφに相当)を算出する。
み、画像処理部32から供給される標識認識信号S4に
基づいて第2の標識14A〜14Dを認識すると共に、
続くステツプSP5においてカメラ26の回転情報に基
づいてロボツト11から見た第1及び第2の標識14A
〜14D間の角度(図1におけるαに相当)を検出す
る。次いで制御部29は、ステツプSP6に進み、(1
4)式を用いて第2の標識14A〜14Dから見たロボ
ツト11及び第1の標識14A〜14D間の角度(図1
におけるφに相当)を算出する。
【0029】続いて制御部29は、ステツプSP7進ん
で、カメラ26の向きをさらに所定方向に回転させるこ
とにより、任意の第3の標識14A〜14D(図1にお
いて点Cに相当)をサーチする。さらに制御部29は、
続くステツプSP8において画像処理部32から供給さ
れる標識認識信号S4に基づいて第3の標識14A〜1
4Dを認識するとステツプSP9に進み、カメラ26の
回転情報に基づいてロボツト11から見た第2及び第3
の標識144〜14D間の角度(図1におけるβに相
当)を検出する。
で、カメラ26の向きをさらに所定方向に回転させるこ
とにより、任意の第3の標識14A〜14D(図1にお
いて点Cに相当)をサーチする。さらに制御部29は、
続くステツプSP8において画像処理部32から供給さ
れる標識認識信号S4に基づいて第3の標識14A〜1
4Dを認識するとステツプSP9に進み、カメラ26の
回転情報に基づいてロボツト11から見た第2及び第3
の標識144〜14D間の角度(図1におけるβに相
当)を検出する。
【0030】この後制御部29は、ステツプSP10に
進んで、ステツプSP5において検出したロボツト11
から見た第1及び第2の標識14A〜14D間の角度
(=α)と、ステツプSP6において検出した第2の標
識14A〜14Dから見たロボツト11及び第1の標識
14A〜14D間の角度(=φ)と、ステツプSP9に
おいて検出したロボツト11から見た第2及び第3の標
識14A〜14D間の角度(=β)と、(1)式及び
(5)式とを用いて領域12内におけるロボツト11の
位置を算出し、この後ステツプSP11に進んでこの位
置検出処理手順RT1を終了する。
進んで、ステツプSP5において検出したロボツト11
から見た第1及び第2の標識14A〜14D間の角度
(=α)と、ステツプSP6において検出した第2の標
識14A〜14Dから見たロボツト11及び第1の標識
14A〜14D間の角度(=φ)と、ステツプSP9に
おいて検出したロボツト11から見た第2及び第3の標
識14A〜14D間の角度(=β)と、(1)式及び
(5)式とを用いて領域12内におけるロボツト11の
位置を算出し、この後ステツプSP11に進んでこの位
置検出処理手順RT1を終了する。
【0031】(1−3)第1実施例の動作及び効果 以上の構成において、この位置検出システム1では、ロ
ボツト2が、領域3内の各隅部に配設された標識4A〜
4Dのうちの任意の3つの標識4A〜4Dを順次サーチ
してこれら標識4A〜4Dを認識すると共に、この際ロ
ボツト2から見た第1及び第2の標識4A〜4D間の角
度(=α)並びに第2及び第3の標識4A〜4D間の角
度(=β)と、第2の標識14A〜14Dから見たロボ
ツト11及び第1の標識14A〜14D間の角度(=
φ)とをそれぞれ検出し、これら検出結果と、予め記憶
している各標識14A〜14Dの位置情報とに基づいて
領域12内における自分の位置を検出する。
ボツト2が、領域3内の各隅部に配設された標識4A〜
4Dのうちの任意の3つの標識4A〜4Dを順次サーチ
してこれら標識4A〜4Dを認識すると共に、この際ロ
ボツト2から見た第1及び第2の標識4A〜4D間の角
度(=α)並びに第2及び第3の標識4A〜4D間の角
度(=β)と、第2の標識14A〜14Dから見たロボ
ツト11及び第1の標識14A〜14D間の角度(=
φ)とをそれぞれ検出し、これら検出結果と、予め記憶
している各標識14A〜14Dの位置情報とに基づいて
領域12内における自分の位置を検出する。
【0032】従つてこの位置検出システム10では、ロ
ボツト11が領域12内のどの位置に位置していたとし
ても標識14A〜14Dに基づいて当該領域12内にお
ける自分自身の位置を確実かつ精度良く検出することが
できる。
ボツト11が領域12内のどの位置に位置していたとし
ても標識14A〜14Dに基づいて当該領域12内にお
ける自分自身の位置を確実かつ精度良く検出することが
できる。
【0033】以上の構成によれば、領域12の各隅部に
それぞれ識別可能な標識14A〜14Dを配置すると共
に、ロボツト11が、各標識14A〜14Dのうちの任
意の3つの標識14A〜14Dのうちのロボツト11か
ら見た第1及び第2の標識14A〜14D間の角度(=
α)並びに第2及び第3の標識4A〜4D間の角度(=
β)と、第2の標識14A〜14Dから見たロボツト1
1及び第1の標識14A〜14D間の角度(=φ)とを
それぞれ検出し、当該検出結果と、予め記憶している各
標識14A〜14Dの位置情報とに基づいて領域12内
における自分の位置を検出するようにしたことにより、
領域12内におけるロボツト11の位置を精度良く検出
し得る位置検出システム及びロボツトを実現できる。
それぞれ識別可能な標識14A〜14Dを配置すると共
に、ロボツト11が、各標識14A〜14Dのうちの任
意の3つの標識14A〜14Dのうちのロボツト11か
ら見た第1及び第2の標識14A〜14D間の角度(=
α)並びに第2及び第3の標識4A〜4D間の角度(=
β)と、第2の標識14A〜14Dから見たロボツト1
1及び第1の標識14A〜14D間の角度(=φ)とを
それぞれ検出し、当該検出結果と、予め記憶している各
標識14A〜14Dの位置情報とに基づいて領域12内
における自分の位置を検出するようにしたことにより、
領域12内におけるロボツト11の位置を精度良く検出
し得る位置検出システム及びロボツトを実現できる。
【0034】(2)第2実施例 (2−1)原理 図7を用いて、それぞれ座標が分かつているXY平面上
の2つの点A、Bに基づいて当該XY平面上の任意の点
Oの座標を算出する方法について説明する。この場合点
A、点Bの各座標が予め分かつているため、直線ABに
対する直線AOのなす角(すなわち∠ABO)と、直線
ABに対する直線BOのなす角(すなわち∠AOB)が
分かれば、点Oの座標を計算することができる。
の2つの点A、Bに基づいて当該XY平面上の任意の点
Oの座標を算出する方法について説明する。この場合点
A、点Bの各座標が予め分かつているため、直線ABに
対する直線AOのなす角(すなわち∠ABO)と、直線
ABに対する直線BOのなす角(すなわち∠AOB)が
分かれば、点Oの座標を計算することができる。
【0035】そこで∠BAO=θ、∠ABO=φ、∠A
OB=ψ及びAB=L0 とし、点AをXY平面上の原点
として、直線ABをX軸とするように座標軸をとると、
ψは次式
OB=ψ及びAB=L0 とし、点AをXY平面上の原点
として、直線ABをX軸とするように座標軸をとると、
ψは次式
【数15】 により与えられる。また線分AOの長さは、次式
【数16】 により算出することができ、かくして点Oの座標は、次
式
式
【数17】 のように算出することができる。
【0036】(2−2)第2実施例による位置検出シス
テムの構成 図3との対応部分に同一符号を付して示す図8は第2実
施例による位置検出システム40を示し、ロボツトの各
隅部にそれぞれ標識41A〜41Dが配設されている。
この場合各標識41A〜41Dは、例えば図9に示すよ
うに、全体として所定高さの円柱形状に形成されてお
り、その周側面に見る方向によつて色合いが変化するよ
うにそれぞれ互いに異なる色が塗布されている。
テムの構成 図3との対応部分に同一符号を付して示す図8は第2実
施例による位置検出システム40を示し、ロボツトの各
隅部にそれぞれ標識41A〜41Dが配設されている。
この場合各標識41A〜41Dは、例えば図9に示すよ
うに、全体として所定高さの円柱形状に形成されてお
り、その周側面に見る方向によつて色合いが変化するよ
うにそれぞれ互いに異なる色が塗布されている。
【0037】これによりこの位置検出システム40にお
いては、各標識41A〜41Dの色合いに応じて当該標
識41A〜41Dに対する方向を容易に検出することが
できるようになされている。一方ロボツト42において
は、図5との対応部分に同一符号を付した図10に示す
ように、画像処理部43の構成と、制御部44によるロ
ボツト42の領域12内における位置の検出の仕方とを
除いて第1実施例のロボツト11(図4及び図5)と同
様に構成されている。
いては、各標識41A〜41Dの色合いに応じて当該標
識41A〜41Dに対する方向を容易に検出することが
できるようになされている。一方ロボツト42において
は、図5との対応部分に同一符号を付した図10に示す
ように、画像処理部43の構成と、制御部44によるロ
ボツト42の領域12内における位置の検出の仕方とを
除いて第1実施例のロボツト11(図4及び図5)と同
様に構成されている。
【0038】すなわち画像処理部43は、カメラ26か
ら供給される画像信号S1に基づいて、カメラ26によ
り撮像された標識41A〜41Dの色と、予め図示しな
い第1の記憶手段に記憶している各標識41A〜41D
の色情報とに基づいてその標識41A〜41Dの個体を
検出すると共に、当該検出結果と、この標識41A〜4
1Dの色合いとを画像処理信号S10として制御部44
に送出するようになされている。また制御部44におい
ては、位置検出モード時、図10に示す位置検出処理手
順RT2に従つて、領域12内におけるロボツト42の
位置を検出するようになされている。
ら供給される画像信号S1に基づいて、カメラ26によ
り撮像された標識41A〜41Dの色と、予め図示しな
い第1の記憶手段に記憶している各標識41A〜41D
の色情報とに基づいてその標識41A〜41Dの個体を
検出すると共に、当該検出結果と、この標識41A〜4
1Dの色合いとを画像処理信号S10として制御部44
に送出するようになされている。また制御部44におい
ては、位置検出モード時、図10に示す位置検出処理手
順RT2に従つて、領域12内におけるロボツト42の
位置を検出するようになされている。
【0039】実際上制御部44は、位置検出モード時、
ステツプSP20においてこの位置検出処理手順RT2
を開始すると、ステツプSP21に進んで必要に応じて
カメラ26の向きを変えることにより、任意の第1の標
識41A〜41D(図7において点Oをロボツト42と
したときの点Aに相当)をサーチし、続くステツプSP
21において、画像処理部43から供給される画像処理
信号S10に基づいてサーチした第1の標識41A〜4
1Aの個体と、色合いとを認識し、記憶する。
ステツプSP20においてこの位置検出処理手順RT2
を開始すると、ステツプSP21に進んで必要に応じて
カメラ26の向きを変えることにより、任意の第1の標
識41A〜41D(図7において点Oをロボツト42と
したときの点Aに相当)をサーチし、続くステツプSP
21において、画像処理部43から供給される画像処理
信号S10に基づいてサーチした第1の標識41A〜4
1Aの個体と、色合いとを認識し、記憶する。
【0040】次いで制御部44は、ステツプSP23に
進んでカメラ26の向きを変えることにより、任意の第
2の標識41A〜41D(図7において点Bに相当)サ
ーチし、続くステツプSP24において画像処理部43
から供給される画像処理信号S10に基づいて、サーチ
した第2の標識41A〜41Dの個体と、色合いとを認
識し、記憶する。
進んでカメラ26の向きを変えることにより、任意の第
2の標識41A〜41D(図7において点Bに相当)サ
ーチし、続くステツプSP24において画像処理部43
から供給される画像処理信号S10に基づいて、サーチ
した第2の標識41A〜41Dの個体と、色合いとを認
識し、記憶する。
【0041】次いで制御部44は、ステツプSP25に
進み、ステツプSP22及びステツプSP23において
認識した第1及び第2の標識41A〜41Dの色合い
と、予め記憶している各標識41A〜41Dをそれぞれ
各方向から見たときの色合いの情報及び各標識41A〜
41Dの位置情報とに基づいて、第1の標識41A〜4
1Dから見たロボツト42及び第2の標識41A〜41
D間の角度(図7においてφに相当)と、第2の標識4
1A〜41Dから見たロボツト42及び第1の標識41
A〜41D間の角度(図7においてψに相当)とを算出
する。
進み、ステツプSP22及びステツプSP23において
認識した第1及び第2の標識41A〜41Dの色合い
と、予め記憶している各標識41A〜41Dをそれぞれ
各方向から見たときの色合いの情報及び各標識41A〜
41Dの位置情報とに基づいて、第1の標識41A〜4
1Dから見たロボツト42及び第2の標識41A〜41
D間の角度(図7においてφに相当)と、第2の標識4
1A〜41Dから見たロボツト42及び第1の標識41
A〜41D間の角度(図7においてψに相当)とを算出
する。
【0042】この後制御部44は、ステツプSP26に
進んで、ステツプSP25において算出したφ及びψの
値と、カメラ26の回転角度として得られるθとを(1
7)式に代入することにより、第1の標識41A〜41
Dを原点とする座標を算出すると共に、当該算出結果
と、予め記憶している各標識41A〜41Dの位置情報
とから領域12内における自分の位置を算出し、この後
ステツプSP27に進んでこの位置検出処理手順RT2
を終了する。
進んで、ステツプSP25において算出したφ及びψの
値と、カメラ26の回転角度として得られるθとを(1
7)式に代入することにより、第1の標識41A〜41
Dを原点とする座標を算出すると共に、当該算出結果
と、予め記憶している各標識41A〜41Dの位置情報
とから領域12内における自分の位置を算出し、この後
ステツプSP27に進んでこの位置検出処理手順RT2
を終了する。
【0043】(2−3)第2実施例の動作及び効果 以上の構成において、この位置検出システム40では、
ロボツト42が、2つの標識41A〜41Dの個体と色
合いとをそれぞれ認識し、当該認識結果と、予め記憶し
ている各標識41A〜41Dの位置情報並びに各標識4
1A〜41Dをそれぞれ各方向から見たときの色合いに
関する情報とに基づいて、第1の標識41A〜41Dか
ら見たロボツト42及び第2の標識41A〜41D間の
角度(図7においてφ)と、第2の標識41A〜41D
から見たロボツト42及び第1の標識41A〜41D間
の角度(図7においてψ)とを算出し、当該算出結果に
基づいて(17)式を実行することにより領域11内にお
ける自分の位置を検出する。
ロボツト42が、2つの標識41A〜41Dの個体と色
合いとをそれぞれ認識し、当該認識結果と、予め記憶し
ている各標識41A〜41Dの位置情報並びに各標識4
1A〜41Dをそれぞれ各方向から見たときの色合いに
関する情報とに基づいて、第1の標識41A〜41Dか
ら見たロボツト42及び第2の標識41A〜41D間の
角度(図7においてφ)と、第2の標識41A〜41D
から見たロボツト42及び第1の標識41A〜41D間
の角度(図7においてψ)とを算出し、当該算出結果に
基づいて(17)式を実行することにより領域11内にお
ける自分の位置を検出する。
【0044】従つてこの位置検出システム40において
も、第1実施例の位置検出システム10(図3)と同様
に、ロボツト42が領域12内のどの位置に位置してい
たとしても標識41A〜41Dに基づいて領域12内に
おける自分自身の位置を確実かつ精度良く検出すること
ができる。
も、第1実施例の位置検出システム10(図3)と同様
に、ロボツト42が領域12内のどの位置に位置してい
たとしても標識41A〜41Dに基づいて領域12内に
おける自分自身の位置を確実かつ精度良く検出すること
ができる。
【0045】以上の構成によれば、見る方向によつて色
合いの異なるかつ互いに色の異なる標識41A〜41D
をそれぞれ領域12の各隅部に配置すると共に、ロボツ
ト42が、2つの標識41A〜41Dの個体と色合いと
をそれぞれ認識し、当該認識結果と、予め記憶している
各標識41A〜41Dの位置情報並びに各標識41A〜
41Dをそれぞれ各方向から見たときの色合いに関する
情報とに基づいて、第1の標識41A〜41Dから見た
ロボツト42及び第2の標識41A〜41D間の角度
(図7においてφ)と、第2の標識41A〜41Dから
見たロボツト42及び第1の標識41A〜41D間の角
度(図7においてψ)とを算出し、当該算出結果に基づ
いて(17)式を実行することにより領域11内における
自分の位置を検出するようにしたことにより、領域12
内におけるロボツト42の位置を精度良く検出し得る位
置検出システム及びロボツトを実現できる。
合いの異なるかつ互いに色の異なる標識41A〜41D
をそれぞれ領域12の各隅部に配置すると共に、ロボツ
ト42が、2つの標識41A〜41Dの個体と色合いと
をそれぞれ認識し、当該認識結果と、予め記憶している
各標識41A〜41Dの位置情報並びに各標識41A〜
41Dをそれぞれ各方向から見たときの色合いに関する
情報とに基づいて、第1の標識41A〜41Dから見た
ロボツト42及び第2の標識41A〜41D間の角度
(図7においてφ)と、第2の標識41A〜41Dから
見たロボツト42及び第1の標識41A〜41D間の角
度(図7においてψ)とを算出し、当該算出結果に基づ
いて(17)式を実行することにより領域11内における
自分の位置を検出するようにしたことにより、領域12
内におけるロボツト42の位置を精度良く検出し得る位
置検出システム及びロボツトを実現できる。
【0046】(3)第3実施例 (3−1)原理 図12を用いて、座標が分かつているXY平面上の点A
に基づいて当該XY平面上の任意の点Oの座標を算出す
る方法について説明する。なお以下の説明では、説明を
簡略化するため点Aを原点とする。この場合、線分OA
の長さLと、点Aを通る基線に対する直線OAのなす角
θが分かれば、その基線をX軸として点Oの座標を次式
に基づいて当該XY平面上の任意の点Oの座標を算出す
る方法について説明する。なお以下の説明では、説明を
簡略化するため点Aを原点とする。この場合、線分OA
の長さLと、点Aを通る基線に対する直線OAのなす角
θが分かれば、その基線をX軸として点Oの座標を次式
【数18】 として算出することができる。
【0047】(3−2)第3実施例による位置検出シス
テムの構成 図8との対応部分に同一符号を付して示す図13は、第
3実施例による位置検出システム50を示すものであ
り、図14に示す画像処理部52の構成と、制御部53
の領域12内におけるロボツト51の位置検出方法とを
除いて第2実施例の位置検出システム40(図8)と同
様に構成されている。すなわち画像処理部52は、カメ
ラ26から供給される画像信号S1に基づいて、カメラ
26により撮像された標識41A〜41Dの色と、予め
図示しない第1の記憶手段に記憶している各標識41A
〜41Dの色情報とに基づいてその標識41A〜41D
の個体を検出すると共に、当該検出結果と、この標識4
1A〜41Dの色合いと、画像信号S1に基づく画像内
における標識41A〜41Dの画素を単位とする高さと
を画像処理信号S20として制御部53に送出するよう
になされている。
テムの構成 図8との対応部分に同一符号を付して示す図13は、第
3実施例による位置検出システム50を示すものであ
り、図14に示す画像処理部52の構成と、制御部53
の領域12内におけるロボツト51の位置検出方法とを
除いて第2実施例の位置検出システム40(図8)と同
様に構成されている。すなわち画像処理部52は、カメ
ラ26から供給される画像信号S1に基づいて、カメラ
26により撮像された標識41A〜41Dの色と、予め
図示しない第1の記憶手段に記憶している各標識41A
〜41Dの色情報とに基づいてその標識41A〜41D
の個体を検出すると共に、当該検出結果と、この標識4
1A〜41Dの色合いと、画像信号S1に基づく画像内
における標識41A〜41Dの画素を単位とする高さと
を画像処理信号S20として制御部53に送出するよう
になされている。
【0048】また制御部53においては、位置検出モー
ド時、図15に示す位置検出処理手順RT3に従つて、
領域12内におけるロボツト51の位置を検出するよう
になされている。実際上制御部53は、位置検出モード
時、この位置検出処理手順RT3をステツプSP30に
おいて開始すると、ステツプSP31に進んで必要に応
じてカメラ26の向きを変えさせることにより任意の第
1の標識41A〜41Dをサーチする。
ド時、図15に示す位置検出処理手順RT3に従つて、
領域12内におけるロボツト51の位置を検出するよう
になされている。実際上制御部53は、位置検出モード
時、この位置検出処理手順RT3をステツプSP30に
おいて開始すると、ステツプSP31に進んで必要に応
じてカメラ26の向きを変えさせることにより任意の第
1の標識41A〜41Dをサーチする。
【0049】次いで制御部53は、ステツプSP31に
進み、画像処理部52から供給される画像処理信号S2
0に基づき得られる第1の標識41A〜41Dの個体情
報と、第1の標識41A〜41Dの色合い及び画素を単
位とする高さとに基づいて第1の標識41A〜41Dを
認識し、記憶する。続くステツプSP33において、制
御部53は、ステツプSP32において記憶した第1の
標識41A〜41Dの色合いと、予め記憶している各標
識41A〜41Dの各方向から見たときの色合いについ
ての情報とに基づいて、第1の標識41A〜41Dの予
め設定された基準線(図12においてX軸)に対するロ
ボツトの方向(図12におけるθ)を検出する。
進み、画像処理部52から供給される画像処理信号S2
0に基づき得られる第1の標識41A〜41Dの個体情
報と、第1の標識41A〜41Dの色合い及び画素を単
位とする高さとに基づいて第1の標識41A〜41Dを
認識し、記憶する。続くステツプSP33において、制
御部53は、ステツプSP32において記憶した第1の
標識41A〜41Dの色合いと、予め記憶している各標
識41A〜41Dの各方向から見たときの色合いについ
ての情報とに基づいて、第1の標識41A〜41Dの予
め設定された基準線(図12においてX軸)に対するロ
ボツトの方向(図12におけるθ)を検出する。
【0050】また制御部53は、ステツプSP32にお
いて記憶した第1の標識41A〜41Dの画素を単位と
する高さ(Hpic)と、予め記憶している基準値(カメラ
26が標識41A〜41Dから1〔m〕離れているとき
の画像信号S1に基づく画像内における画素を単位とす
る高さ(Hstd)とに基づいて、次式
いて記憶した第1の標識41A〜41Dの画素を単位と
する高さ(Hpic)と、予め記憶している基準値(カメラ
26が標識41A〜41Dから1〔m〕離れているとき
の画像信号S1に基づく画像内における画素を単位とす
る高さ(Hstd)とに基づいて、次式
【数19】 によりロボツト51から第1の標識41A〜41Dまで
の距離(図12におけるL)を算出する。
の距離(図12におけるL)を算出する。
【0051】さらに制御部53は、この後ステツプSP
34に進み、ステツプSP33において得られた第1の
標識41A〜41Dに対するロボツトの方向(θ)と、
及び当該第1の標識41A〜41Dまでの距離(L)と
基づいて、(18)式から当該第1の標識41A〜41D
を原点とするそのときのロボツト51の位置を算出する
と共に、この後この算出結果と、予め記憶されている各
標識41A〜41Dの位置を含む領域12の地図情報と
に基づいて当該領域12内におけるそのときのロボツト
51の位置を算出し、この後ステツプSP35に進んで
この位置検出処理手順RT3を終了する。
34に進み、ステツプSP33において得られた第1の
標識41A〜41Dに対するロボツトの方向(θ)と、
及び当該第1の標識41A〜41Dまでの距離(L)と
基づいて、(18)式から当該第1の標識41A〜41D
を原点とするそのときのロボツト51の位置を算出する
と共に、この後この算出結果と、予め記憶されている各
標識41A〜41Dの位置を含む領域12の地図情報と
に基づいて当該領域12内におけるそのときのロボツト
51の位置を算出し、この後ステツプSP35に進んで
この位置検出処理手順RT3を終了する。
【0052】(3−3)第3実施例の動作及び効果 以上の構成において、この位置検出システムでは、ロボ
ツト51が、カメラ26により撮像することにより得ら
れた任意の第1の標識41A〜41Dの色合いと、予め
記憶している各標識41A〜41Dを各方向から見たと
きの色合いについての情報とからその標識41A〜41
Dに対するロボツト51の方向を検出すると共に、カメ
ラ51からの画像信号S1に基づいて得られる画像内に
おける標識41A〜41Dの高さと、予め記憶している
所定の基準値とに基づいてロボツト51から第1の標識
41A〜41Dまでの距離を算出する。
ツト51が、カメラ26により撮像することにより得ら
れた任意の第1の標識41A〜41Dの色合いと、予め
記憶している各標識41A〜41Dを各方向から見たと
きの色合いについての情報とからその標識41A〜41
Dに対するロボツト51の方向を検出すると共に、カメ
ラ51からの画像信号S1に基づいて得られる画像内に
おける標識41A〜41Dの高さと、予め記憶している
所定の基準値とに基づいてロボツト51から第1の標識
41A〜41Dまでの距離を算出する。
【0053】次いでロボツトは、検出した第1の標識4
1A〜41Dに対するロボツト51の方向と、算出した
当該第1の標識41A〜41Dまでの距離と、予め記憶
している各標識41A〜41Dの位置情報とに基づいて
領域12内における自分の位置を検出する。従つてこの
位置検出システム50においても、第1実施例の位置検
出システム10(図3)と同様に、ロボツト51が領域
12内のどの位置に位置していたとしても標識41A〜
41Dに基づいて領域12内における自分自身の位置を
確実かつ精度良く検出することができる。
1A〜41Dに対するロボツト51の方向と、算出した
当該第1の標識41A〜41Dまでの距離と、予め記憶
している各標識41A〜41Dの位置情報とに基づいて
領域12内における自分の位置を検出する。従つてこの
位置検出システム50においても、第1実施例の位置検
出システム10(図3)と同様に、ロボツト51が領域
12内のどの位置に位置していたとしても標識41A〜
41Dに基づいて領域12内における自分自身の位置を
確実かつ精度良く検出することができる。
【0054】以上の構成によれば、見る方向によつて色
合いの異なるかつ互いに色の異なる標識41A〜41D
をそれぞれ領域12の各隅部に配置すると共に、ロボツ
ト42が、カメラ26により撮像することにより得られ
た任意の第1の標識41A〜41Dの色合いと、予め記
憶している各標識41A〜41Dを各方向から見たとき
の色合いについての情報とからその標識41A〜41D
に対するロボツト51の方向を検出すると共に、カメラ
51からの画像信号S1に基づいて得られる画像内にお
ける標識41A〜41Dの高さと、予め記憶している所
定の基準値とに基づいてロボツト51から第1の標識4
1A〜41Dまでの距離を算出した後、これら検出した
第1の標識41A〜41Dに対するロボツト51の方向
と、算出した当該第1の標識41A〜41Dまでの距離
と、予め記憶している各標識41A〜41Dの位置情報
とに基づいて領域12内における自分の位置を検出する
ようにしたことにより、領域12内におけるロボツト5
2の位置を精度良く検出し得る位置検出システム及びロ
ボツトを実現できる。
合いの異なるかつ互いに色の異なる標識41A〜41D
をそれぞれ領域12の各隅部に配置すると共に、ロボツ
ト42が、カメラ26により撮像することにより得られ
た任意の第1の標識41A〜41Dの色合いと、予め記
憶している各標識41A〜41Dを各方向から見たとき
の色合いについての情報とからその標識41A〜41D
に対するロボツト51の方向を検出すると共に、カメラ
51からの画像信号S1に基づいて得られる画像内にお
ける標識41A〜41Dの高さと、予め記憶している所
定の基準値とに基づいてロボツト51から第1の標識4
1A〜41Dまでの距離を算出した後、これら検出した
第1の標識41A〜41Dに対するロボツト51の方向
と、算出した当該第1の標識41A〜41Dまでの距離
と、予め記憶している各標識41A〜41Dの位置情報
とに基づいて領域12内における自分の位置を検出する
ようにしたことにより、領域12内におけるロボツト5
2の位置を精度良く検出し得る位置検出システム及びロ
ボツトを実現できる。
【0055】(4)第4実施例 (4−1)原理 図16を用いて、座標が分かつているXY平面上の2つ
の点A、Bに基づいて当該平面上の任意の2つの点O、
O′の座標を算出する方法について説明する。この図1
6において、線分AB、線分OO′及び線分O′Aの長
さをそれぞれL0 、L1 、Lとし、∠AOO′=θ、∠
AO′O=θ′、∠BOO′=φ、∠BO′O=φ′、
∠BAO′=ψとすると、△OO′Aについて、正弦定
理より次式
の点A、Bに基づいて当該平面上の任意の2つの点O、
O′の座標を算出する方法について説明する。この図1
6において、線分AB、線分OO′及び線分O′Aの長
さをそれぞれL0 、L1 、Lとし、∠AOO′=θ、∠
AO′O=θ′、∠BOO′=φ、∠BO′O=φ′、
∠BAO′=ψとすると、△OO′Aについて、正弦定
理より次式
【数20】 が得られる。
【0056】同様に△O′ABについて、次式
【数21】
【数22】 が得られ、正弦定理より次式
【数23】
【数24】
【数25】 が得られる。
【0057】従つてこれら(20)式〜(25)式に基づい
て、点O′の座標を次式
て、点O′の座標を次式
【数26】 のように得ることができる。従つてL1 、θ、θ′、φ
及びφ′を測定し、又は検出することができれば、(2
6)式から点Aを原点とする点O′の座標を算出するこ
とができる。また同様の方法により点Oの座標も算出す
ることができる。
及びφ′を測定し、又は検出することができれば、(2
6)式から点Aを原点とする点O′の座標を算出するこ
とができる。また同様の方法により点Oの座標も算出す
ることができる。
【0058】(4−2)第4実施例による位置検出シス
テムの構成 図3との対応部分に同一符号を付して示す図17は第4
実施例による位置検出システム60を示し、図18に示
すロボツト61の制御部62が図19に示す位置検出処
理手順RT4に従つて領域12内におけるロボツト61
の位置を検出するようになされたことを除いて第1実施
例の位置検出システム10(図3)と同様に構成されて
いる。
テムの構成 図3との対応部分に同一符号を付して示す図17は第4
実施例による位置検出システム60を示し、図18に示
すロボツト61の制御部62が図19に示す位置検出処
理手順RT4に従つて領域12内におけるロボツト61
の位置を検出するようになされたことを除いて第1実施
例の位置検出システム10(図3)と同様に構成されて
いる。
【0059】すなわちこの位置検出システム60の場
合、ロボツト61の制御部62は、位置検出モード時、
位置検出処理手順RT4をステツプSP40において開
始すると、続くステツプSP41において、任意の第1
の地点において必要に応じてカメラ26の向きを変える
ことにより、任意の第1の標識14A〜14Dをサーチ
し、続くステツプSP41において、画像処理部32か
ら供給される標識認識信号S4に基づいて第1の標識1
4A〜14Dの個体を認識すると共に、このときのカメ
ラ26の向きを記憶する。
合、ロボツト61の制御部62は、位置検出モード時、
位置検出処理手順RT4をステツプSP40において開
始すると、続くステツプSP41において、任意の第1
の地点において必要に応じてカメラ26の向きを変える
ことにより、任意の第1の標識14A〜14Dをサーチ
し、続くステツプSP41において、画像処理部32か
ら供給される標識認識信号S4に基づいて第1の標識1
4A〜14Dの個体を認識すると共に、このときのカメ
ラ26の向きを記憶する。
【0060】次いで制御部62は、ステツプSP43に
進み、カメラ26の向きを変えることにより、第1の標
識14A〜14Dと異なる任意の第2の標識14A〜1
4Dをサーチし、続くステツプSP44において、画像
処理部32から供給される標識認識信号S4に基づいて
第2の標識の個体を認識すると共に、このときのカメラ
26の向きを記憶する。続いて制御部62は、ステツプ
SP45に進み、各脚部25A〜25D(図4)のアク
チユエータ31A〜31Dを駆動させることにより領域
12内の任意の第2の地点に移動する。
進み、カメラ26の向きを変えることにより、第1の標
識14A〜14Dと異なる任意の第2の標識14A〜1
4Dをサーチし、続くステツプSP44において、画像
処理部32から供給される標識認識信号S4に基づいて
第2の標識の個体を認識すると共に、このときのカメラ
26の向きを記憶する。続いて制御部62は、ステツプ
SP45に進み、各脚部25A〜25D(図4)のアク
チユエータ31A〜31Dを駆動させることにより領域
12内の任意の第2の地点に移動する。
【0061】さらに制御部62は、ステツプSP46に
進んでカメラ26の向きを変えることにより、上述の第
1の標識14A〜14Dをサーチし、続くステツプSP
47において画像処理部32から供給される標識認識信
号S4に基づいてサーチした第1の標識14A〜14D
の個体を認識すると共に、このときのカメラ26の向き
を記憶する。さらに制御部62は、この後ステツプSP
48に進んでカメラ26の向きを変えることにより、上
述の第2の標識14A〜14Dをサーチし、続くステツ
プSP49において画像処理部32から供給される標識
認識信号S4に基づいてサーチした第2の標識14A〜
14Dの個体を認識すると共に、このときのカメラ26
の向きを記憶する。
進んでカメラ26の向きを変えることにより、上述の第
1の標識14A〜14Dをサーチし、続くステツプSP
47において画像処理部32から供給される標識認識信
号S4に基づいてサーチした第1の標識14A〜14D
の個体を認識すると共に、このときのカメラ26の向き
を記憶する。さらに制御部62は、この後ステツプSP
48に進んでカメラ26の向きを変えることにより、上
述の第2の標識14A〜14Dをサーチし、続くステツ
プSP49において画像処理部32から供給される標識
認識信号S4に基づいてサーチした第2の標識14A〜
14Dの個体を認識すると共に、このときのカメラ26
の向きを記憶する。
【0062】次いで制御部62は、ステツプSP50に
進んで移動距離計測部33から供給される第1の地点か
ら第2の地点までの移動距離と、ステツプSP42、ス
テツプSP44、ステツプSP47及びステツプSP4
9におけるカメラ26の向きとから、第1及び第2の地
点間の距離(図16においてL1 に相当)と、第1の地
点から見た第1及び第2の標識14A〜14D間の角度
(図16においてθに相当)と、第1の地点から見た第
2の地点及び第2の標識14A〜14D間の角度(図1
6においてφに相当)と、第2の地点から見た第1の地
点及び第1の標識14A間の角度(図16においてθ′
に相当)と、第2の地点から見た第1及び第2の標識1
4A〜14間の角度(図16においてφ′に相当)とを
それぞれ算出する。
進んで移動距離計測部33から供給される第1の地点か
ら第2の地点までの移動距離と、ステツプSP42、ス
テツプSP44、ステツプSP47及びステツプSP4
9におけるカメラ26の向きとから、第1及び第2の地
点間の距離(図16においてL1 に相当)と、第1の地
点から見た第1及び第2の標識14A〜14D間の角度
(図16においてθに相当)と、第1の地点から見た第
2の地点及び第2の標識14A〜14D間の角度(図1
6においてφに相当)と、第2の地点から見た第1の地
点及び第1の標識14A間の角度(図16においてθ′
に相当)と、第2の地点から見た第1及び第2の標識1
4A〜14間の角度(図16においてφ′に相当)とを
それぞれ算出する。
【0063】さらに制御部62は、ステツプSP51に
進み、ステツプSP50における各算出結果に基づいて
(20)式から第2の地点及び第1の標識14A〜14D
間の距離(図16においてL)を算出すると共に、当該
算出結果と(25)式とから第1の標識14A〜14Dか
ら見た第2の標識14A〜14D及び第2の地点間の角
度(図16におけるψ)とを算出する。さらに制御部6
2は、ステツプSP52に進んで、ステツプSP51に
おける算出結果から第1の座標14A〜14Dを原点と
する座標を算出すると共に、当該算出結果と、予め記憶
している各標識14A〜14Dの位置を含む領域12の
地図情報とに基づいて領域12内におけるロボツト61
の位置を算出し、この後ステツプSP53に進んでこの
位置検出処理手順RT4を終了する。
進み、ステツプSP50における各算出結果に基づいて
(20)式から第2の地点及び第1の標識14A〜14D
間の距離(図16においてL)を算出すると共に、当該
算出結果と(25)式とから第1の標識14A〜14Dか
ら見た第2の標識14A〜14D及び第2の地点間の角
度(図16におけるψ)とを算出する。さらに制御部6
2は、ステツプSP52に進んで、ステツプSP51に
おける算出結果から第1の座標14A〜14Dを原点と
する座標を算出すると共に、当該算出結果と、予め記憶
している各標識14A〜14Dの位置を含む領域12の
地図情報とに基づいて領域12内におけるロボツト61
の位置を算出し、この後ステツプSP53に進んでこの
位置検出処理手順RT4を終了する。
【0064】(4−3)第4実施例の動作及び効果 以上の構成において、この位置検出システム60では、
ロボツト61が、領域12内の任意の2地点において、
第1の地点から見た第1及び第2の標識14A〜14D
間の角度(図16においてθに相当)と、第1の地点か
ら見た第2の地点及び第2の標識14A〜14D間の角
度(図16においてφに相当)と、第2の地点から見た
第1の地点及び第1の標識14A間の角度(図16にお
いてθ′に相当)と、第2の地点から見た第1及び第2
の標識14A〜14間の角度(図16においてφ′に相
当)とをそれぞれ算出すると共に、移動距離計測部33
から第1及び第2の地点間の距離(図16においてL1
に相当)を得る。
ロボツト61が、領域12内の任意の2地点において、
第1の地点から見た第1及び第2の標識14A〜14D
間の角度(図16においてθに相当)と、第1の地点か
ら見た第2の地点及び第2の標識14A〜14D間の角
度(図16においてφに相当)と、第2の地点から見た
第1の地点及び第1の標識14A間の角度(図16にお
いてθ′に相当)と、第2の地点から見た第1及び第2
の標識14A〜14間の角度(図16においてφ′に相
当)とをそれぞれ算出すると共に、移動距離計測部33
から第1及び第2の地点間の距離(図16においてL1
に相当)を得る。
【0065】さらにロボツト61は、これらを用いて
(20)式及び(25)式及び(26)式から第1の標識14
A〜14Dを原点とする座標を算出し、この後この算出
結果と、予め記憶している領域の地図情報とに基づいて
領域12内における自分の位置を検出する。従つてこの
位置検出システム60においても、第1実施例の位置検
出システム1と同様に、ロボツト61が領域112内の
どの位置に位置していたとしても標識14A〜14Dに
基づいて当該領域12内における自分自身の位置を確実
かつ精度良く検出することができる。
(20)式及び(25)式及び(26)式から第1の標識14
A〜14Dを原点とする座標を算出し、この後この算出
結果と、予め記憶している領域の地図情報とに基づいて
領域12内における自分の位置を検出する。従つてこの
位置検出システム60においても、第1実施例の位置検
出システム1と同様に、ロボツト61が領域112内の
どの位置に位置していたとしても標識14A〜14Dに
基づいて当該領域12内における自分自身の位置を確実
かつ精度良く検出することができる。
【0066】以上の構成によれば、ロボツトの行動領域
の周囲に複数の標識をそれぞれ所定位置に配設すると共
に、ロボツト61が、領域12内の任意の2地点におい
て、第1の地点から見た第1及び第2の標識14A〜1
4D間の角度(図16においてθに相当)と、第1の地
点から見た第2の地点及び第2の標識14A〜14D間
の角度(図16においてφに相当)と、第2の地点から
見た第1の地点及び第1の標識14A間の角度(図16
においてθ′に相当)と、第2の地点から見た第1及び
第2の標識14A〜14間の角度(図16においてφ′
に相当)とをそれぞれ算出すると共に、移動距離計測部
33から第1及び第2の地点間の距離(図16において
L1 に相当)を得、これら用いて(20)式及び(25)式
及び(26)式から第1の標識14A〜14Dを原点とす
る座標を算出すると共に、当該算出結果と、予め記憶し
ている領域の地図情報とに基づいて領域12内における
自分の位置を検出するようにしたことにより、領域12
内におけるロボツト61の位置を精度良く検出し得る位
置検出システム及びロボツトを実現できる。
の周囲に複数の標識をそれぞれ所定位置に配設すると共
に、ロボツト61が、領域12内の任意の2地点におい
て、第1の地点から見た第1及び第2の標識14A〜1
4D間の角度(図16においてθに相当)と、第1の地
点から見た第2の地点及び第2の標識14A〜14D間
の角度(図16においてφに相当)と、第2の地点から
見た第1の地点及び第1の標識14A間の角度(図16
においてθ′に相当)と、第2の地点から見た第1及び
第2の標識14A〜14間の角度(図16においてφ′
に相当)とをそれぞれ算出すると共に、移動距離計測部
33から第1及び第2の地点間の距離(図16において
L1 に相当)を得、これら用いて(20)式及び(25)式
及び(26)式から第1の標識14A〜14Dを原点とす
る座標を算出すると共に、当該算出結果と、予め記憶し
ている領域の地図情報とに基づいて領域12内における
自分の位置を検出するようにしたことにより、領域12
内におけるロボツト61の位置を精度良く検出し得る位
置検出システム及びロボツトを実現できる。
【0067】(5)第5実施例 (5−1)原理 図20を用いて、座標が分かつているXY平面上の1つ
の点Aに基づいて当該平面上の任意の2つの点O、O′
の座標を算出する方法について説明する。なお以下の説
明においては、簡略化のため点Aが原点であるものとす
る。
の点Aに基づいて当該平面上の任意の2つの点O、O′
の座標を算出する方法について説明する。なお以下の説
明においては、簡略化のため点Aが原点であるものとす
る。
【0068】図20において、線分OO′及び線分O′
Aの長さをそれぞれL0 、L、∠AOO′及び∠AO′
Oをそれぞれφ、φ′、直線OAがX軸となす角をθ並
びに直線O′AがX軸となす角をθとすると、△OA
O′について正弦定理により、次式
Aの長さをそれぞれL0 、L、∠AOO′及び∠AO′
Oをそれぞれφ、φ′、直線OAがX軸となす角をθ並
びに直線O′AがX軸となす角をθとすると、△OA
O′について正弦定理により、次式
【数27】 が得られ、これら点O′の座標が次式
【数28】 のように与えられる。従つてL0 、φ、θ、θ′が分か
れば、点O′の座標を算出することができる。
れば、点O′の座標を算出することができる。
【0069】(5−2)第5実施例による位置検出シス
テムの構成 図8との対応部分に同一符号を付して示す図21は第5
実施例による位置検出システム70を示すものであり、
図22に示すロボツト71の制御部72が図23に示す
位置検出処理手順RT5に従つて領域12内おけるロボ
ツト72の位置を検出するようになされた点を除いて第
2実施例の位置検出システム40(図8)と同様に構成
されている。すなわちこの位置検出システム70の場
合、ロボツト71の制御部72は、位置検出モード時、
この位置検出処理手順RT5をステツプSP60におい
て開始すると、ステツプSP61に進んで領域12内の
任意の第1の地点において必要に応じてカメラ26の向
きを変えさせることにより任意の第1の標識41A〜4
1Dをサーチする。
テムの構成 図8との対応部分に同一符号を付して示す図21は第5
実施例による位置検出システム70を示すものであり、
図22に示すロボツト71の制御部72が図23に示す
位置検出処理手順RT5に従つて領域12内おけるロボ
ツト72の位置を検出するようになされた点を除いて第
2実施例の位置検出システム40(図8)と同様に構成
されている。すなわちこの位置検出システム70の場
合、ロボツト71の制御部72は、位置検出モード時、
この位置検出処理手順RT5をステツプSP60におい
て開始すると、ステツプSP61に進んで領域12内の
任意の第1の地点において必要に応じてカメラ26の向
きを変えさせることにより任意の第1の標識41A〜4
1Dをサーチする。
【0070】制御部72は、続くステツプSP62にお
いて画像処理部43から供給される画像処理信号S10
に基づいてサーチした第1の標識41A〜41Dの個体
と色合いとを認識し、記憶すると共に、当該認識結果に
基づいて続くステツプSP63において、第2実施例の
場合と同様にして、第1の標識41A〜41Dを通る所
定の基準方向(図20においてX軸に相当)に対する第
1の地点及び第1の標識41A〜41Dを通る直線のな
す角(図20においてθに相当)を算出する。次いで制
御部72は、ステツプSP64に進み、各アクチユエー
タ31A〜31Jを駆動させてロボツト71を領域12
内の任意の第2の地点に移動させると共に、続くステツ
プSP65において第1及び第2の地点間の距離(図2
0においてL0 に相当)を移動距離測定部33の出力に
基づいて計算する。
いて画像処理部43から供給される画像処理信号S10
に基づいてサーチした第1の標識41A〜41Dの個体
と色合いとを認識し、記憶すると共に、当該認識結果に
基づいて続くステツプSP63において、第2実施例の
場合と同様にして、第1の標識41A〜41Dを通る所
定の基準方向(図20においてX軸に相当)に対する第
1の地点及び第1の標識41A〜41Dを通る直線のな
す角(図20においてθに相当)を算出する。次いで制
御部72は、ステツプSP64に進み、各アクチユエー
タ31A〜31Jを駆動させてロボツト71を領域12
内の任意の第2の地点に移動させると共に、続くステツ
プSP65において第1及び第2の地点間の距離(図2
0においてL0 に相当)を移動距離測定部33の出力に
基づいて計算する。
【0071】続いて制御部72は、ステツプSP66に
進み、カメラ26の向きを変えさせることにより上述の
第1の標識41A〜41Dをサーチさせると共に、続く
ステツプSP67において画像処理部43から供給され
る画像処理信号S10に基づいて第1の標識41A〜4
1Dの個体と色合いとを認識し、記憶し、この後ステツ
プSP68に進んで、第2実施例の場合と同様にして、
上述の基準方向に対する第2の地点及び第1の標識41
A〜41Dを通る直線のなす角(図20においてθ′に
相当)を算出する。
進み、カメラ26の向きを変えさせることにより上述の
第1の標識41A〜41Dをサーチさせると共に、続く
ステツプSP67において画像処理部43から供給され
る画像処理信号S10に基づいて第1の標識41A〜4
1Dの個体と色合いとを認識し、記憶し、この後ステツ
プSP68に進んで、第2実施例の場合と同様にして、
上述の基準方向に対する第2の地点及び第1の標識41
A〜41Dを通る直線のなす角(図20においてθ′に
相当)を算出する。
【0072】さらに制御部72は、ステツプSP69に
進んで、ステツプSP63において算出した基準方向
(図20においてX軸に相当)に対する第1の地点及び
第1の標識41A〜41Dを通る直線のなす角(図20
においてθに相当)と、ステツプSP69において算出
した基準方向に対する第2の地点及び第1の標識41A
〜41Dを通る直線のなす角(図20においてθ′に相
当)と、ステツプSP65において得られた第1及び第
2の地点間の距離(図20においてL0 に相当)とに基
づいて(27)式及び(28)式を利用して第1の標識41
A〜41Dを原点とした座標を算出すると共に、この後
この算出結果と、予め記憶している各標識41A〜41
Dの位置情報を含む領域12の地図情報とに基づいて領
域12内におけるロボツト71の位置を算出し、この後
ステツプSP70に進んでこの位置検出処理手順RT5
を終了する。
進んで、ステツプSP63において算出した基準方向
(図20においてX軸に相当)に対する第1の地点及び
第1の標識41A〜41Dを通る直線のなす角(図20
においてθに相当)と、ステツプSP69において算出
した基準方向に対する第2の地点及び第1の標識41A
〜41Dを通る直線のなす角(図20においてθ′に相
当)と、ステツプSP65において得られた第1及び第
2の地点間の距離(図20においてL0 に相当)とに基
づいて(27)式及び(28)式を利用して第1の標識41
A〜41Dを原点とした座標を算出すると共に、この後
この算出結果と、予め記憶している各標識41A〜41
Dの位置情報を含む領域12の地図情報とに基づいて領
域12内におけるロボツト71の位置を算出し、この後
ステツプSP70に進んでこの位置検出処理手順RT5
を終了する。
【0073】(5−3)第5実施例の動作及び効果 以上の構成において、この位置検出システム70では、
ロボツト71が、領域12内の任意の2地点において、
任意の第1の標識41A〜41Dの色合いに基づいて第
2実施例の場合と同様にして基準方向に対する第1の標
識41A〜41D及び第1の地点を通る直線のなす角
(図20においてθに相当)と、基準方向に対する第2
の地点及び第1の標識41A〜41Dを通る直線のなす
角(図20においてθ′に相当)を算出し、当該算出結
果と、予め記憶している各標識41A〜41Dの位置を
含む領域12の地図情報及び基準方向とに基づいて当該
領域12内における自分の位置を検出する。
ロボツト71が、領域12内の任意の2地点において、
任意の第1の標識41A〜41Dの色合いに基づいて第
2実施例の場合と同様にして基準方向に対する第1の標
識41A〜41D及び第1の地点を通る直線のなす角
(図20においてθに相当)と、基準方向に対する第2
の地点及び第1の標識41A〜41Dを通る直線のなす
角(図20においてθ′に相当)を算出し、当該算出結
果と、予め記憶している各標識41A〜41Dの位置を
含む領域12の地図情報及び基準方向とに基づいて当該
領域12内における自分の位置を検出する。
【0074】従つてこの位置検出システム70において
も、第2実施例の位置検出システム50(図13)と同
様に、ロボツト71が領域12内のどの位置に位置して
いたとしても標識41A〜41Dに基づいて当該領域1
2内における自分自身の位置を確実かつ精度良く検出す
ることができる。
も、第2実施例の位置検出システム50(図13)と同
様に、ロボツト71が領域12内のどの位置に位置して
いたとしても標識41A〜41Dに基づいて当該領域1
2内における自分自身の位置を確実かつ精度良く検出す
ることができる。
【0075】以上の構成によれば、見る方向によつて色
合いの異なるかつ互いに色の異なる標識41A〜41D
をそれぞれ領域12の各隅部に配置すると共に、ロボツ
ト71が、領域12内の任意の2地点において、任意の
第1の標識41A〜41Dの色合いに基づいて第2実施
例の場合と同様にして基準方向に対する第1の標識41
A〜41D及び第1の地点を通る直線のなす角(図20
においてθに相当)と、基準方向に対する第2の地点及
び第1の標識41A〜41Dを通る直線のなす角(図2
0においてθ′に相当)を算出し、当該算出結果と、予
め記憶している各標識41A〜41Dの位置を含む領域
12の地図情報及び基準方向とに基づいて当該領域12
内における自分の位置を検出するようにしたことによ
り、領域12内におけるロボツト71の位置を精度良く
検出し得る位置検出システム及びロボツトを実現でき
る。
合いの異なるかつ互いに色の異なる標識41A〜41D
をそれぞれ領域12の各隅部に配置すると共に、ロボツ
ト71が、領域12内の任意の2地点において、任意の
第1の標識41A〜41Dの色合いに基づいて第2実施
例の場合と同様にして基準方向に対する第1の標識41
A〜41D及び第1の地点を通る直線のなす角(図20
においてθに相当)と、基準方向に対する第2の地点及
び第1の標識41A〜41Dを通る直線のなす角(図2
0においてθ′に相当)を算出し、当該算出結果と、予
め記憶している各標識41A〜41Dの位置を含む領域
12の地図情報及び基準方向とに基づいて当該領域12
内における自分の位置を検出するようにしたことによ
り、領域12内におけるロボツト71の位置を精度良く
検出し得る位置検出システム及びロボツトを実現でき
る。
【0076】(6)第6実施例 (6−1)原理 例えば第2実施例の位置検出システム40の標識41A
〜41Dに代えて、例えば図24に示すようなLEDな
どの発光体80を回転させることによりそれぞれ互いに
異なる色の光を領域12と平行な平面内において回転さ
せながら発射し得るようになされた標識81A〜81D
を適用する場合について考える。この場合発光体80は
既知の所定周期で回転するものとする。
〜41Dに代えて、例えば図24に示すようなLEDな
どの発光体80を回転させることによりそれぞれ互いに
異なる色の光を領域12と平行な平面内において回転さ
せながら発射し得るようになされた標識81A〜81D
を適用する場合について考える。この場合発光体80は
既知の所定周期で回転するものとする。
【0077】ここで第2実施例のロボツト42の画像処
理部44がカメラ26から供給される画像信号S1に基
づいて、図25に示すように、任意の第1の標識81A
〜81Dからの出射光を認識した時刻をt1 、このとき
の第1の標識81A〜81Dの発光体80の初期角度を
θ(0) 、発光体80の角速度をωとすると、次式
理部44がカメラ26から供給される画像信号S1に基
づいて、図25に示すように、任意の第1の標識81A
〜81Dからの出射光を認識した時刻をt1 、このとき
の第1の標識81A〜81Dの発光体80の初期角度を
θ(0) 、発光体80の角速度をωとすると、次式
【数29】 から基準位置P1 に対する発光体80の変位角θを算出
することができる。
することができる。
【0078】またこれと異なる第2の標識81A〜81
Dからの出射光をロボツト42の画像処理部44が認識
した時刻をt2 として、上述と同様にして当該第2の標
識81A〜81Dの発光体80の基準位置P2 からの角
度変位ψを算出することができる。さらにロボツト42
から見た第1及び第2の標識81A間の角度φを検出す
ることによつて、これら角度θ、ψ及びφと、第1及び
第2の標識81A〜81D間の距離L0 とから第1又は
第2の標識41A〜41Dを基準としたロボツト42の
位置を検出することができる。
Dからの出射光をロボツト42の画像処理部44が認識
した時刻をt2 として、上述と同様にして当該第2の標
識81A〜81Dの発光体80の基準位置P2 からの角
度変位ψを算出することができる。さらにロボツト42
から見た第1及び第2の標識81A間の角度φを検出す
ることによつて、これら角度θ、ψ及びφと、第1及び
第2の標識81A〜81D間の距離L0 とから第1又は
第2の標識41A〜41Dを基準としたロボツト42の
位置を検出することができる。
【0079】(6−2)第6実施例による位置検出シス
テムの構成 図8との対応部分に同一符号を付して示す図26は第6
実施例による位置検出システム90を示すものであり、
各標識81A〜81Dが図24において上述したように
構成されている点と、ロボツト91の一部構成を除いて
第2実施例の位置検出システム40(図8)と同様に構
成されている。またロボツト91においては、図27に
示すように、画像処理部92の構成及び制御部93によ
る当該ロボツト91の位置検出の仕方を除いて第2実施
例のロボツト42(図10)と同様に構成されている。
テムの構成 図8との対応部分に同一符号を付して示す図26は第6
実施例による位置検出システム90を示すものであり、
各標識81A〜81Dが図24において上述したように
構成されている点と、ロボツト91の一部構成を除いて
第2実施例の位置検出システム40(図8)と同様に構
成されている。またロボツト91においては、図27に
示すように、画像処理部92の構成及び制御部93によ
る当該ロボツト91の位置検出の仕方を除いて第2実施
例のロボツト42(図10)と同様に構成されている。
【0080】この場合画像処理部92は、カメラ26が
任意の第1の標識81A〜81Dを撮像した状態におい
て、当該カメラ26から供給される画像信号S1に基づ
いて第1の標識81A〜81Dからの光がカメラ26に
入射したタイミングでこれを知らせる画像処理信号S3
0を制御部93に送出する。また画像処理部92は、こ
の後カメラ26が向きを変えて任意の第2の標識81A
〜81Dを撮像した状態において、当該カメラ26から
供給される画像信号S1に基づいて第2の標識81A〜
81Dからの光がカメラ26に入射したタイミングでこ
れを知らせる画像処理信号S30を制御部93に送出す
る。
任意の第1の標識81A〜81Dを撮像した状態におい
て、当該カメラ26から供給される画像信号S1に基づ
いて第1の標識81A〜81Dからの光がカメラ26に
入射したタイミングでこれを知らせる画像処理信号S3
0を制御部93に送出する。また画像処理部92は、こ
の後カメラ26が向きを変えて任意の第2の標識81A
〜81Dを撮像した状態において、当該カメラ26から
供給される画像信号S1に基づいて第2の標識81A〜
81Dからの光がカメラ26に入射したタイミングでこ
れを知らせる画像処理信号S30を制御部93に送出す
る。
【0081】制御部93は、供給される画像処理信号S
30に基づいて第1及び第2の標識81A〜81Dから
の光がカメラ26に入射した時刻t1 、t2 を検出する
と共に、当該検出結果と、予め記憶している各標識81
A〜81Dの初期角度、発光体の角速度のうち、第1及
び第2の標識81A〜81Dの初期角度θ(0) 、ψ(0)
並びに第1及び第2の標識の発光体の角速度ω、ω′と
に基づき(29)式を利用して、第1の標識81A〜81
Dの発光体80の初期角度θ(0) に対する現在の変位角
θと、第2の標識81A〜81Dの発光体80の初期角
度ψ(0) に対する現在の変位角ψとを算出する。
30に基づいて第1及び第2の標識81A〜81Dから
の光がカメラ26に入射した時刻t1 、t2 を検出する
と共に、当該検出結果と、予め記憶している各標識81
A〜81Dの初期角度、発光体の角速度のうち、第1及
び第2の標識81A〜81Dの初期角度θ(0) 、ψ(0)
並びに第1及び第2の標識の発光体の角速度ω、ω′と
に基づき(29)式を利用して、第1の標識81A〜81
Dの発光体80の初期角度θ(0) に対する現在の変位角
θと、第2の標識81A〜81Dの発光体80の初期角
度ψ(0) に対する現在の変位角ψとを算出する。
【0082】さらに制御部93は、これら算出結果と、
カメラ26の回転角度として得られるロボツト91から
見た第1及び第2の標識81A〜81D間の角度とを利
用して第2実施例と同様にして領域12内におけるロボ
ツト91の位置を算出する。
カメラ26の回転角度として得られるロボツト91から
見た第1及び第2の標識81A〜81D間の角度とを利
用して第2実施例と同様にして領域12内におけるロボ
ツト91の位置を算出する。
【0083】(6−3)第6実施例の動作及び効果 以上の構成において、この位置検出システム90では、
ロボツト91が、任意の第1及び第2の標識81A〜8
1Dをカメラ26により撮像し、かくして得られた画像
信号S1に基づいて第1及び第2の標識81A〜81D
の発光体80の初期角度θ(0) 、ψ(0) からの変位角
θ、ψとを(29)式に基づいて算出する。またロボツト
91は、このときのカメラ26の回転情報からロボツト
91から見た第1及び第2の標識81A〜81D間の角
度φを得、これら変位角θ、ψ及び角度φから第2実施
例と同様にして領域12内における自分の位置を検出す
る。
ロボツト91が、任意の第1及び第2の標識81A〜8
1Dをカメラ26により撮像し、かくして得られた画像
信号S1に基づいて第1及び第2の標識81A〜81D
の発光体80の初期角度θ(0) 、ψ(0) からの変位角
θ、ψとを(29)式に基づいて算出する。またロボツト
91は、このときのカメラ26の回転情報からロボツト
91から見た第1及び第2の標識81A〜81D間の角
度φを得、これら変位角θ、ψ及び角度φから第2実施
例と同様にして領域12内における自分の位置を検出す
る。
【0084】従つてこの位置検出システム90において
も、第2実施例の位置検出システム40(図8)と同様
に、ロボツト91が領域12内のどの位置に位置してい
たとしても標識81A〜81Dに基づいて当該領域12
内における自分自身の位置を確実かつ精度良く検出する
ことができる。
も、第2実施例の位置検出システム40(図8)と同様
に、ロボツト91が領域12内のどの位置に位置してい
たとしても標識81A〜81Dに基づいて当該領域12
内における自分自身の位置を確実かつ精度良く検出する
ことができる。
【0085】以上の構成によれば、領域12の4隅に一
定周期で回転する互いに異なる色の光を発射する標識8
1A〜81Dを配置すると共に、ロボツト91が、任意
の第1及び第2の標識81A〜81Dをカメラ26によ
り撮像し、かくして得られた画像信号S1に基づいて第
1及び第2の標識81A〜81Dの発光体80の初期角
度θ(0) 、ψ(0) からの変位角θ、ψとを(29)式に基
づいて算出すると共に、当該算出結果と、このときのカ
メラ26の回転情報からロボツト91から見た第1及び
第2の標識81A〜81D間の角度φとに基づいて第2
実施例と同様にして領域12内における自分の位置を検
出するようにしたことにより、領域12内におけるロボ
ツト91の位置を精度良く検出し得る位置検出システム
及びロボツトを実現できる。
定周期で回転する互いに異なる色の光を発射する標識8
1A〜81Dを配置すると共に、ロボツト91が、任意
の第1及び第2の標識81A〜81Dをカメラ26によ
り撮像し、かくして得られた画像信号S1に基づいて第
1及び第2の標識81A〜81Dの発光体80の初期角
度θ(0) 、ψ(0) からの変位角θ、ψとを(29)式に基
づいて算出すると共に、当該算出結果と、このときのカ
メラ26の回転情報からロボツト91から見た第1及び
第2の標識81A〜81D間の角度φとに基づいて第2
実施例と同様にして領域12内における自分の位置を検
出するようにしたことにより、領域12内におけるロボ
ツト91の位置を精度良く検出し得る位置検出システム
及びロボツトを実現できる。
【0086】(7)第7実施例 (7−1)原理 図28を用いて、第1の標識100Aを頂点とする二等
辺三角形をなすように配置された第1〜第3の標識10
0A〜100Cに基づいて、ロボツト101が行動領域
内における自分の位置を検出する方法について説明す
る。なおロボツト101は、カメラにより第1〜第3の
標識100A〜100Cを撮像し、かくして得られた画
像信号に基づいてこれら第1〜第3の標識100A〜1
00Cを識別できるものとする。
辺三角形をなすように配置された第1〜第3の標識10
0A〜100Cに基づいて、ロボツト101が行動領域
内における自分の位置を検出する方法について説明す
る。なおロボツト101は、カメラにより第1〜第3の
標識100A〜100Cを撮像し、かくして得られた画
像信号に基づいてこれら第1〜第3の標識100A〜1
00Cを識別できるものとする。
【0087】まず説明の簡略化のため、第1の標識10
0Aの位置をXY平面上の原点(点O)とし、第2の標
識100Bの位置をX軸上の正方向の点Aとする。また
第3の標識100Cの位置を点B、ロボツト101の位
置を点Pとする。
0Aの位置をXY平面上の原点(点O)とし、第2の標
識100Bの位置をX軸上の正方向の点Aとする。また
第3の標識100Cの位置を点B、ロボツト101の位
置を点Pとする。
【0088】ここで直線OBが直線OA(X軸の正方
向)となす角をφとし、直線OPが直線OA(X軸の正
方向)となす角をθとすると、ロボツト101が第1〜
第3の標識100A〜100Cから十分に遠くにいる場
合、ロボツト101が画像内で測定する見かけ上の第1
及び第2の標識101A、101B間と、第1及び第3
の標識101A、101C間の距離OA、OBは、それ
ぞれ次式
向)となす角をφとし、直線OPが直線OA(X軸の正
方向)となす角をθとすると、ロボツト101が第1〜
第3の標識100A〜100Cから十分に遠くにいる場
合、ロボツト101が画像内で測定する見かけ上の第1
及び第2の標識101A、101B間と、第1及び第3
の標識101A、101C間の距離OA、OBは、それ
ぞれ次式
【数30】
【数31】 により与えられる。ただしLは第1及び第2の標識10
1A、101B間(並びに第1及び第3の標識101
A、101C間)の本当の距離であり、fは第1〜第3
の標識100A〜100Cとロボツト101のカメラと
の距離や画角で決まる係数である。
1A、101B間(並びに第1及び第3の標識101
A、101C間)の本当の距離であり、fは第1〜第3
の標識100A〜100Cとロボツト101のカメラと
の距離や画角で決まる係数である。
【0089】ここでOA=0でないとき、OB/OA=
rとすると、次式
rとすると、次式
【数32】 が得られ、これを加法定理を用いて整理すると、次式
【数33】 となり、さらにこれをθについて解くと次式
【数34】 が得られる。従つてφの値は既知であるので、(34)式
からθ(第1及び第2の標識101A、101Bを通る
直線に対するロボツト101の第1の標識100Aから
の方向)を求めることができる。
からθ(第1及び第2の標識101A、101Bを通る
直線に対するロボツト101の第1の標識100Aから
の方向)を求めることができる。
【0090】ただし、θ=θ0 及びθ=θ0 +πの条件
では、(34)式は同じ値をとるが、これらはOAの正負
により区別することができる。実際上0<θ<πのとき
OA<0であり、π<θ<2πのときOA>0となる。
またOA=0のときは、θは0又はπであり、OBの正
負に応じてOB<0ならばθ=π、OB>0ならばθ=
0である。さらにこの方法によれば、OA=OB=Lが
既知であるか、又は第1の標識の大きさが既知であるの
ならば、ロボツトから第1の標識までの距離も容易に算
出することができる。
では、(34)式は同じ値をとるが、これらはOAの正負
により区別することができる。実際上0<θ<πのとき
OA<0であり、π<θ<2πのときOA>0となる。
またOA=0のときは、θは0又はπであり、OBの正
負に応じてOB<0ならばθ=π、OB>0ならばθ=
0である。さらにこの方法によれば、OA=OB=Lが
既知であるか、又は第1の標識の大きさが既知であるの
ならば、ロボツトから第1の標識までの距離も容易に算
出することができる。
【0091】(7−2)第7実施例による位置検出シス
テムの構成 図29は第7実施例による位置検出システム110の構
成を示し、サツカーフイールド111のゴール111A
の奥部に所定高さの第1の標識112Aが配置されると
共に、ゴールポストの位置に第2及び第3の標識112
B、112Cがそれぞれ配置されている。なお第1〜第
3の標識112A〜112Cは、第1の標識112Aを
頂点とする二等辺三角形をなすように位置が選定されて
いる。この場合第1〜第3の標識112A〜112C
は、図30に示すように、それぞれ表面に3色の色が互
いに異なるパターンで塗られている。
テムの構成 図29は第7実施例による位置検出システム110の構
成を示し、サツカーフイールド111のゴール111A
の奥部に所定高さの第1の標識112Aが配置されると
共に、ゴールポストの位置に第2及び第3の標識112
B、112Cがそれぞれ配置されている。なお第1〜第
3の標識112A〜112Cは、第1の標識112Aを
頂点とする二等辺三角形をなすように位置が選定されて
いる。この場合第1〜第3の標識112A〜112C
は、図30に示すように、それぞれ表面に3色の色が互
いに異なるパターンで塗られている。
【0092】一方、ロボツト113においては、画像処
理部114の構成と、制御部115によるサツカーフイ
ールド111内におけるロボツト113の位置検出の仕
方とを除いてほぼ第3実施例のロボツト51(図14)
と同様に構成されている。
理部114の構成と、制御部115によるサツカーフイ
ールド111内におけるロボツト113の位置検出の仕
方とを除いてほぼ第3実施例のロボツト51(図14)
と同様に構成されている。
【0093】この場合画像処理部114は、カメラ26
により第1〜第3の標識112A〜112Cを撮像した
状態において、当該カメラ26から供給される画像信号
S1に基づいて第1〜第3の標識112A〜112Cを
その色から識別し、当該画像信号S1に基づく画像内に
おける第1及び第2の標識112A、112B間の距離
及び向きと、第1及び第3の標識112A、112C間
の距離及び向きとを検出し、これらを画像処理信号S4
0として制御部115に送出する。また画像処理部11
4は、画像内における第1の標識112Aの画素を単位
とする高さを検出し、これを画像処理信号SS40とし
て制御部115に送出する。
により第1〜第3の標識112A〜112Cを撮像した
状態において、当該カメラ26から供給される画像信号
S1に基づいて第1〜第3の標識112A〜112Cを
その色から識別し、当該画像信号S1に基づく画像内に
おける第1及び第2の標識112A、112B間の距離
及び向きと、第1及び第3の標識112A、112C間
の距離及び向きとを検出し、これらを画像処理信号S4
0として制御部115に送出する。また画像処理部11
4は、画像内における第1の標識112Aの画素を単位
とする高さを検出し、これを画像処理信号SS40とし
て制御部115に送出する。
【0094】制御部115は、供給される画像処理信号
S40に基づき得られる第1及び第2の標識112A、
112B間の見かけ上の距離及び向きと、第1及び第3
の標識112A、112C間の見かけ上の距離及び向き
と、予め記憶している第1の標識112Aから見た第2
及び第3の標識112B、112C間の角度(図28に
おいてφに相当)とに基づいて、(34)式から第1及び
第2の標識112A、112Bを通る直線と、第1の標
識112A及びロボツト113を通る直線とのなす角
(図28におけるθ)を算出する。
S40に基づき得られる第1及び第2の標識112A、
112B間の見かけ上の距離及び向きと、第1及び第3
の標識112A、112C間の見かけ上の距離及び向き
と、予め記憶している第1の標識112Aから見た第2
及び第3の標識112B、112C間の角度(図28に
おいてφに相当)とに基づいて、(34)式から第1及び
第2の標識112A、112Bを通る直線と、第1の標
識112A及びロボツト113を通る直線とのなす角
(図28におけるθ)を算出する。
【0095】さらに制御部115は、画像処理信号S4
0に基づき得られる画像内における第1の標識の高さに
基づいて第3実施例の場合と同様にして第1の標識11
2Aからロボツト113までの距離を算出する。さらに
制御部115は、このようにして得られた第1の標識1
12Aに対する方位(θ)と、第1の標識112Aから
の距離と、予め記憶している第1の標識112Aの位置
とからサツカーフイールド111内におけるロボツト1
13の位置を検出する。
0に基づき得られる画像内における第1の標識の高さに
基づいて第3実施例の場合と同様にして第1の標識11
2Aからロボツト113までの距離を算出する。さらに
制御部115は、このようにして得られた第1の標識1
12Aに対する方位(θ)と、第1の標識112Aから
の距離と、予め記憶している第1の標識112Aの位置
とからサツカーフイールド111内におけるロボツト1
13の位置を検出する。
【0096】(7−3)第7実施例の動作及び効果 以上の構成において、この位置検出システム110で
は、ロボツト113が、カメラ26から供給される画像
信号S1に基づく画像内における第1及び第2の標識1
12A、112B間の距離と、第1及び第3の標識11
2A、112C間の距離と、画像内における第1の標識
112Aの高さとを検出し、当該検出結果に基づいて
(34)式により第1の標識112Aに対する方位(図2
8のθ)と、第1の標識112A及びロボツト113間
の距離とを検出する。
は、ロボツト113が、カメラ26から供給される画像
信号S1に基づく画像内における第1及び第2の標識1
12A、112B間の距離と、第1及び第3の標識11
2A、112C間の距離と、画像内における第1の標識
112Aの高さとを検出し、当該検出結果に基づいて
(34)式により第1の標識112Aに対する方位(図2
8のθ)と、第1の標識112A及びロボツト113間
の距離とを検出する。
【0097】またロボツト113は、これら検出結果
と、予め記憶している第1の標識112Aの位置情報と
に基づいてサツカーフイールド111内における自分の
位置を検出する。従つてこの位置検出システム110に
おいても、第2実施例の位置検出システム40(図8)
と同様に、ロボツト113がサツカーフイールド111
内のどの位置に位置していたとしても第1〜第3の標識
112A〜112Dに基づいて当該サツカーフイールド
111内における自分自身の位置を確実かつ精度良く検
出することができる。
と、予め記憶している第1の標識112Aの位置情報と
に基づいてサツカーフイールド111内における自分の
位置を検出する。従つてこの位置検出システム110に
おいても、第2実施例の位置検出システム40(図8)
と同様に、ロボツト113がサツカーフイールド111
内のどの位置に位置していたとしても第1〜第3の標識
112A〜112Dに基づいて当該サツカーフイールド
111内における自分自身の位置を確実かつ精度良く検
出することができる。
【0098】以上の構成によれば、サツカーフイールド
111のゴール位置に第1〜第3の標識112A〜11
2Cを第1の標識112Aを頂点とする二等辺三角形を
なすように配置すると共に、ロボツト113が、カメラ
26から供給される画像信号S1に基づく画像内におけ
る第1及び第2の標識112A、112B間の距離と、
第1及び第3の標識112A、112C間の距離と、画
像内における第1の標識112Aの高さとを検出し、当
該検出結果に基づいて(34)式により第1の標識112
Aに対する方位(図28のθ)と、第1の標識112A
及びロボツト113間の距離とを検出し、これら検出結
果と、予め記憶している第1の標識112Aの位置情報
とに基づいてサツカーフイールド111内における自分
の位置を検出するようにしたことにより、領域内におけ
るロボツトの位置を精度良く検出し得る位置検出システ
ム及びロボツトを実現できる。
111のゴール位置に第1〜第3の標識112A〜11
2Cを第1の標識112Aを頂点とする二等辺三角形を
なすように配置すると共に、ロボツト113が、カメラ
26から供給される画像信号S1に基づく画像内におけ
る第1及び第2の標識112A、112B間の距離と、
第1及び第3の標識112A、112C間の距離と、画
像内における第1の標識112Aの高さとを検出し、当
該検出結果に基づいて(34)式により第1の標識112
Aに対する方位(図28のθ)と、第1の標識112A
及びロボツト113間の距離とを検出し、これら検出結
果と、予め記憶している第1の標識112Aの位置情報
とに基づいてサツカーフイールド111内における自分
の位置を検出するようにしたことにより、領域内におけ
るロボツトの位置を精度良く検出し得る位置検出システ
ム及びロボツトを実現できる。
【0099】(8)第8実施例 (8−1)原理 図32を用いて、図28の第1〜第3の標識100A〜
100Cが直角三角形を呈するように配置された場合に
おいて、これら第1〜第3の標識100A〜100Cに
基づいて、ロボツト101が行動領域内における自分の
位置を検出する方法について説明する。直線OBがY軸
と一致していることを除いて図28と同様である。
100Cが直角三角形を呈するように配置された場合に
おいて、これら第1〜第3の標識100A〜100Cに
基づいて、ロボツト101が行動領域内における自分の
位置を検出する方法について説明する。直線OBがY軸
と一致していることを除いて図28と同様である。
【0100】この図32において、ロボツト101のカ
メラから出力される画像信号に基づく画像内における第
1及び第2の標識100A、100Bの距離と、第1及
び第3の標識100A、100Cの距離は、それぞれ次
式
メラから出力される画像信号に基づく画像内における第
1及び第2の標識100A、100Bの距離と、第1及
び第3の標識100A、100Cの距離は、それぞれ次
式
【数35】
【数36】 で与えられる。
【0101】このときOA=0でない場合には、r=O
B/OAとして、次式
B/OAとして、次式
【数37】 が成り立ち、これを変形することにより次式
【数38】 が得られる。従つてこの(38)式からθ(すなわち第1
の標識100Aに対するロボツト101の方位)を求め
ることができる。
の標識100Aに対するロボツト101の方位)を求め
ることができる。
【0102】ただし、θ=0及びθ0 +πでは、tan は
同じ値をとるが、これを区別するには、OAの正負で判
定すれば良い。すなわち、0<θ<πのときOA<0で
あり、π<θ<2πのときOA>0である。また、OA
=0のときは、θ=0又はπであり、OBの正負に応じ
て、OB<0ならばθ=π、OB>0ならばθ=0であ
る。
同じ値をとるが、これを区別するには、OAの正負で判
定すれば良い。すなわち、0<θ<πのときOA<0で
あり、π<θ<2πのときOA>0である。また、OA
=0のときは、θ=0又はπであり、OBの正負に応じ
て、OB<0ならばθ=π、OB>0ならばθ=0であ
る。
【0103】さらにOA=OB=Lが既知であるか、又
は第1の標識100Aの大きさが既知であれるのなら
ば、ロボツト101から第1の標識100Aまでの距離
も容易に求めることができる。
は第1の標識100Aの大きさが既知であれるのなら
ば、ロボツト101から第1の標識100Aまでの距離
も容易に求めることができる。
【0104】(8−2)第8実施例による位置検出シス
テムの構成 図33は、第8実施例による位置検出システム120を
示すものであり、領域12の各隅部にそれぞれ3つの第
1〜第3の標識121A〜121C、122A〜122
C、123A〜123C、124A〜124Cからなる
複数の標識群121〜124が配設されている。この場
合各標識群121〜124においては、それぞれ第1の
標識121B〜124Bがそれぞれ領域のコーナ上に位
置すると共に、他の第2及び第3の標識121A〜12
4A、121C〜124Cがそれぞれ領域の辺上に位置
するように配置されている。
テムの構成 図33は、第8実施例による位置検出システム120を
示すものであり、領域12の各隅部にそれぞれ3つの第
1〜第3の標識121A〜121C、122A〜122
C、123A〜123C、124A〜124Cからなる
複数の標識群121〜124が配設されている。この場
合各標識群121〜124においては、それぞれ第1の
標識121B〜124Bがそれぞれ領域のコーナ上に位
置すると共に、他の第2及び第3の標識121A〜12
4A、121C〜124Cがそれぞれ領域の辺上に位置
するように配置されている。
【0105】また各標識群121〜124においては、
それぞれ第1の標識121A〜124Aの高さが所定の
値に選定されており、また第1〜第3の標識122A〜
122C、122A〜122C、123A〜123C、
124A〜124Cが全て図30のように3色の色を用
いてそれぞれ互いに異なるパターンに塗られている。さ
らに標識群121〜124の各第1の標識121A〜1
24A同士もそれぞれ異なる色パターンを有している。
それぞれ第1の標識121A〜124Aの高さが所定の
値に選定されており、また第1〜第3の標識122A〜
122C、122A〜122C、123A〜123C、
124A〜124Cが全て図30のように3色の色を用
いてそれぞれ互いに異なるパターンに塗られている。さ
らに標識群121〜124の各第1の標識121A〜1
24A同士もそれぞれ異なる色パターンを有している。
【0106】一方ロボツト125においては、図34に
示すように、制御部126によるロボツト125の位置
検出方法を除いて第7実施例のロボツト113(図3
1)と同様に構成されている。実際上制御部126は、
画像処理部114から供給される画像処理信号S40に
基づいて、第7実施例と同様にしてカメラ26により撮
像された任意の第1の標識群121〜124の第1の標
識121A〜121Dに対する方位角(図32において
θに相当)を算出する。
示すように、制御部126によるロボツト125の位置
検出方法を除いて第7実施例のロボツト113(図3
1)と同様に構成されている。実際上制御部126は、
画像処理部114から供給される画像処理信号S40に
基づいて、第7実施例と同様にしてカメラ26により撮
像された任意の第1の標識群121〜124の第1の標
識121A〜121Dに対する方位角(図32において
θに相当)を算出する。
【0107】また制御部126は、この後カメラの向き
が変えられて第1の標識群121〜124と異なる任意
の第2の標識群121〜124が撮像された状態におい
て、画像処理部114から供給される画像処理信号S4
0に基づいて、第7実施例と同様にしてカメラ26によ
り撮像された第2の標識群121〜124の第1の標識
121A〜121Dに対する方位角(図32においてθ
に相当)を算出する。
が変えられて第1の標識群121〜124と異なる任意
の第2の標識群121〜124が撮像された状態におい
て、画像処理部114から供給される画像処理信号S4
0に基づいて、第7実施例と同様にしてカメラ26によ
り撮像された第2の標識群121〜124の第1の標識
121A〜121Dに対する方位角(図32においてθ
に相当)を算出する。
【0108】この後制御部126は、これら得られた2
つの方位角と、カメラ26の回転角度として得られるロ
ボツト125から見た第1及び第2の標識群121〜1
24間の角度と、予め記憶している各標識群121〜1
24の各標識121A〜121C、122A〜122
C、123A〜123C、124A〜124Cの位置情
報とに基づいて、第2実施例の場合と同様にして領域1
2内におけるロボツト125の位置を検出する。
つの方位角と、カメラ26の回転角度として得られるロ
ボツト125から見た第1及び第2の標識群121〜1
24間の角度と、予め記憶している各標識群121〜1
24の各標識121A〜121C、122A〜122
C、123A〜123C、124A〜124Cの位置情
報とに基づいて、第2実施例の場合と同様にして領域1
2内におけるロボツト125の位置を検出する。
【0109】(8−3)第8実施例の動作及び効果 以上の構成において、この位置検出システム120で
は、ロボツト125が、カメラ26から供給される画像
信号S1に基づいて当該カメラ26により撮像された任
意の第1及び第2の標識群121〜124の各第1の標
識121A〜121Dに対する方位角(図32において
θに相当)をそれぞれ算出すると共に、当該算出結果
と、カメラ26の回転角度として得られるロボツト12
5から見た第1及び第2の標識群121〜124間の角
度とに基づいて第2実施例と同様にして領域12内にお
ける自分の位置を検出する。
は、ロボツト125が、カメラ26から供給される画像
信号S1に基づいて当該カメラ26により撮像された任
意の第1及び第2の標識群121〜124の各第1の標
識121A〜121Dに対する方位角(図32において
θに相当)をそれぞれ算出すると共に、当該算出結果
と、カメラ26の回転角度として得られるロボツト12
5から見た第1及び第2の標識群121〜124間の角
度とに基づいて第2実施例と同様にして領域12内にお
ける自分の位置を検出する。
【0110】従つてこの位置検出システム120におい
ても、第2実施例の位置検出システム40(図8)と同
様に、ロボツト125が領域12内のどの位置に位置し
ていたとしても各標識群121〜124に基づいて当該
領域12内における自分自身の位置を確実かつ精度良く
検出することができる。
ても、第2実施例の位置検出システム40(図8)と同
様に、ロボツト125が領域12内のどの位置に位置し
ていたとしても各標識群121〜124に基づいて当該
領域12内における自分自身の位置を確実かつ精度良く
検出することができる。
【0111】以上の構成によれば、領域12の各隅部に
それぞれ3つの標識121A〜121D、122A〜1
22D、123A〜123D、124A〜124Dがそ
れぞれ所定状態に配置されてなる標識群121〜124
を設けると共に、ロボツト125が、カメラ26から供
給される画像信号S1に基づいて当該カメラ26により
撮像された任意の第1及び第2の標識群121〜124
の各第1の標識121A〜121Dに対する方位角(図
32においてθに相当)をそれぞれ算出すると共に、当
該算出結果と、カメラ26の回転角度として得られるロ
ボツト125から見た第1及び第2の標識群121〜1
24間の角度とに基づいて第2実施例と同様にして領域
12内における自分の位置を検出するようにしたことに
より、領域内におけるロボツトの位置を精度良く検出し
得る位置検出システム及びロボツトを実現できる。
それぞれ3つの標識121A〜121D、122A〜1
22D、123A〜123D、124A〜124Dがそ
れぞれ所定状態に配置されてなる標識群121〜124
を設けると共に、ロボツト125が、カメラ26から供
給される画像信号S1に基づいて当該カメラ26により
撮像された任意の第1及び第2の標識群121〜124
の各第1の標識121A〜121Dに対する方位角(図
32においてθに相当)をそれぞれ算出すると共に、当
該算出結果と、カメラ26の回転角度として得られるロ
ボツト125から見た第1及び第2の標識群121〜1
24間の角度とに基づいて第2実施例と同様にして領域
12内における自分の位置を検出するようにしたことに
より、領域内におけるロボツトの位置を精度良く検出し
得る位置検出システム及びロボツトを実現できる。
【0112】(9)他の実施例 なお上述の第1〜第8実施例においては、本発明による
位置検出システムを図3、図8、図13、図17、図2
1、図26、図29又は図33のように構成するように
した場合について述べたが、本発明はこれに限らず、要
は、それぞれ領域又は当該領域(各実施例において領域
12又はサツカーフイールド111に相当)の周囲の所
定位置に配置された単数又は複数の標識(各実施例にお
いて標識14A〜14D、41A〜41D、81A〜8
1D、112A〜112D、121A〜121D、12
2A〜122D、123A〜123D、124A〜12
4D又は130に相当)と、移動体(各実施例のロボツ
ト11、42、51、61、71、91、113又は1
25に相当)に設けられ、標識を認識する撮像手段(各
実施例におけるカメラ26に相当)と、撮像手段から出
力される画像情報(各実施例において画像信号S1に相
当)に基づいて、撮像した標識を認識し、かつ当該標識
及び移動体間の距離及び又は当該標識に対する移動体の
方向を検出する検出手段(各実施例において画像処理部
32、43、52、92、114及び制御部29、4
4、53、62、72、93、115、126に相当)
と、検出手段により検出された距離及び又は方向に基づ
いて、領域内における移動体の位置を算出する演算手段
(各実施例において制御部29、44、53、62、7
2、93、115、126に相当)とで位置検出システ
ムを構築するようにするのであれば、位置検出システム
の構成としては、この他種々の構成を適用できる。
位置検出システムを図3、図8、図13、図17、図2
1、図26、図29又は図33のように構成するように
した場合について述べたが、本発明はこれに限らず、要
は、それぞれ領域又は当該領域(各実施例において領域
12又はサツカーフイールド111に相当)の周囲の所
定位置に配置された単数又は複数の標識(各実施例にお
いて標識14A〜14D、41A〜41D、81A〜8
1D、112A〜112D、121A〜121D、12
2A〜122D、123A〜123D、124A〜12
4D又は130に相当)と、移動体(各実施例のロボツ
ト11、42、51、61、71、91、113又は1
25に相当)に設けられ、標識を認識する撮像手段(各
実施例におけるカメラ26に相当)と、撮像手段から出
力される画像情報(各実施例において画像信号S1に相
当)に基づいて、撮像した標識を認識し、かつ当該標識
及び移動体間の距離及び又は当該標識に対する移動体の
方向を検出する検出手段(各実施例において画像処理部
32、43、52、92、114及び制御部29、4
4、53、62、72、93、115、126に相当)
と、検出手段により検出された距離及び又は方向に基づ
いて、領域内における移動体の位置を算出する演算手段
(各実施例において制御部29、44、53、62、7
2、93、115、126に相当)とで位置検出システ
ムを構築するようにするのであれば、位置検出システム
の構成としては、この他種々の構成を適用できる。
【0113】実際上、例えば標識として、例えば図35
に示すように、壁13の各内壁面13E〜13Dをそれ
ぞれ異なる色に塗り分けると共に、ロボツトが色の違い
から壁13の各コーナ13A〜13Dを認識し得るよう
にし、これら各コーナ13A〜13Dを上述の標識とし
て利用して、例えば第1又は第4実施例の方法によりロ
ボツトの位置を検出するようにしても良い。
に示すように、壁13の各内壁面13E〜13Dをそれ
ぞれ異なる色に塗り分けると共に、ロボツトが色の違い
から壁13の各コーナ13A〜13Dを認識し得るよう
にし、これら各コーナ13A〜13Dを上述の標識とし
て利用して、例えば第1又は第4実施例の方法によりロ
ボツトの位置を検出するようにしても良い。
【0114】また例えば図36に示すように、壁13の
各内壁面13E〜13Gをそれぞれロボツトの移動方向
と垂直な方向に複数色で塗り分け、ロボツトが色の変化
を検出して境界X1 〜X3 を標識として利用するように
しても良く、さらには互いに異なる音を発生する音響ビ
ーコン等を標識として利用して、例えば第1又は第4実
施例の方法により位置を検出するようにしても良い。
各内壁面13E〜13Gをそれぞれロボツトの移動方向
と垂直な方向に複数色で塗り分け、ロボツトが色の変化
を検出して境界X1 〜X3 を標識として利用するように
しても良く、さらには互いに異なる音を発生する音響ビ
ーコン等を標識として利用して、例えば第1又は第4実
施例の方法により位置を検出するようにしても良い。
【0115】さらに例えば壁13の内壁面を背景と異な
る色で塗つた場合、壁13の上端のエツジをロボツト1
1、61の画像処理部32により認識することができ
る。このときエツジは、図37のように壁13の直線部
分が直線なのに対し、コーナ13A〜13D部分が折れ
線となる。従つてロボツト11、61が壁13の上端の
エツジの折れ部分を壁13のコーナ13A〜13Dとし
て検出し、当該検出したコーナ13A〜13Dを標識と
して利用して、例えば第2、第3又は第5実施例の方法
により位置を検出するようにしても良い。
る色で塗つた場合、壁13の上端のエツジをロボツト1
1、61の画像処理部32により認識することができ
る。このときエツジは、図37のように壁13の直線部
分が直線なのに対し、コーナ13A〜13D部分が折れ
線となる。従つてロボツト11、61が壁13の上端の
エツジの折れ部分を壁13のコーナ13A〜13Dとし
て検出し、当該検出したコーナ13A〜13Dを標識と
して利用して、例えば第2、第3又は第5実施例の方法
により位置を検出するようにしても良い。
【0116】なお標識として壁13のコーナ13A〜1
3Dのうち、隣接する2つのコーナ13A〜13Dを用
いる場合には、これら2つのコーナ13A〜13Dを両
端とする壁面の上端のエツジに基づいてロボツトの位置
を検出することができる。すなわちカメラ26から出力
される画像信号S1に基づく画像内において、壁面の上
端のエツジ(線分)は、図38(A)及び(B)に示す
ように、カメラ26の撮像方向が壁面に対して斜めであ
るとき(図38(B)には角度をもつのに対し、カメラ
26の撮像方向が壁面に対して垂直のとき(図38
(A))のときには水平に写像される。従つてロボツト
11、61の画像処理部32により壁面の上端のエツジ
が水平と認識される方向及びその壁面の両端のコーナ1
3A〜13Dを検出し、当該コーナ13A〜13Dを標
識として、例えば第2実施例と同様にしてロボツトの位
置を検出することができる。
3Dのうち、隣接する2つのコーナ13A〜13Dを用
いる場合には、これら2つのコーナ13A〜13Dを両
端とする壁面の上端のエツジに基づいてロボツトの位置
を検出することができる。すなわちカメラ26から出力
される画像信号S1に基づく画像内において、壁面の上
端のエツジ(線分)は、図38(A)及び(B)に示す
ように、カメラ26の撮像方向が壁面に対して斜めであ
るとき(図38(B)には角度をもつのに対し、カメラ
26の撮像方向が壁面に対して垂直のとき(図38
(A))のときには水平に写像される。従つてロボツト
11、61の画像処理部32により壁面の上端のエツジ
が水平と認識される方向及びその壁面の両端のコーナ1
3A〜13Dを検出し、当該コーナ13A〜13Dを標
識として、例えば第2実施例と同様にしてロボツトの位
置を検出することができる。
【0117】このように標識としては種々のものが考え
られるが、要は、ロボツトが各標識を識別することがで
きるものであれば、標識の構成、数及び配設位置として
種々の構成、数及び配設位置を適用できる。
られるが、要は、ロボツトが各標識を識別することがで
きるものであれば、標識の構成、数及び配設位置として
種々の構成、数及び配設位置を適用できる。
【0118】また上述の第1〜第8実施例においては、
検出手段を、画像処理部32、43、52、92、11
4と、制御部29、44、53、62、72、93、1
15、126とで構成するようにしたが、本発明はこれ
に限らず、1つのCPUによりプログラム的に処理する
ようにしても良く、検出手段の構成としては種々の構成
を適用できる。
検出手段を、画像処理部32、43、52、92、11
4と、制御部29、44、53、62、72、93、1
15、126とで構成するようにしたが、本発明はこれ
に限らず、1つのCPUによりプログラム的に処理する
ようにしても良く、検出手段の構成としては種々の構成
を適用できる。
【0119】さらに上述の第1〜第8実施例において
は、一例を示すため、それぞれ標識からの方位を求める
ある方法と、当該標識からの距離を求めるある方法と、
角度を求めるある方法とを必要に応じて組み合わせた場
合について述べたが、本発明はこれに限らず、これらの
組み合わせを変えても良い。
は、一例を示すため、それぞれ標識からの方位を求める
ある方法と、当該標識からの距離を求めるある方法と、
角度を求めるある方法とを必要に応じて組み合わせた場
合について述べたが、本発明はこれに限らず、これらの
組み合わせを変えても良い。
【0120】さらに上述の第7実施例においては、標識
として図30のように構成された標識112A〜112
Cを3つ用いるようにした場合について述べたが、本発
明はこれに限らず、3つの標識112A〜112Cを二
等辺三角形をなすように配置する代わりに、例えば図3
8のような底面が二等辺三角形である三角柱状で、かつ
頂角を挟む2つの側面130A、130Bがそれぞれ異
なる色パターンで塗り分けられた標識130を1つ用い
るようにしても良く、このようにすることによつても第
7実施例と同様の効果を得ることができる。
として図30のように構成された標識112A〜112
Cを3つ用いるようにした場合について述べたが、本発
明はこれに限らず、3つの標識112A〜112Cを二
等辺三角形をなすように配置する代わりに、例えば図3
8のような底面が二等辺三角形である三角柱状で、かつ
頂角を挟む2つの側面130A、130Bがそれぞれ異
なる色パターンで塗り分けられた標識130を1つ用い
るようにしても良く、このようにすることによつても第
7実施例と同様の効果を得ることができる。
【0121】
【発明の効果】上述のように本発明によれば、所定の領
域内を移動する移動体の位置を検出する位置検出装置及
び方法において、単数又は複数の標識を領域内又は領域
の周囲のそれぞれ所定位置に配置すると共に、対応する
標識を移動体に設けられた撮像手段により撮像し、得ら
れる画像情報に基づいて、撮像した標識を認識し、かつ
当該標識及び移動体間の距離及び又は当該標識に対する
移動体の方向を検出し、検出結果に基づいて領域内にお
ける移動体の位置を検出するようにしたことにより、領
域内における移動体の位置を精度良く検出し得る位置検
出装置及び方法を実現できる。
域内を移動する移動体の位置を検出する位置検出装置及
び方法において、単数又は複数の標識を領域内又は領域
の周囲のそれぞれ所定位置に配置すると共に、対応する
標識を移動体に設けられた撮像手段により撮像し、得ら
れる画像情報に基づいて、撮像した標識を認識し、かつ
当該標識及び移動体間の距離及び又は当該標識に対する
移動体の方向を検出し、検出結果に基づいて領域内にお
ける移動体の位置を検出するようにしたことにより、領
域内における移動体の位置を精度良く検出し得る位置検
出装置及び方法を実現できる。
【0122】またロボツト装置において、領域内又は領
域の周囲のそれぞれ所定位置に配置された単数又は複数
の標識のうち、対応する所定の標識を撮像する撮像手段
と、撮像手段から出力される画像情報に基づいて、撮像
した標識を認識し、かつ当該標識及び移動体間の距離及
び又は当該標識に対する移動体の方向を検出する検出手
段と、検出手段による検出結果に基づいて領域内におけ
る移動体の位置を演算する演算手段とを設けるようにし
たことにより、領域内における自分の位置を精度良く検
出し得るロボツト装置を実現できる。
域の周囲のそれぞれ所定位置に配置された単数又は複数
の標識のうち、対応する所定の標識を撮像する撮像手段
と、撮像手段から出力される画像情報に基づいて、撮像
した標識を認識し、かつ当該標識及び移動体間の距離及
び又は当該標識に対する移動体の方向を検出する検出手
段と、検出手段による検出結果に基づいて領域内におけ
る移動体の位置を演算する演算手段とを設けるようにし
たことにより、領域内における自分の位置を精度良く検
出し得るロボツト装置を実現できる。
【図1】第1実施例の原理説明に供する平面図である。
【図2】第1実施例の原理説明に供する平面図である。
【図3】第1実施例による位置検出システムの構成を示
す平面図である。
す平面図である。
【図4】ロボツトの構成を示す側面図である。
【図5】第1実施例のロボツトの構成を示すブロツク図
である。
である。
【図6】第1実施例の位置検出処理手順を示すフローチ
ヤートである。
ヤートである。
【図7】第2実施例の原理説明に供する平面図である。
【図8】第2実施例による位置検出システムの構成を示
す平面図である。
す平面図である。
【図9】第2実施例による標識の構成を示す斜視図であ
る。
る。
【図10】第2実施例のロボツトの構成を示すブロツク
図である。
図である。
【図11】第2実施例の位置検出処理手順を示すフロー
チヤートである。
チヤートである。
【図12】第3実施例の原理説明に供する平面図であ
る。
る。
【図13】第3実施例による位置検出システムの構成を
示す平面図である。
示す平面図である。
【図14】第3実施例のロボツトの構成を示すブロツク
図である。
図である。
【図15】第3実施例の位置検出処理手順を示すフロー
チヤートである。
チヤートである。
【図16】第4実施例の原理説明に供する平面図であ
る。
る。
【図17】第4実施例による位置検出システムの構成を
示す平面図である。
示す平面図である。
【図18】第4実施例のロボツトの構成を示すブロツク
図である。
図である。
【図19】第4実施例の位置検出処理手順を示すフロー
チヤートである。
チヤートである。
【図20】第5実施例の原理説明に供する平面図であ
る。
る。
【図21】第5実施例による位置検出システムの構成を
示す平面図である。
示す平面図である。
【図22】第5実施例のロボツトの構成を示すブロツク
図である。
図である。
【図23】第5実施例の位置検出処理手順を示すフロー
チヤートである。
チヤートである。
【図24】第6実施例における標識の構成を示す斜視図
である。
である。
【図25】第6実施例の原理説明に供する平面図であ
る。
る。
【図26】第6実施例による位置検出システムの構成を
示す平面図である。
示す平面図である。
【図27】第6実施例のロボツトの構成を示すブロツク
図である。
図である。
【図28】第7実施例の原理説明に供する平面図であ
る。
る。
【図29】第7実施例による位置検出システムの構成を
示す平面図である。
示す平面図である。
【図30】第7実施例の標識の構成を示す斜視図であ
る。
る。
【図31】第7実施例のロボツトの構成を示すブロツク
図である。
図である。
【図32】第8実施例の原理説明に供する平面図であ
る。
る。
【図33】第8実施例による位置検出システムの構成を
示す平面図である。
示す平面図である。
【図34】第8実施例の標識の構成を示すブロツク図で
ある。
ある。
【図35】他の実施例を示す略線的な斜視図である。
【図36】他の実施例を示す略線的な斜視図である。
【図37】他の実施例を示す略線的な斜視図である。
【図38】他の実施例を示す略線的な斜視図である。
【図39】他の実施例を示す略線的な斜視図である。
10、40、50、60、70、90、110、120
……位置検出システム、11、42、51、61、7
1、91、113、125……ロボツト、13……壁、
13A〜13D……コーナ、14A〜14D、41A〜
41D、81A〜81D、112A〜112D、121
A〜121D、122A〜122D、123A〜123
D、124A〜124D、130……標識、26……カ
メラ、32、43、52、92、114……画像処理
部、29、44、53、62、72、93、115、1
26……制御部、S1……画像信号、RT1〜RT5…
…位置検出処理手順。
……位置検出システム、11、42、51、61、7
1、91、113、125……ロボツト、13……壁、
13A〜13D……コーナ、14A〜14D、41A〜
41D、81A〜81D、112A〜112D、121
A〜121D、122A〜122D、123A〜123
D、124A〜124D、130……標識、26……カ
メラ、32、43、52、92、114……画像処理
部、29、44、53、62、72、93、115、1
26……制御部、S1……画像信号、RT1〜RT5…
…位置検出処理手順。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI // G01C 3/06 G01C 3/06 Z (72)発明者 福村 直博 東京都品川区北品川6丁目7番35号ソニー 株式会社内
Claims (18)
- 【請求項1】所定の領域内を移動する移動体の位置を検
出する位置検出装置において、 それぞれ上記領域内又は上記領域の周囲の所定位置に配
置された単数又は複数の標識と、 上記移動体に設けられ、上記標識を撮像する撮像手段
と、 上記撮像手段から出力される画像情報に基づいて、撮像
した上記標識を認識し、かつ当該標識及び上記移動体間
の距離及び又は当該標識に対する上記移動体の方向を検
出する検出手段と、 上記検出手段により検出された上記距離及び又は上記方
向に基づいて上記領域内における上記移動体の位置を算
出する演算手段とを具えることを特徴とする位置検出装
置。 - 【請求項2】上記撮像手段により、上記領域内の1地点
において順番に3つ以上の上記標識を撮像し、 上記検出手段により、上記画像情報に基づいて、上記撮
像手段により撮像された上記標識間の角度を2組以上検
出し、 上記演算手段により、上記検出手段により検出された各
上記角度に基づいて、上記領域内における上記移動体の
位置を算出することを特徴とする請求項1に記載の位置
検出装置。 - 【請求項3】上記撮像手段により、上記領域内の1地点
において順番に2つの上記標識を撮像し、 上記検出手段により、上記画像情報に基づいて、上記撮
像手段により撮像された各上記標識に対する上記移動体
の各方向を検出し、 上記演算手段により、記検出手段により検出された各上
記方向に基づいて上記領域内における上記移動体の位置
を算出することを特徴とする請求項1に記載の位置検出
装置。 - 【請求項4】上記撮像手段により、上記領域内の1地点
において1つの上記標識を撮像し、 上記検出手段により、上記画像情報に基づいて、上記撮
像手段により撮像された上記標識に対する上記移動体の
方向及び当該標識に対する上記移動体の距離を検出し、 上記演算手段により、上記検出手段により検出された上
記方向及び上記距離に基づいて上記領域内における上記
移動体の位置を算出することを特徴とする請求項1に記
載の位置検出装置。 - 【請求項5】上記移動体の移動距離を計測する計測手段
を具え、 上記撮像手段により、上記移動体の移動に伴つて、上記
領域内の第1及び第2の地点においてそれぞれ順番に同
じ第1及び第2の上記標識を撮像し、 上記検出手段により、上記画像情報に基づいて、上記第
1の地点における上記第1及び第2の標識に対する上記
移動体の各方向と、上記第2の地点における上記第1及
び第2の標識に対する上記移動体の各方向とをそれぞれ
検出し、 上記演算手段により、上記検出手段により検出された各
上記方向と、上記計測手段により上記移動体の移動距離
として計測される上記第1及び第2の地点間の距離とに
基づいて上記領域内における上記移動体の位置を検出す
ることを特徴とする請求項1に記載の位置検出装置。 - 【請求項6】上記移動体の移動距離を計測する計測手段
を具え、 上記撮像手段により、上記移動体の移動に伴つて、上記
領域内の第1及び第2の地点においてそれぞれ同じ1つ
の上記標識を撮像し、 上記検出手段により、上記画像情報に基づいて、上記第
1及び第2の地点における上記撮像手段により撮像され
た上記標識に対する上記移動体の各方向をそれぞれ検出
し、 上記演算手段により、上記検出手段により検出された各
上記方向と、上記計測手段により上記移動体の移動距離
として計測された上記第1及び第2の地点間の距離とに
基づいて、上記領域内における上記移動体の位置を検出
することを特徴とする請求項1に記載の位置検出装置。 - 【請求項7】所定の領域内を移動する移動体の位置を検
出する位置検出方法において、 それぞれ上記領域内又は当該領域の周囲の所定位置に配
置された単数又は複数の標識のうち、対応する上記標識
を上記移動体に設けられた撮像手段により撮像する第1
のステツプと、 上記撮像手段から出力される画像情報に基づいて、撮像
された上記標識を認識すると共に、当該標識及び上記移
動体間の距離及び又は当該標識に対する上記移動体の方
向を検出する第2のステツプと、 上記第2のステツプにおいて検出した上記距離及び又は
方向に基づいて上記領域内における上記移動体の位置を
算出する第3のステツプとを具えることを特徴とする位
置検出方法。 - 【請求項8】上記第1のステツプにおいて又は上記第1
及び第2のステツプを繰り返すことにより、上記領域内
の1地点において順番に3つ以上の上記標識を撮像し、 上記第2のステツプにおいて又は上記第1及び第2のス
テツプを繰り返すことにより、上記画像情報に基づい
て、上記撮像手段により撮像された上記標識間の角度を
2組以上検出し、 第3のステツプでは、上記第2のステツプにおいて又は
上記第1及び第2のステツプを繰り返すことにより得ら
れた各上記角度に基づいて上記領域内における上記移動
体の位置を算出することを特徴とする請求項7に記載の
位置検出方法。 - 【請求項9】上記第1のステツプにおいて又は上記第1
及び第2のステツプを繰り返すことにより、上記領域内
の1地点において順番に2つの上記標識を撮像し、 上記第1のステツプにおいて又は上記第1及び第2のス
テツプを繰り返すことにより、上記画像情報に基づい
て、上記撮像手段により撮像された各上記標識にそれぞ
れ対する上記移動体の方向を検出し、 上記第3のステツプでは、上記第2のステツプにおいて
又は上記第1及び第2のステツプを繰り返すことにより
得られた各上記方向に基づいて上記領域内における上記
移動体の位置を算出することを特徴とする請求項7に記
載の位置検出方法。 - 【請求項10】上記第1のステツプでは、上記領域内の
1地点において1つの上記標識を撮像し、 上記第2のステツプでは、上記画像情報に基づいて、上
記撮像手段により撮像された上記標識に対する上記移動
体の方向及び当該標識に対する上記移動体の距離を検出
し、 上記第3のステツプでは、上記第2ステツプにおいて検
出した上記方向及び上記距離に基づいて上記領域内にお
ける上記移動体の位置を算出することを特徴とする請求
項7に記載の位置検出方法。 - 【請求項11】上記第1のステツプにおいて又は上記移
動体を移動させながら上記第1及び第2のステツプを繰
り返すことにより、上記領域内の第1及び第2の地点に
おいてそれぞれ順番に同じ第1及び第2の上記標識を撮
像し、 上記第2のステツプにおいて又は上記移動体を移動させ
ながら上記第1及び第2のステツプを繰り返すことによ
り、上記画像情報に基づいて、上記第1の地点における
上記第1及び第2の標識に対する上記移動体の各方向
と、上記第2の地点における上記第1及び第2の標識に
対する上記移動体の各方向とをそれぞれ検出し、 上記第3のステツプでは、上記第2のステツプにおいて
又は上記移動体を移動させながら上記第1及び第2のス
テツプを繰り返すことにより検出した各上記方向と、上
記移動体の移動距離として計測された上記第1及び第2
の地点間の距離とに基づいて上記領域内における上記移
動体の位置を検出することを特徴とする請求項7に記載
の位置検出方法。 - 【請求項12】上記第1のステツプにおいて又は上記移
動体を移動させながら上記第1及び第2のステツプを繰
り返すことにより、上記領域内の第1及び第2の地点に
おいてそれぞれ同じ1つの上記標識を撮像し、 上記第2のステツプにおいて又は上記移動体を移動させ
ながら上記第1及び第2のステツプを繰り返すことによ
り、上記画像情報に基づいて、上記第1及び第2の地点
における上記撮像手段により撮像された上記標識に対す
る上記移動体の各方向をそれぞれ検出し、 上記第3のステツプでは、上記第2のステツプにおいて
又は上記移動体を移動させながら上記第1及び第2のス
テツプを繰り返すことにより得られた各上記方向と、上
記移動体の移動距離として計測される上記第1及び第2
の地点間の距離とに基づいて上記領域内における上記移
動体の位置を検出することを特徴とする請求項7に記載
の位置検出方法。 - 【請求項13】所定の領域内を移動するロボツト装置に
おいて、 それぞれ上記領域内又は当該領域の周囲の所定位置に配
置された単数又は複数の標識のうち、対応する所定の上
記標識を撮像する撮像手段と、 上記撮像手段から出力される画像情報に基づいて、撮像
された上記標識を認識すると共に、当該標識までの距離
及び又は当該標識に対する方向を検出する検出手段と、 上記検出手段により検出された上記距離及び又は上記方
向に基づいて上記領域内における位置を算出する演算手
段とを具えることを特徴とするロボツト装置。 - 【請求項14】上記撮像手段により、上記領域内の1地
点において順番に3つ以上の上記標識を撮像し、 上記検出手段により、上記画像情報に基づいて、上記撮
像手段により撮像された上記標識間の角度を2組以上検
出し、 上記演算手段により、上記検出手段により検出された各
上記角度に基づいて、上記領域内における位置を算出す
ることを特徴とする請求項13に記載のロボツト装置。 - 【請求項15】上記撮像手段により、上記領域内の1地
点において順番に2つの上記標識を撮像し、 上記検出手段により、上記画像情報に基づいて、上記撮
像手段により撮像された各上記標識に対する各方向を検
出し、 上記演算手段により、記検出手段により検出された各上
記方向に基づいて上記領域内における位置を算出するこ
とを特徴とする請求項13に記載のロボツト装置。 - 【請求項16】上記撮像手段により、上記領域内の1地
点において1つの上記標識を撮像し、 上記検出手段により、上記画像情報に基づいて、撮像し
た上記標識に対する方向及び当該標識までの距離を検出
し、 上記演算手段により、上記検出手段により検出された上
記方向及び上記距離に基づいて上記領域内における上記
位置を算出することを特徴とする請求項13に記載のロ
ボツト装置。 - 【請求項17】移動距離を計測する計測手段を具え、 上記撮像手段により、上記領域内の第1及び第2の地点
においてそれぞれ順番に同じ第1及び第2の上記標識を
撮像し、 上記検出手段により、上記第1の地点における上記第1
及び第2の標識に対する各方向と、上記第2の地点にお
ける上記第1及び第2の標識に対する各方向とをそれぞ
れ検出し、 上記演算手段により、上記検出手段により検出された各
上記方向と、上記計測手段により移動距離として計測さ
れる上記第1及び第2の地点間の距離とに基づいて上記
領域内における位置を検出することを特徴とする請求項
13に記載のロボツト装置。 - 【請求項18】移動距離を計測する計測手段を具え、 上記撮像手段により、上記領域内の第1及び第2の地点
においてそれぞれ同じ1つの上記標識を撮像し、 上記検出手段により、上記第1及び第2の地点における
上記標識に対する各方向をそれぞれ検出し、 上記演算手段により、上記検出手段により検出された各
上記方向と、上記計測手段により移動距離として計測さ
れた上記第1及び第2の地点間の距離とに基づいて上記
領域内における位置を検出することを特徴とする請求項
13に記載のロボツト装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8280042A JPH10109290A (ja) | 1996-09-30 | 1996-09-30 | 位置検出装置及び方法並びにロボツト装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8280042A JPH10109290A (ja) | 1996-09-30 | 1996-09-30 | 位置検出装置及び方法並びにロボツト装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10109290A true JPH10109290A (ja) | 1998-04-28 |
Family
ID=17619496
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8280042A Pending JPH10109290A (ja) | 1996-09-30 | 1996-09-30 | 位置検出装置及び方法並びにロボツト装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10109290A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001125641A (ja) * | 1999-10-29 | 2001-05-11 | Sony Corp | 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造 |
JP2002243446A (ja) * | 2001-02-20 | 2002-08-28 | Minolta Co Ltd | 位置情報設定装置および環境情報獲得装置 |
JP2002536709A (ja) * | 1998-07-08 | 2002-10-29 | シーメンス アクチエンゲゼルシヤフト | 第1の構造と少なくとも1つの予め設定された第2の構造との類似度を算出するための方法及び装置 |
JP2007132744A (ja) * | 2005-11-09 | 2007-05-31 | Toshiba Tec Corp | 位置検出システム |
JP2007139461A (ja) * | 2005-11-15 | 2007-06-07 | Toshiba Tec Corp | 位置検出システム |
KR100835906B1 (ko) | 2007-05-03 | 2008-06-09 | 고려대학교 산학협력단 | 로봇 전역 위치 추정 방법 및 로봇 전역 위치 추정 장치 |
JP2009285778A (ja) * | 2008-05-29 | 2009-12-10 | Toyota Industries Corp | ロボットハンドの姿勢検知システム |
KR101106691B1 (ko) | 2010-12-03 | 2012-01-18 | 제이씨스퀘어주식회사 | 차량 위치 확인 시스템 |
US9402151B2 (en) | 2011-08-27 | 2016-07-26 | Korea University Research And Business Foundation | Method for recognizing position of mobile robot by using features of arbitrary shapes on ceiling |
JP2016177742A (ja) * | 2015-03-23 | 2016-10-06 | 株式会社メガチップス | 移動体制御装置、ランドマーク、および、プログラム |
WO2020003753A1 (ja) * | 2018-06-29 | 2020-01-02 | パナソニックIpマネジメント株式会社 | 宅配ボックスの寸法測定装置 |
-
1996
- 1996-09-30 JP JP8280042A patent/JPH10109290A/ja active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002536709A (ja) * | 1998-07-08 | 2002-10-29 | シーメンス アクチエンゲゼルシヤフト | 第1の構造と少なくとも1つの予め設定された第2の構造との類似度を算出するための方法及び装置 |
JP4833406B2 (ja) * | 1998-07-08 | 2011-12-07 | シーメンス アクチエンゲゼルシヤフト | 第1の構造と少なくとも1つの予め設定された第2の構造との類似度を算出するための方法及び装置 |
JP2001125641A (ja) * | 1999-10-29 | 2001-05-11 | Sony Corp | 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造 |
JP4595212B2 (ja) * | 2001-02-20 | 2010-12-08 | コニカミノルタビジネステクノロジーズ株式会社 | 位置情報設定装置および環境情報獲得装置 |
JP2002243446A (ja) * | 2001-02-20 | 2002-08-28 | Minolta Co Ltd | 位置情報設定装置および環境情報獲得装置 |
JP2007132744A (ja) * | 2005-11-09 | 2007-05-31 | Toshiba Tec Corp | 位置検出システム |
JP2007139461A (ja) * | 2005-11-15 | 2007-06-07 | Toshiba Tec Corp | 位置検出システム |
KR100835906B1 (ko) | 2007-05-03 | 2008-06-09 | 고려대학교 산학협력단 | 로봇 전역 위치 추정 방법 및 로봇 전역 위치 추정 장치 |
JP2009285778A (ja) * | 2008-05-29 | 2009-12-10 | Toyota Industries Corp | ロボットハンドの姿勢検知システム |
KR101106691B1 (ko) | 2010-12-03 | 2012-01-18 | 제이씨스퀘어주식회사 | 차량 위치 확인 시스템 |
US9402151B2 (en) | 2011-08-27 | 2016-07-26 | Korea University Research And Business Foundation | Method for recognizing position of mobile robot by using features of arbitrary shapes on ceiling |
JP2016177742A (ja) * | 2015-03-23 | 2016-10-06 | 株式会社メガチップス | 移動体制御装置、ランドマーク、および、プログラム |
US10248131B2 (en) | 2015-03-23 | 2019-04-02 | Megachips Corporation | Moving object controller, landmark, and moving object control method |
US10902610B2 (en) | 2015-03-23 | 2021-01-26 | Megachips Corporation | Moving object controller, landmark, and moving object control method |
WO2020003753A1 (ja) * | 2018-06-29 | 2020-01-02 | パナソニックIpマネジメント株式会社 | 宅配ボックスの寸法測定装置 |
JPWO2020003753A1 (ja) * | 2018-06-29 | 2021-05-13 | パナソニックIpマネジメント株式会社 | 宅配ボックスの寸法測定装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11408728B2 (en) | Registration of three-dimensional coordinates measured on interior and exterior portions of an object | |
US10162057B2 (en) | Portable distance measuring device and method for capturing relative positions | |
JP4971344B2 (ja) | 測量方法及び測量装置 | |
JP4914038B2 (ja) | 情報処理方法および装置 | |
JPH10109290A (ja) | 位置検出装置及び方法並びにロボツト装置 | |
JP4914019B2 (ja) | 位置姿勢計測方法及び装置 | |
US7242818B2 (en) | Position and orientation sensing with a projector | |
JP5316118B2 (ja) | 3次元視覚センサ | |
US7280687B2 (en) | Device for detecting position/orientation of object | |
CN102645180B (zh) | 全方向图像测量仪器 | |
JP6025386B2 (ja) | 画像計測装置、画像計測方法及び画像計測プログラム | |
US20100188510A1 (en) | Landmark for position determination of mobile robot and apparatus and method using it | |
JP2018515774A (ja) | 電動移動プラットフォーム上のロボットアームに取外し可能に連結された三次元測定デバイス | |
JP5016399B2 (ja) | 地図情報作成装置及びそれを備えた自律移動装置 | |
TWI708591B (zh) | 骨科手術之三維即時定位方法 | |
JP2001148025A (ja) | 位置検出装置及びその方法、平面姿勢検出装置及びその方法 | |
CN114224489B (zh) | 用于手术机器人的轨迹跟踪系统及利用该系统的跟踪方法 | |
JP2005351886A (ja) | 位置姿勢計測方法および情報処理装置 | |
CN103968787B (zh) | 用于对结构的元件的位置进行测量的测量方法和系统 | |
CN112074706A (zh) | 精确定位系统 | |
CN112998856A (zh) | 立体标记装置及骨科手术的三维实时定位方法 | |
CN207600393U (zh) | 图案投射模组、三维信息获取系统及处理装置 | |
TWI788253B (zh) | 適應性移動操作設備及方法 | |
JP2003023562A (ja) | 画像撮影システムおよびカメラシステム | |
JPH0545117A (ja) | 光学式3次元位置計測方法 |