JPH10177414A - 天井画像による走行状態認識装置 - Google Patents
天井画像による走行状態認識装置Info
- Publication number
- JPH10177414A JPH10177414A JP8352610A JP35261096A JPH10177414A JP H10177414 A JPH10177414 A JP H10177414A JP 8352610 A JP8352610 A JP 8352610A JP 35261096 A JP35261096 A JP 35261096A JP H10177414 A JPH10177414 A JP H10177414A
- Authority
- JP
- Japan
- Prior art keywords
- traveling
- ceiling
- image
- moving body
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 10
- 230000004069 differentiation Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Abstract
(57)【要約】
【課題】 構内を走行する移動体に設置したカメラで天
井を撮影した画像を処理して、移動体の走行状態を認識
し、移動体の自律走行を行なう。 【解決手段】 天井を向けて移動体に取付けられたカメ
ラ部1からの映像信号を、A/D変換部3でデジタルの
画像データに変換して、画像メモリ部4に格納する。画
像処理部5で画像データを処理して、走路と平行な直線
成分を検出することにより、移動体の進行方向、走路上
の位置を認識する。また、天井に設置したマークを検出
することにより、移動体の絶対位置を認識する。画像処
理部5の認識結果を結果伝送部6で移動体全体制御部7
に伝送し、進行方向、位置などの走行状態データをもと
に移動体の走行制御を行なう。画像センサ全体は、画像
センサ全体制御部2で制御する。通路の天井の配管や目
地から、移動体が進行すべき方向の直線成分を検出し、
直線成分から移動体の進行方向と通路横幅方向の位置を
認識し、天井のマークを検出して現在地を認識すること
により、移動体の自律走行ができる。
井を撮影した画像を処理して、移動体の走行状態を認識
し、移動体の自律走行を行なう。 【解決手段】 天井を向けて移動体に取付けられたカメ
ラ部1からの映像信号を、A/D変換部3でデジタルの
画像データに変換して、画像メモリ部4に格納する。画
像処理部5で画像データを処理して、走路と平行な直線
成分を検出することにより、移動体の進行方向、走路上
の位置を認識する。また、天井に設置したマークを検出
することにより、移動体の絶対位置を認識する。画像処
理部5の認識結果を結果伝送部6で移動体全体制御部7
に伝送し、進行方向、位置などの走行状態データをもと
に移動体の走行制御を行なう。画像センサ全体は、画像
センサ全体制御部2で制御する。通路の天井の配管や目
地から、移動体が進行すべき方向の直線成分を検出し、
直線成分から移動体の進行方向と通路横幅方向の位置を
認識し、天井のマークを検出して現在地を認識すること
により、移動体の自律走行ができる。
Description
【0001】
【発明の属する技術分野】本発明は、移動ロボットなど
構内を走行する移動体に設置したカメラより得られる画
像データを処理して走行制御に必要な情報を得て、方向
や位置を認識する走行状態認識装置に関し、特に、天井
の配管などの方向を極座標変換を用いて検出して、走行
状態を高速、高精度に認識できる走行状態認識装置に関
する。
構内を走行する移動体に設置したカメラより得られる画
像データを処理して走行制御に必要な情報を得て、方向
や位置を認識する走行状態認識装置に関し、特に、天井
の配管などの方向を極座標変換を用いて検出して、走行
状態を高速、高精度に認識できる走行状態認識装置に関
する。
【0002】
【従来の技術】従来、移動体の視覚に基づく走行制御と
して、農業機械学会誌第54巻2号(1992)において述べら
れているように、沿目標移動、向目標移動、走行者追尾
等がある。沿目標移動は、床面の白線等のガイドライン
をサインパターン(目印)とし、サインパターンが画面
の一定位置にくるように走行を制御する。向目標移動
は、画面に存在する建物の入り口などをサインパターン
とし、それに向かうように走行を制御する。走行者追尾
は、ロボットの進行方向に進む歩行者をサインパターン
にして移動する定型行動である。
して、農業機械学会誌第54巻2号(1992)において述べら
れているように、沿目標移動、向目標移動、走行者追尾
等がある。沿目標移動は、床面の白線等のガイドライン
をサインパターン(目印)とし、サインパターンが画面
の一定位置にくるように走行を制御する。向目標移動
は、画面に存在する建物の入り口などをサインパターン
とし、それに向かうように走行を制御する。走行者追尾
は、ロボットの進行方向に進む歩行者をサインパターン
にして移動する定型行動である。
【0003】また、画像処理による移動体の走行制御に
おいて、移動体の走行方向と平行な直線の交点より求め
られる画像の無限遠点(=消失点)を検出し、この無限
遠点に基づいて走行方向を認識・制御する手法が数多く
提案されている。
おいて、移動体の走行方向と平行な直線の交点より求め
られる画像の無限遠点(=消失点)を検出し、この無限
遠点に基づいて走行方向を認識・制御する手法が数多く
提案されている。
【0004】そうした方法のひとつでは、画像を走査す
ることにより、白線など、移動体の走行方向に平行する
直線を検出し、その直線の交点により無限遠点を検出し
ている。また、他の方法では、Hough変換により、移動
体の進行方向と平行な直線を検出し、その直線の交点に
より無限遠点を検出している。
ることにより、白線など、移動体の走行方向に平行する
直線を検出し、その直線の交点により無限遠点を検出し
ている。また、他の方法では、Hough変換により、移動
体の進行方向と平行な直線を検出し、その直線の交点に
より無限遠点を検出している。
【0005】以上の手法は、移動体の進行方向に向けて
カメラを設置した場合である。このような場合、カメラ
の前面に人などの障害物が存在する場合、検出すべき対
象が隠されてしまい認識不可能になる場合が多い。
カメラを設置した場合である。このような場合、カメラ
の前面に人などの障害物が存在する場合、検出すべき対
象が隠されてしまい認識不可能になる場合が多い。
【0006】また、本発明と同様にカメラを天井に向け
て設置した場合の走行制御法も報告されている。特開平
6-4127号において、天井蛍光燈を利用した移動体走行制
御がそれである。天井面を撮影した像について、各画素
のグレイレベルによって重み付けをしながら、撮影した
画像の形状を最小二乗法により直線で近似する。その直
線の傾きから移動体の進行方向が得られ、像の重心から
蛍光燈の位置を認識するというものである。
て設置した場合の走行制御法も報告されている。特開平
6-4127号において、天井蛍光燈を利用した移動体走行制
御がそれである。天井面を撮影した像について、各画素
のグレイレベルによって重み付けをしながら、撮影した
画像の形状を最小二乗法により直線で近似する。その直
線の傾きから移動体の進行方向が得られ、像の重心から
蛍光燈の位置を認識するというものである。
【0007】天井に向けてカメラを設置する場合、障害
物のため認識不可能になる場合は極めて少なく、天井の
既存の対象物を検出することによって走行状態を認識す
ることができるという利点がある。また、マークを設置
し、それを検出することによって、移動体の走行地点も
認識することができる。
物のため認識不可能になる場合は極めて少なく、天井の
既存の対象物を検出することによって走行状態を認識す
ることができるという利点がある。また、マークを設置
し、それを検出することによって、移動体の走行地点も
認識することができる。
【0008】
【発明が解決しようとする課題】カメラを移動体の進行
方向に向けて設置する場合、カメラ前方に存在する、人
などの障害物の影響を避けることは、移動体が障害物の
無い環境を走行する以外は困難であった。また、カメラ
を天井に向けて設置し、蛍光燈を利用することにより、
移動体の走行状態を認識する方法では、蛍光燈の連続性
や形状によって、常に高精度な走行状態を認識すること
は困難である。また、直線検出の手法としてHough変換
や最小二乗法が用いられることが多いが、Hough変換は
精度は高いが、計算数が多いため処理時間がかかり、最
小二乗法は、計算量は少ないがノイズに影響されるとい
う問題点があった。また、移動体の走行距離は車輪に設
置したエンコーダによって認識していたが、走行距離が
長い場合や、車輪の磨耗、車輪に付着したゴミなどによ
って、誤差を生じることがあった。
方向に向けて設置する場合、カメラ前方に存在する、人
などの障害物の影響を避けることは、移動体が障害物の
無い環境を走行する以外は困難であった。また、カメラ
を天井に向けて設置し、蛍光燈を利用することにより、
移動体の走行状態を認識する方法では、蛍光燈の連続性
や形状によって、常に高精度な走行状態を認識すること
は困難である。また、直線検出の手法としてHough変換
や最小二乗法が用いられることが多いが、Hough変換は
精度は高いが、計算数が多いため処理時間がかかり、最
小二乗法は、計算量は少ないがノイズに影響されるとい
う問題点があった。また、移動体の走行距離は車輪に設
置したエンコーダによって認識していたが、走行距離が
長い場合や、車輪の磨耗、車輪に付着したゴミなどによ
って、誤差を生じることがあった。
【0009】
【課題を解決するための手段】そこで、本発明の走行状
態認識装置では、カメラを天井に向けて設置し、天井の
配管や目地など移動体が進行すべき方向と平行な直線成
分上の数点を、前記直線成分の特徴量(幅、微分値)を
もとにプロジェクション処理ならびに微分処理によって
検出し、さらにこれらの点を極座標変換し、それらの中
間値を求めることにより直線成分を検出する。本発明に
よるとノイズの影響を除去することができ、Hough変換
に匹敵する高精度な直線成分が高速に検出でき、高精度
な走行状態を認識することができる。
態認識装置では、カメラを天井に向けて設置し、天井の
配管や目地など移動体が進行すべき方向と平行な直線成
分上の数点を、前記直線成分の特徴量(幅、微分値)を
もとにプロジェクション処理ならびに微分処理によって
検出し、さらにこれらの点を極座標変換し、それらの中
間値を求めることにより直線成分を検出する。本発明に
よるとノイズの影響を除去することができ、Hough変換
に匹敵する高精度な直線成分が高速に検出でき、高精度
な走行状態を認識することができる。
【0010】また、車輪エンコーダの出力をもとに、マ
ーク設置地点付近でマーク検出処理を施し、マークを検
出することによって、移動体が走行している地点を正確
に認識することができる。
ーク設置地点付近でマーク検出処理を施し、マークを検
出することによって、移動体が走行している地点を正確
に認識することができる。
【0011】
【発明の実施の形態】本発明の請求項1に記載の発明
は、移動体に上向きに設置されたカメラの映像を画像処
理して、前記移動体の進行方向および走路上の位置を求
める走行状態認識装置において、カメラの映像信号をデ
ジタルの画像データに変換するA/D変換手段と、デジ
タル信号に変換された前記画像データを格納する画像メ
モリと、前記画像メモリに格納された画像データの処理
および計算を行なって走行状態データを得る画像処理手
段を備え、前記画像処理手段が、移動体の進行すべき方
向に平行な直線成分を画像データより極座標変換を用い
て検出する手段と、前記直線成分を用いて移動体の進行
方向を認識する手段とを具備するものであり、画像デー
タのプロジェクション処理、微分処理、ノイズ除去処理
によって、移動体の進行すべき方向と平行な直線成分を
検出することにより、移動体の進行方向を高精度に認識
することができるという作用を有する。
は、移動体に上向きに設置されたカメラの映像を画像処
理して、前記移動体の進行方向および走路上の位置を求
める走行状態認識装置において、カメラの映像信号をデ
ジタルの画像データに変換するA/D変換手段と、デジ
タル信号に変換された前記画像データを格納する画像メ
モリと、前記画像メモリに格納された画像データの処理
および計算を行なって走行状態データを得る画像処理手
段を備え、前記画像処理手段が、移動体の進行すべき方
向に平行な直線成分を画像データより極座標変換を用い
て検出する手段と、前記直線成分を用いて移動体の進行
方向を認識する手段とを具備するものであり、画像デー
タのプロジェクション処理、微分処理、ノイズ除去処理
によって、移動体の進行すべき方向と平行な直線成分を
検出することにより、移動体の進行方向を高精度に認識
することができるという作用を有する。
【0012】請求項2に記載の発明は、前記画像処理手
段が、前記直線成分を用いて移動体の走路上の横方向の
位置を認識する手段を具備するものであり、通路中央の
配管などから移動体までの距離と方向を求めて、移動体
の通路横幅方向の位置を高精度で認識できるという作用
を有するものである。
段が、前記直線成分を用いて移動体の走路上の横方向の
位置を認識する手段を具備するものであり、通路中央の
配管などから移動体までの距離と方向を求めて、移動体
の通路横幅方向の位置を高精度で認識できるという作用
を有するものである。
【0013】請求項3に記載の発明は、前記画像処理手
段が、天井に設置したマークを検出する手段と、前記マ
ークを用いて移動体の現在地を認識する手段とを具備す
るものであり、天井に設置したマークを検出することに
よって、移動体が走行している地点を正確に認識するこ
とができるという作用を有するものである。
段が、天井に設置したマークを検出する手段と、前記マ
ークを用いて移動体の現在地を認識する手段とを具備す
るものであり、天井に設置したマークを検出することに
よって、移動体が走行している地点を正確に認識するこ
とができるという作用を有するものである。
【0014】以下、本発明の実施の形態について、図面
を用いて説明する。
を用いて説明する。
【0015】(第1の実施の形態)本発明の第1の実施
の形態は、天井の配管の方向を検出して移動体の進行方
向を認識する走行状態認識装置である。
の形態は、天井の配管の方向を検出して移動体の進行方
向を認識する走行状態認識装置である。
【0016】第1の実施形態の走行状態認識装置は、図
1に示すように、上向きに天井を向くように移動体に取
付けられたカメラ部1と、カメラ部1からの映像信号を
デジタルの画像データに変換するA/D変換部3と、画
像データを格納する画像メモリ部4と、画像メモリ部4
に格納された画像データから移動体の進行方向、走路上
の位置、およびマークを検出し移動体の現在地を認識す
る画像処理部5と、画像処理部5の認識結果である走行
状態データを伝送する結果伝送部6と、伝送された走行
状態データをもとに移動体の走行制御を行なったり、移
動体全体の動作を制御する移動体全体制御部7と、画像
センサ全体の動作を制御する画像センサ全体制御部2と
を備えている。
1に示すように、上向きに天井を向くように移動体に取
付けられたカメラ部1と、カメラ部1からの映像信号を
デジタルの画像データに変換するA/D変換部3と、画
像データを格納する画像メモリ部4と、画像メモリ部4
に格納された画像データから移動体の進行方向、走路上
の位置、およびマークを検出し移動体の現在地を認識す
る画像処理部5と、画像処理部5の認識結果である走行
状態データを伝送する結果伝送部6と、伝送された走行
状態データをもとに移動体の走行制御を行なったり、移
動体全体の動作を制御する移動体全体制御部7と、画像
センサ全体の動作を制御する画像センサ全体制御部2と
を備えている。
【0017】図2は、移動体に、この走行状態認識装置
を取付けた状態を示している。8はカメラ部1であり、
9は、A/D変換部3と、画像メモリ部4と、画像処理
部5と、結果伝送部6と、走行制御部7および全体制御
部2を収めた走行制御装置である。
を取付けた状態を示している。8はカメラ部1であり、
9は、A/D変換部3と、画像メモリ部4と、画像処理
部5と、結果伝送部6と、走行制御部7および全体制御
部2を収めた走行制御装置である。
【0018】次に、画像処理部5の動作について説明す
る。天井に配管が取付けられている通路を移動体が走行
する時、移動体に設置されたカメラより得られる画像の
一例は、図3のようになる。この画像より配管を検出
し、移動体の位置と方向を算出する。配管が複数ある場
合に、どの配管を選択して検出対象とするかは、配管の
配列状態(例えば3本の配管のうち中央の配管を選択す
る)や配管の太さ(例えば最も太い配管を選択する)に
よって決定すればよい。
る。天井に配管が取付けられている通路を移動体が走行
する時、移動体に設置されたカメラより得られる画像の
一例は、図3のようになる。この画像より配管を検出
し、移動体の位置と方向を算出する。配管が複数ある場
合に、どの配管を選択して検出対象とするかは、配管の
配列状態(例えば3本の配管のうち中央の配管を選択す
る)や配管の太さ(例えば最も太い配管を選択する)に
よって決定すればよい。
【0019】図3のように、天井の中央に太さの異なる
配管10がある場合、この配管10を検出することによっ
て、容易に走行状態を認識できる。ここでは、図3のよ
うな画像データより配管を検出し、走行状態を認識する
方法について述べる。
配管10がある場合、この配管10を検出することによっ
て、容易に走行状態を認識できる。ここでは、図3のよ
うな画像データより配管を検出し、走行状態を認識する
方法について述べる。
【0020】図4は、本発明で用いる座標系である。12
(x,y)は、カメラの中心を原点とするカメラ座標
系、13(X,Y)は、通路の中央を原点とし、通路と垂
直に交わる軸をX軸、通路と平行な軸をY軸とする相対
座標系である。14は、移動体の進行方向θで、相対座標
系のY軸とのずれ角で表され、右回りを+、左回りを−
とする。
(x,y)は、カメラの中心を原点とするカメラ座標
系、13(X,Y)は、通路の中央を原点とし、通路と垂
直に交わる軸をX軸、通路と平行な軸をY軸とする相対
座標系である。14は、移動体の進行方向θで、相対座標
系のY軸とのずれ角で表され、右回りを+、左回りを−
とする。
【0021】まず、配管の検出を行なう。図5は、プロ
ジェクション処理を行なうために破線で示すような小領
域に分割した画像データである。図5の15に示すように
処理座標系(xi,yi)を設定する。処理座標系
(xi,yi)は、前回検出した配管の方向に合わせて設
定すれば、ほぼ配管の方向と一致した座標系が設定でき
る。前回の配管の方向が不明であれば、移動体の進行方
向に合わせて座標系を設定すればよい。この小領域ごと
にyi方向に画像データを足し込むと図6のようにな
る。図6のデータに、1次元sobelオペレータなどの微
分オペレータをかけると、図7のようになる。ここで、
目的のエッジペアの幅、微分値(暗→明、明→暗、大き
さ)などからエッジが検出でき、エッジの中点を配管の
中点とする。この操作を各小領域で行なって検出した配
管の中点を第8図に示す。
ジェクション処理を行なうために破線で示すような小領
域に分割した画像データである。図5の15に示すように
処理座標系(xi,yi)を設定する。処理座標系
(xi,yi)は、前回検出した配管の方向に合わせて設
定すれば、ほぼ配管の方向と一致した座標系が設定でき
る。前回の配管の方向が不明であれば、移動体の進行方
向に合わせて座標系を設定すればよい。この小領域ごと
にyi方向に画像データを足し込むと図6のようにな
る。図6のデータに、1次元sobelオペレータなどの微
分オペレータをかけると、図7のようになる。ここで、
目的のエッジペアの幅、微分値(暗→明、明→暗、大き
さ)などからエッジが検出でき、エッジの中点を配管の
中点とする。この操作を各小領域で行なって検出した配
管の中点を第8図に示す。
【0022】次に、配管の傾きを算出する。検出した配
管の全ての中点の任意の2点pi(xi,yi)、pj(xj,y
j)を結ぶ線分がx軸となす角度αijを以下の計算式 αij=tan-1((yi−yj)/(xi−xj)) (xi≠xjのとき)、または αij=90° (xi=xjのとき) により計算し、0°〜179°の度数を配列に格納する。配
管の中点がn個の場合、2点間の線分の傾斜角度の計算
回数は、n(n−1)/2回となる。これらの計算値{αij}
のうち、中間値(β=αmed)を選択することにより、
図9のp3、p8のようなノイズデータの影響を避けるこ
とができる。
管の全ての中点の任意の2点pi(xi,yi)、pj(xj,y
j)を結ぶ線分がx軸となす角度αijを以下の計算式 αij=tan-1((yi−yj)/(xi−xj)) (xi≠xjのとき)、または αij=90° (xi=xjのとき) により計算し、0°〜179°の度数を配列に格納する。配
管の中点がn個の場合、2点間の線分の傾斜角度の計算
回数は、n(n−1)/2回となる。これらの計算値{αij}
のうち、中間値(β=αmed)を選択することにより、
図9のp3、p8のようなノイズデータの影響を避けるこ
とができる。
【0023】次に、配管の式を求める。図10に示すよう
に、極座標変換により、配管の各中点pi(xi,yi)を通
る傾きβの直線と原点との距離 ρi=xi・cosθ+yi・sinθ (ただし、θ=90°−
β) を求め、{ρi}の中間値ρmedをρとすると、配管の式
は、 ρ=x・cosθ+y・sinθ となる。
に、極座標変換により、配管の各中点pi(xi,yi)を通
る傾きβの直線と原点との距離 ρi=xi・cosθ+yi・sinθ (ただし、θ=90°−
β) を求め、{ρi}の中間値ρmedをρとすると、配管の式
は、 ρ=x・cosθ+y・sinθ となる。
【0024】このようにして、移動体の進行方向とのず
れ角は、右回りを正とすると、図11より、θで与えられ
る。
れ角は、右回りを正とすると、図11より、θで与えられ
る。
【0025】(第2の実施の形態)本発明の第2の実施
の形態は、天井の配管から移動体の通路の横幅方向の位
置を検出する走行状態認識装置である。
の形態は、天井の配管から移動体の通路の横幅方向の位
置を検出する走行状態認識装置である。
【0026】図12、図13に従って、移動体の通路横幅方
向の位置を認識する方法について述べる。前述した配管
検出において、通路中央の配管の式が、 ρ=x・cosθ+y・sinθ であるとき、図12より、画像の中心(x0,y0)を通
り、配管すなわち通路に平行な直線 ρ0=x・cosθ+y・sinθ を想定することによって移動体の横方向位置を計算す
る。ここで移動体の横方向位置は、図4で示した相対座
標系(X,Y)における、移動体に設置したカメラの中
心のX座標である。
向の位置を認識する方法について述べる。前述した配管
検出において、通路中央の配管の式が、 ρ=x・cosθ+y・sinθ であるとき、図12より、画像の中心(x0,y0)を通
り、配管すなわち通路に平行な直線 ρ0=x・cosθ+y・sinθ を想定することによって移動体の横方向位置を計算す
る。ここで移動体の横方向位置は、図4で示した相対座
標系(X,Y)における、移動体に設置したカメラの中
心のX座標である。
【0027】まず、図12のdを次式 d=ρ−ρ0 で求める。dを移動体の(x,y)座標の成分(d・cos
θ,d・sinθ)に分解し、図13に示す実空間の成分 (Dx,Dy)=(Ax・d・cosθ,Ay・d・sinθ) (ここで、Ax,Ayは、天井の高さやレンズの焦点距離
などにより決まる、画面上の距離と実際の距離との比を
表わす係数である。)に変換する。これを次式 D=√(Dx 2+Dy 2) (d<0) D=−√(Dx 2+Dy 2) (d≧0) に代入することにより、移動体の実空間の座標X=D、
すなわち通路の中心からの距離を求めることができる。
配管が通路の中央にない場合は、配管の位置を予め記憶
させておいて補正すればよい。
θ,d・sinθ)に分解し、図13に示す実空間の成分 (Dx,Dy)=(Ax・d・cosθ,Ay・d・sinθ) (ここで、Ax,Ayは、天井の高さやレンズの焦点距離
などにより決まる、画面上の距離と実際の距離との比を
表わす係数である。)に変換する。これを次式 D=√(Dx 2+Dy 2) (d<0) D=−√(Dx 2+Dy 2) (d≧0) に代入することにより、移動体の実空間の座標X=D、
すなわち通路の中心からの距離を求めることができる。
配管が通路の中央にない場合は、配管の位置を予め記憶
させておいて補正すればよい。
【0028】(第3の実施の形態)本発明の第3の実施
の形態は、天井に設置されたマークから移動体の位置を
検出する走行状態認識装置である。
の形態は、天井に設置されたマークから移動体の位置を
検出する走行状態認識装置である。
【0029】図14、図15に従って、天井に設置したマー
クより、移動体の現在地を認識する方法について述べ
る。移動体の車輪に設置したエンコーダより、移動体の
走行距離が分かる。走行距離に基づいて、目的地点の天
井に付けたマークの検出地点を認識することができる。
移動体は、エンコーダの出力をもとに、マーク検出地点
で停止し、移動体全体制御部7より、画像センサ全体制
御部2に、マーク検出処理要求を送信する。それを受信
した画像センサ全体制御部2は、マーク検出処理を開始
する。図14の16に、マークの一例を示す。マークは、移
動体が回転した時にも検出が容易なように上下左右対象
なものとする。
クより、移動体の現在地を認識する方法について述べ
る。移動体の車輪に設置したエンコーダより、移動体の
走行距離が分かる。走行距離に基づいて、目的地点の天
井に付けたマークの検出地点を認識することができる。
移動体は、エンコーダの出力をもとに、マーク検出地点
で停止し、移動体全体制御部7より、画像センサ全体制
御部2に、マーク検出処理要求を送信する。それを受信
した画像センサ全体制御部2は、マーク検出処理を開始
する。図14の16に、マークの一例を示す。マークは、移
動体が回転した時にも検出が容易なように上下左右対象
なものとする。
【0030】マークは、あらかじめモデルとしてメモリ
に登録されていて、画像データから抜き出したマーク
を、検出すべきモデルと照合して合致した場合、マーク
の位置を算出する。マークの照合方法は、テンプレート
マッチングおよび正規化相関など既存の処理を用いれば
よい。
に登録されていて、画像データから抜き出したマーク
を、検出すべきモデルと照合して合致した場合、マーク
の位置を算出する。マークの照合方法は、テンプレート
マッチングおよび正規化相関など既存の処理を用いれば
よい。
【0031】図15に示すように、画像データから抜き出
したマークの座標を(xm,ym)とし、カメラレンズ中
央とマークとの水平距離をXm、垂直距離をYmとする
と、移動体とマークの位置関係は、次式 Xm=Ax・xm、Ym=Ay・ym (ただし、Ax,Ay:水
平、垂直方向の係数) のようになる。Xm、Ymおよび、ずれ角θを用いること
によって、移動体の現在地点を認識することができる。
マークの(X,Y)座標を(X0,Y0)とすると、移動
体の(X,Y)座標は、 X=−Xm・cosθ−Ym・sinθ+X0、 Y=Xm・sinθ−Ym・cosθ+Y0 となる。この情報は、右折、左折、回転、待機、荷役な
ど、移動体の動作開始地点であることの指示として応用
することができる。複数種類のマークを使用すれば、マ
ークに応じた動作をさせることができる。所定距離ごと
にマークを設けておけば、車輪エンコーダの誤差を修正
することができ、移動体の走行位置を正確に把握するこ
とができる。
したマークの座標を(xm,ym)とし、カメラレンズ中
央とマークとの水平距離をXm、垂直距離をYmとする
と、移動体とマークの位置関係は、次式 Xm=Ax・xm、Ym=Ay・ym (ただし、Ax,Ay:水
平、垂直方向の係数) のようになる。Xm、Ymおよび、ずれ角θを用いること
によって、移動体の現在地点を認識することができる。
マークの(X,Y)座標を(X0,Y0)とすると、移動
体の(X,Y)座標は、 X=−Xm・cosθ−Ym・sinθ+X0、 Y=Xm・sinθ−Ym・cosθ+Y0 となる。この情報は、右折、左折、回転、待機、荷役な
ど、移動体の動作開始地点であることの指示として応用
することができる。複数種類のマークを使用すれば、マ
ークに応じた動作をさせることができる。所定距離ごと
にマークを設けておけば、車輪エンコーダの誤差を修正
することができ、移動体の走行位置を正確に把握するこ
とができる。
【0032】
【発明の効果】以上の説明から明らかなように、本発明
の天井画像による走行状態認識装置は、天井の配管など
から、移動体が進行すべき方向と平行な直線成分を検出
することにより、移動体の進行方向のずれ角、通路上の
横方向位置を認識することができ、さらに、天井に設置
されたマークを検出することによって、移動体の正確な
位置や、右左折や待機などの動作を開始する地点を容易
に認識することができる。
の天井画像による走行状態認識装置は、天井の配管など
から、移動体が進行すべき方向と平行な直線成分を検出
することにより、移動体の進行方向のずれ角、通路上の
横方向位置を認識することができ、さらに、天井に設置
されたマークを検出することによって、移動体の正確な
位置や、右左折や待機などの動作を開始する地点を容易
に認識することができる。
【0033】また、プロジェクション処理、微分処理、
極座標変換処理、中間値選択処理により、天井画像から
直線成分を検出するので、認識処理の計算量が少なく高
速であり、ノイズが除去されるので高精度の認識ができ
る。
極座標変換処理、中間値選択処理により、天井画像から
直線成分を検出するので、認識処理の計算量が少なく高
速であり、ノイズが除去されるので高精度の認識ができ
る。
【0034】従来の、走行路上に磁気テープなどを貼っ
て移動体を誘導する手法と比較すると、天井の配管など
既存物を利用することができるので、誘導のための磁気
テープなどを設置する必要がなく、設備が少なくてすむ
という利点がある。また、移動体以外の設備のメンテナ
ンスがほとんど必要ないという利点がある。
て移動体を誘導する手法と比較すると、天井の配管など
既存物を利用することができるので、誘導のための磁気
テープなどを設置する必要がなく、設備が少なくてすむ
という利点がある。また、移動体以外の設備のメンテナ
ンスがほとんど必要ないという利点がある。
【図1】本発明の第1、2、3の実施形態の天井画像に
よる走行状態認識装置の構成を示すブロック図、
よる走行状態認識装置の構成を示すブロック図、
【図2】第1、2、3の実施形態の天井画像による走行
状態認識装置の取付例の図、
状態認識装置の取付例の図、
【図3】第1、2の実施形態の移動体に設置されたカメ
ラより得られる画像の一例を示す図、
ラより得られる画像の一例を示す図、
【図4】第1、2、3の実施形態の天井画像による走行
状態認識装置で用いる座標系を示す図、
状態認識装置で用いる座標系を示す図、
【図5】第1の実施形態のプロジェクション処理説明用
の画像データの図、
の画像データの図、
【図6】第1の実施形態のプロジェクション処理説明
図、
図、
【図7】第1の実施形態の微分処理説明図、
【図8】第1の実施形態の配管検出説明図、
【図9】第1の実施形態の配管検出説明図、
【図10】第1の実施形態の配管検出説明図、
【図11】第1の実施形態のずれ角算出説明図、
【図12】第2の実施形態の位置算出説明用の画像面の
図、
図、
【図13】第2の実施形態の位置算出説明用の鳥瞰図、
【図14】第3の実施形態のマークの一例の図、
【図15】第3の実施形態のマークの位置算出説明図で
ある。
ある。
1 カメラ部 2 画像センサ全体制御部 3 A/D変換部 4 画像メモリ部 5 画像処理部 6 結果伝送部 7 移動体全体制御部 8 カメラ部 9 走行制御装置 10 配管 11 配管 12 カメラ座標系 13 相対座標系 14 移動体の進行方向θ 15 処理座標系
Claims (3)
- 【請求項1】 移動体に上向きに設置されたカメラの映
像を画像処理して、前記移動体の進行方向および走路上
の位置を求める走行状態認識装置において、カメラの映
像信号をデジタルの画像データに変換するA/D変換手
段と、デジタル信号に変換された前記画像データを格納
する画像メモリと、前記画像メモリに格納された画像デ
ータの処理および計算を行なって走行状態データを得る
画像処理手段を備え、前記画像処理手段が、移動体の進
行すべき方向に平行な直線成分を前記画像データから極
座標変換を用いて検出する手段と、前記直線成分を用い
て移動体の進行方向を認識する手段とを具備することを
特徴とする天井画像による走行状態認識装置。 - 【請求項2】 前記画像処理手段が、前記直線成分を用
いて移動体の走路上の横幅方向の位置を認識する手段を
具備することを特徴とする請求項1記載の天井画像によ
る走行状態認識装置。 - 【請求項3】 前記画像処理手段が、天井に設置したマ
ークを検出する手段と、前記マークを用いて移動体の現
在地を認識する手段とを具備することを特徴とする請求
項1記載の天井画像による走行状態認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8352610A JPH10177414A (ja) | 1996-12-16 | 1996-12-16 | 天井画像による走行状態認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8352610A JPH10177414A (ja) | 1996-12-16 | 1996-12-16 | 天井画像による走行状態認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10177414A true JPH10177414A (ja) | 1998-06-30 |
Family
ID=18425227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8352610A Pending JPH10177414A (ja) | 1996-12-16 | 1996-12-16 | 天井画像による走行状態認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10177414A (ja) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2369511A (en) * | 2000-11-17 | 2002-05-29 | Samsung Kwangju Electronics Co | Mobile robot location and control |
GB2392255A (en) * | 2002-07-26 | 2004-02-25 | Samsung Kwangju Electronics Co | A robot cleaner |
KR100784125B1 (ko) | 2006-09-28 | 2007-12-12 | 전자부품연구원 | 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법 |
EP1898291A1 (en) * | 2005-01-25 | 2008-03-12 | Samsung Electronics Co., Ltd. | Apparatus and method for estimating location of mobile body and generating map of mobile body environment using upper image of mobile body environment, and computer readable recording medium storing computer program controlling the apparatus |
JP2009098743A (ja) * | 2007-10-12 | 2009-05-07 | Sanyo Electric Co Ltd | 点検システム、移動体、操作装置、及び点検プログラム |
JP2009211666A (ja) * | 2008-02-29 | 2009-09-17 | Ind Technol Res Inst | 区域識別システム |
US7706917B1 (en) | 2004-07-07 | 2010-04-27 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US8239992B2 (en) | 2007-05-09 | 2012-08-14 | Irobot Corporation | Compact autonomous coverage robot |
US8253368B2 (en) | 2004-01-28 | 2012-08-28 | Irobot Corporation | Debris sensor for cleaning apparatus |
US8368339B2 (en) | 2001-01-24 | 2013-02-05 | Irobot Corporation | Robot confinement |
US8374721B2 (en) | 2005-12-02 | 2013-02-12 | Irobot Corporation | Robot system |
US8380350B2 (en) | 2005-12-02 | 2013-02-19 | Irobot Corporation | Autonomous coverage robot navigation system |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
US8382906B2 (en) | 2005-02-18 | 2013-02-26 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US8390251B2 (en) | 2004-01-21 | 2013-03-05 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US8387193B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US8396592B2 (en) | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8417383B2 (en) | 2006-05-31 | 2013-04-09 | Irobot Corporation | Detecting robot stasis |
US8418303B2 (en) | 2006-05-19 | 2013-04-16 | Irobot Corporation | Cleaning robot roller processing |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US8838274B2 (en) | 2001-06-12 | 2014-09-16 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8930023B2 (en) | 2009-11-06 | 2015-01-06 | Irobot Corporation | Localization by learning of wave-signal distributions |
US8950038B2 (en) | 2005-12-02 | 2015-02-10 | Irobot Corporation | Modular robot |
US8972052B2 (en) | 2004-07-07 | 2015-03-03 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
US8978196B2 (en) | 2005-12-02 | 2015-03-17 | Irobot Corporation | Coverage robot mobility |
US9008835B2 (en) | 2004-06-24 | 2015-04-14 | Irobot Corporation | Remote control scheduler and method for autonomous robotic device |
US9038233B2 (en) | 2001-01-24 | 2015-05-26 | Irobot Corporation | Autonomous floor-cleaning robot |
US9128486B2 (en) | 2002-01-24 | 2015-09-08 | Irobot Corporation | Navigational control system for a robotic device |
US9360300B2 (en) | 2004-03-29 | 2016-06-07 | Irobot Corporation | Methods and apparatus for position estimation using reflected light sources |
US10314449B2 (en) | 2010-02-16 | 2019-06-11 | Irobot Corporation | Vacuum brush |
US10470629B2 (en) | 2005-02-18 | 2019-11-12 | Irobot Corporation | Autonomous surface cleaning robot for dry cleaning |
JP2020187664A (ja) * | 2019-05-16 | 2020-11-19 | 株式会社日立製作所 | 移動体 |
-
1996
- 1996-12-16 JP JP8352610A patent/JPH10177414A/ja active Pending
Cited By (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US9446521B2 (en) | 2000-01-24 | 2016-09-20 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US9144361B2 (en) | 2000-04-04 | 2015-09-29 | Irobot Corporation | Debris sensor for cleaning apparatus |
GB2369511A (en) * | 2000-11-17 | 2002-05-29 | Samsung Kwangju Electronics Co | Mobile robot location and control |
US6496754B2 (en) | 2000-11-17 | 2002-12-17 | Samsung Kwangju Electronics Co., Ltd. | Mobile robot and course adjusting method thereof |
GB2369511B (en) * | 2000-11-17 | 2003-09-03 | Samsung Kwangju Electronics Co | Mobile robot |
US9038233B2 (en) | 2001-01-24 | 2015-05-26 | Irobot Corporation | Autonomous floor-cleaning robot |
US8368339B2 (en) | 2001-01-24 | 2013-02-05 | Irobot Corporation | Robot confinement |
US9622635B2 (en) | 2001-01-24 | 2017-04-18 | Irobot Corporation | Autonomous floor-cleaning robot |
US9582005B2 (en) | 2001-01-24 | 2017-02-28 | Irobot Corporation | Robot confinement |
US9104204B2 (en) | 2001-06-12 | 2015-08-11 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8838274B2 (en) | 2001-06-12 | 2014-09-16 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8396592B2 (en) | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US9128486B2 (en) | 2002-01-24 | 2015-09-08 | Irobot Corporation | Navigational control system for a robotic device |
GB2392255B (en) * | 2002-07-26 | 2004-12-22 | Samsung Kwangju Electronics Co | Robot cleaner,robot cleaning system,and method of controlling same |
US7480958B2 (en) | 2002-07-26 | 2009-01-27 | Samsung Gwangju Electronics Co., Ltd. | Robot cleaner, robot cleaning system and method of controlling same |
CN100343026C (zh) * | 2002-07-26 | 2007-10-17 | 三星光州电子株式会社 | 机器人清洁器和机器人清洁系统及其控制方法 |
GB2392255A (en) * | 2002-07-26 | 2004-02-25 | Samsung Kwangju Electronics Co | A robot cleaner |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
US9949608B2 (en) | 2002-09-13 | 2018-04-24 | Irobot Corporation | Navigational control system for a robotic device |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US8854001B2 (en) | 2004-01-21 | 2014-10-07 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US8390251B2 (en) | 2004-01-21 | 2013-03-05 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US9215957B2 (en) | 2004-01-21 | 2015-12-22 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
US8378613B2 (en) | 2004-01-28 | 2013-02-19 | Irobot Corporation | Debris sensor for cleaning apparatus |
US8253368B2 (en) | 2004-01-28 | 2012-08-28 | Irobot Corporation | Debris sensor for cleaning apparatus |
US9360300B2 (en) | 2004-03-29 | 2016-06-07 | Irobot Corporation | Methods and apparatus for position estimation using reflected light sources |
US9008835B2 (en) | 2004-06-24 | 2015-04-14 | Irobot Corporation | Remote control scheduler and method for autonomous robotic device |
US9486924B2 (en) | 2004-06-24 | 2016-11-08 | Irobot Corporation | Remote control scheduler and method for autonomous robotic device |
US8972052B2 (en) | 2004-07-07 | 2015-03-03 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
US7706917B1 (en) | 2004-07-07 | 2010-04-27 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US9223749B2 (en) | 2004-07-07 | 2015-12-29 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
US8874264B1 (en) | 2004-07-07 | 2014-10-28 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US9229454B1 (en) | 2004-07-07 | 2016-01-05 | Irobot Corporation | Autonomous mobile robot system |
EP1898291A1 (en) * | 2005-01-25 | 2008-03-12 | Samsung Electronics Co., Ltd. | Apparatus and method for estimating location of mobile body and generating map of mobile body environment using upper image of mobile body environment, and computer readable recording medium storing computer program controlling the apparatus |
US8831872B2 (en) | 2005-01-25 | 2014-09-09 | Samsung Electronics Co., Ltd. | Apparatus and method for estimating location of mobile body and generating map of mobile body environment using upper image of mobile body environment, and computer readable recording medium storing computer program controlling the apparatus |
US9445702B2 (en) | 2005-02-18 | 2016-09-20 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US10470629B2 (en) | 2005-02-18 | 2019-11-12 | Irobot Corporation | Autonomous surface cleaning robot for dry cleaning |
US8382906B2 (en) | 2005-02-18 | 2013-02-26 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US8392021B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US8985127B2 (en) | 2005-02-18 | 2015-03-24 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US8387193B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US8855813B2 (en) | 2005-02-18 | 2014-10-07 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US10524629B2 (en) | 2005-12-02 | 2020-01-07 | Irobot Corporation | Modular Robot |
US9599990B2 (en) | 2005-12-02 | 2017-03-21 | Irobot Corporation | Robot system |
US9144360B2 (en) | 2005-12-02 | 2015-09-29 | Irobot Corporation | Autonomous coverage robot navigation system |
US8950038B2 (en) | 2005-12-02 | 2015-02-10 | Irobot Corporation | Modular robot |
US9149170B2 (en) | 2005-12-02 | 2015-10-06 | Irobot Corporation | Navigating autonomous coverage robots |
US8374721B2 (en) | 2005-12-02 | 2013-02-12 | Irobot Corporation | Robot system |
US9392920B2 (en) | 2005-12-02 | 2016-07-19 | Irobot Corporation | Robot system |
US8978196B2 (en) | 2005-12-02 | 2015-03-17 | Irobot Corporation | Coverage robot mobility |
US8380350B2 (en) | 2005-12-02 | 2013-02-19 | Irobot Corporation | Autonomous coverage robot navigation system |
US8954192B2 (en) | 2005-12-02 | 2015-02-10 | Irobot Corporation | Navigating autonomous coverage robots |
US8418303B2 (en) | 2006-05-19 | 2013-04-16 | Irobot Corporation | Cleaning robot roller processing |
US10244915B2 (en) | 2006-05-19 | 2019-04-02 | Irobot Corporation | Coverage robots and associated cleaning bins |
US9955841B2 (en) | 2006-05-19 | 2018-05-01 | Irobot Corporation | Removing debris from cleaning robots |
US9492048B2 (en) | 2006-05-19 | 2016-11-15 | Irobot Corporation | Removing debris from cleaning robots |
US8417383B2 (en) | 2006-05-31 | 2013-04-09 | Irobot Corporation | Detecting robot stasis |
US9317038B2 (en) | 2006-05-31 | 2016-04-19 | Irobot Corporation | Detecting robot stasis |
KR100784125B1 (ko) | 2006-09-28 | 2007-12-12 | 전자부품연구원 | 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법 |
US8239992B2 (en) | 2007-05-09 | 2012-08-14 | Irobot Corporation | Compact autonomous coverage robot |
US8438695B2 (en) | 2007-05-09 | 2013-05-14 | Irobot Corporation | Autonomous coverage robot sensing |
US11072250B2 (en) | 2007-05-09 | 2021-07-27 | Irobot Corporation | Autonomous coverage robot sensing |
US10070764B2 (en) | 2007-05-09 | 2018-09-11 | Irobot Corporation | Compact autonomous coverage robot |
US9480381B2 (en) | 2007-05-09 | 2016-11-01 | Irobot Corporation | Compact autonomous coverage robot |
US10299652B2 (en) | 2007-05-09 | 2019-05-28 | Irobot Corporation | Autonomous coverage robot |
US11498438B2 (en) | 2007-05-09 | 2022-11-15 | Irobot Corporation | Autonomous coverage robot |
US8839477B2 (en) | 2007-05-09 | 2014-09-23 | Irobot Corporation | Compact autonomous coverage robot |
JP2009098743A (ja) * | 2007-10-12 | 2009-05-07 | Sanyo Electric Co Ltd | 点検システム、移動体、操作装置、及び点検プログラム |
JP2009211666A (ja) * | 2008-02-29 | 2009-09-17 | Ind Technol Res Inst | 区域識別システム |
US8930023B2 (en) | 2009-11-06 | 2015-01-06 | Irobot Corporation | Localization by learning of wave-signal distributions |
US11058271B2 (en) | 2010-02-16 | 2021-07-13 | Irobot Corporation | Vacuum brush |
US10314449B2 (en) | 2010-02-16 | 2019-06-11 | Irobot Corporation | Vacuum brush |
JP2020187664A (ja) * | 2019-05-16 | 2020-11-19 | 株式会社日立製作所 | 移動体 |
WO2020230410A1 (ja) * | 2019-05-16 | 2020-11-19 | 株式会社日立製作所 | 移動体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH10177414A (ja) | 天井画像による走行状態認識装置 | |
JP4533065B2 (ja) | 人工標識生成方法、移動ロボットの自己位置及び方位角の推定方法、移動ロボットの自己位置及び方位角の推定装置、移動ロボット及び推定プログラム | |
KR100669250B1 (ko) | 인공표식 기반의 실시간 위치산출 시스템 및 방법 | |
KR102485480B1 (ko) | 가상 주차선 생성에 의한 주차 지원 장치 및 그 방법 | |
JP2004198330A (ja) | 物体の位置検出方法及び装置 | |
JP2005315746A (ja) | 自己位置同定方法及び該装置 | |
JPH0737100A (ja) | 移動物体検出判定装置 | |
JPH0953939A (ja) | 自走車の自己位置測定装置および自己位置測定方法 | |
JPH11272328A (ja) | 色標識,移動ロボットおよび移動ロボットの誘導方法 | |
KR100564236B1 (ko) | 이동 로봇의 자기위치인식 장치 및 방법 | |
WO2020230410A1 (ja) | 移動体 | |
JP3008148B2 (ja) | ロングノズルの自動装着方法及びそのための装置 | |
JPH08211936A (ja) | 移動体の誘導装置 | |
JPH01197808A (ja) | 無人走行車の誘導装置 | |
JPH0820253B2 (ja) | 移動ロボツトにおける位置検出方法 | |
JP3366135B2 (ja) | 走行方向制御装置 | |
JP3501653B2 (ja) | エプロン監視方法及びその装置 | |
JP2838474B2 (ja) | 自律移動ロボットの誘導目標捕捉方法と誘導装置 | |
JPH064127A (ja) | 屋内移動体の自己位置測定装置 | |
WO2019216673A1 (ko) | 무인 이동체용 사물 유도 시스템 및 방법 | |
JP2001072208A (ja) | 倉庫内無人車両誘導装置 | |
JP7304284B2 (ja) | 位置推定装置、移動体、位置推定方法及びプログラム | |
JP3247305B2 (ja) | 特徴領域抽出方法および装置 | |
JP2006155195A (ja) | 移動体の自己位置同定装置および移動体の自己位置同定方法 | |
JPH0546240A (ja) | 移動体の自己位置検出方法及びその装置 |