JP2010066934A - 3次元モデルを用いた自己位置認識手法及び自己位置認識システム - Google Patents

3次元モデルを用いた自己位置認識手法及び自己位置認識システム Download PDF

Info

Publication number
JP2010066934A
JP2010066934A JP2008231599A JP2008231599A JP2010066934A JP 2010066934 A JP2010066934 A JP 2010066934A JP 2008231599 A JP2008231599 A JP 2008231599A JP 2008231599 A JP2008231599 A JP 2008231599A JP 2010066934 A JP2010066934 A JP 2010066934A
Authority
JP
Japan
Prior art keywords
self
model
image
camera image
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008231599A
Other languages
English (en)
Other versions
JP4806435B2 (ja
Inventor
Mitsuru Kamishiro
充 神代
Masahiro Kameda
昌宏 亀田
Hideki Hase
日出樹 長谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Yusoki Co Ltd
Okayama Prefectural University
Original Assignee
Nippon Yusoki Co Ltd
Okayama Prefectural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Yusoki Co Ltd, Okayama Prefectural University filed Critical Nippon Yusoki Co Ltd
Priority to JP2008231599A priority Critical patent/JP4806435B2/ja
Publication of JP2010066934A publication Critical patent/JP2010066934A/ja
Application granted granted Critical
Publication of JP4806435B2 publication Critical patent/JP4806435B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】移動空間内のレイアウトを変更しても容易に適用でき、導入コストが小さく、さらに、高速且つ正確に自己位置認識する。
【解決手段】移動空間の3次元モデルを作成する手段21と、所定時間における移動体の位置及び方向からカメラ画像を取得する手段10と、所定時間における目標軌道上の目標位置及び方向を算出する手段17と、3次元モデルから目標位置及び方向の所定範囲内における複数の位置及び方向のモデル画像を形成する手段15と、この複数のモデル画像とカメラ画像との色情報の一致度を算出する手段16と、この各一致度に基づいて、移動体の位置及び方向を認識する手段18とを備えた。
【選択図】図3

Description

本発明は、通路を形成する対象物体が設置された移動空間を移動する移動体の自己位置認識手法及びシステムに関する。
物流倉庫等では、効率化及び省力化を向上するために、無人搬送車が荷物を運搬する。一般に、無人搬送車の自動走行として、電磁や磁気を検知して走行する方式(電磁誘導式・磁気誘導式)がある。この方式では、誘導手段となる磁気テープを床面に敷設したり(特許文献1等参照)、磁性体を床面に埋設する(特許文献2等参照)。そして、無人搬送車は、この誘導手段からの電磁や磁気等を検知して自動走行する。従って、磁性体等の誘導手段の位置変更に多大な手間や費用を要するから、倉庫内のレイアウト変更が非常に困難となる。また、この方式では磁性体を埋設等するので、導入コストが大きい。
特開2002−278622号公報 特開2005−122568号公報
そこで、本発明が解決しようとする課題は、移動空間内のレイアウトを変更しても容易に適用でき、導入コストが小さく、さらに、高速且つ正確に自己位置認識できる移動体の自己位置認識手法及びシステムを提供することである。
上記の課題を解決するために、本発明に係る自己位置認識手法は、
予め記憶された目標軌道に沿って移動空間を移動する移動体の自己位置認識手法であって、移動空間の3次元モデルを作成するステップと、所定時間における移動体の位置及び方向からカメラ画像を取得するステップと、所定時間における目標軌道上の目標位置及び方向を算出するステップと、3次元モデルから目標位置及び方向の所定範囲内における複数の位置及び方向のモデル画像を形成するステップと、この複数のモデル画像とカメラ画像との色情報の一致度を算出するステップと、この各一致度に基づいて、移動体の位置及び方向を認識するステップとを含む。
好ましくは、移動空間に対象物体を設置するステップと、カメラ画像における対象物体の境界垂直線を基準線に規定するステップと、カメラ画像における基準線の位置を特定するステップと、3次元モデルにおける基準線の位置を特定するステップと、この特定した各基準線の位置に基づいて、3次元モデルから任意の位置及び方向における複数のモデル画像を形成するステップとを含む。
好ましくは、対象物体が通路を形成する通路形成体である。
好ましくは、カメラ画像及びモデル画像を二値化処理するステップを含む。
好ましくは、各一致度から2次又は3次曲線に近似して、曲線の極大値に基づいて移動体の位置及び方向の双方又は一方を認識するステップを含む。
好ましくは、移動空間の入出庫管理システムからの情報に基づいて、3次元モデルにおける対象物体の形状を変更するステップを含む。
好ましくは、カメラ画像及びモデル画像における対象物体以外からなる検出領域を抽出するステップと、この各検出領域を比較するステップと、この比較値と所定の閾値とに基づいて移動体の方向における障害物を認識するステップとを含む。
また、本発明に係る自己位置認識システムは、
予め記憶された目標軌道に沿って移動空間を移動する移動体の自己位置認識システムであって、移動空間の3次元モデルを作成する手段と、所定時間における移動体の位置及び方向からカメラ画像を取得する手段と、所定時間における目標軌道上の目標位置及び方向を算出する手段と、3次元モデルから目標位置及び方向の所定範囲内における複数の位置及び方向のモデル画像を形成する手段と、この複数のモデル画像とカメラ画像との色情報の一致度を算出する手段と、この各一致度に基づいて、移動体の位置及び方向を認識する手段とを備えた。
好ましくは、移動空間に対象物体を設置する手段と、カメラ画像における対象物体の境界垂直線を基準線に規定する手段と、カメラ画像における基準線の位置を特定する手段と、3次元モデルにおける基準線の位置を特定する手段と、この特定した各基準線の位置に基づいて、3次元モデルから任意の位置及び方向における複数のモデル画像を形成する手段とを備えた。
好ましくは、対象物体が通路を形成する通路形成体である。
好ましくは、カメラ画像及びモデル画像を二値化処理する手段を備えた。
好ましくは、各一致度から2次又は3次曲線に近似して、曲線の極大値に基づいて移動体の位置及び方向の双方又は一方を認識する手段を備えた。
好ましくは、移動空間の入出庫管理システムからの情報に基づいて、3次元モデルにおける対象物体の形状を変更する手段を備えた。
好ましくは、カメラ画像及びモデル画像における対象物体以外からなる検出領域を抽出する手段と、この各検出領域を比較する手段と、この比較値と所定の閾値とに基づいて移動体の方向における障害物を認識する手段とを備えた。
本発明に係る3次元モデルを用いた自己位置認識手法及びシステムは、移動体のカメラで取得したカメラ画像と予め作成した移動空間の3次元モデルとに基づいて、移動体の自己位置及び方向の認識を可能とする。そのため、移動空間を変更しても、3次元モデルを移動空間に合わせて変更するだけで対応可能なので、移動空間内のレイアウトを変更しても容易に適用でき、導入コストが小さい。さらに、所定時間における目標軌道上の目標位置及び方向を算出して、3次元モデルから目標位置及び方向の所定範囲内におけるモデル画像を形成してカメラ画像との比較を行うので、比較対象とするモデル画像の枚数を限定でき、高速に処理できる。また、モデル画像とカメラ画像とを、輪郭形状に基づく画素位置情報でなく色情報の一致度に基づいて識別するので、推定される位置及び方向の信頼性が非常に高い。
また、本発明では、カメラ画像における対象物体の境界垂直線を基準線に規定することができる。そして、カメラ画像及び3次元モデルにおける基準線の位置に基づいて、移動体の自己位置を認識する。従って、自己位置を認識するための特徴量が境界垂直線である基準線の位置となり、位置認識のための基準線が少なくて明確なので、高速且つ正確に自己位置を認識できる。
以下、添付図面に基づいて、本発明に係る3次元モデルを用いた自己位置認識手法及びシステムについて説明する。
[全体構成]
図1は、自己位置認識システムを搭載した移動体を示す図である。本実施形態では、移動体1は無人搬送車からなる。図1の通り、移動体1は、前方に向けてカメラ2を備える。カメラ2は、床面Fから一定のカメラ高さHに設置される。移動体1は、コントローラ3を備える。
移動体1は、操舵輪4及び走行輪5を備える。操舵輪4は、操舵モータ40の駆動に基づいて操舵角を変更する。走行輪5は、走行モータ50の駆動に基づいて前後進及び停止する。コントローラ3は、後で詳説するように、カメラ2からの画像に基づいて自己位置及び方向を認識し、予め記憶された目標軌道ST(走行路)に沿って移動体1が走行するように、操舵モータ40及び走行モータ50の駆動を制御する。
[目標軌道]
図2は、目標軌道を説明するための図である。図2の通り、移動体1は、コントローラ3が操舵モータ40及び走行モータ50の駆動を制御して、予め記憶された2次元座標(XY座標)及び方向からなる目標軌道ST(図2の二点鎖線)に沿って操舵、減速、加速、停止及び進行等する。従って、コントローラ3は、所定時間間隔Δtごとの所定時間・・・t−1、t、t+1・・・において、移動体1が目標軌道STに沿って移動するための目標軌道上の目標位置(X,Y)及び方向θを算出可能とする。なお、本実施形態では、所定時間間隔Δtは、例えば約0.3秒である。
[第1実施形態]
第1実施形態について説明する。
図3は、第1実施形態の自己位置認識システムを示すブロック図である。図4は、第1実施形態の自己位置認識手法を説明するフローチャート図である。図5は、第1実施形態の比較するモデル画像を説明するための図である。図6は、移動空間内の3次元モデルを示す概念図である。
自己位置認識システムは、カメラ2及びコントローラ3等からなる(図3)。コントローラ3は、CPU等を搭載したコンピュータからなっており、カメラ2から取得したカメラ画像等を処理して、移動体1の位置及び方向を認識する。
本実施形態では、移動体1は、物流倉庫を移動空間6として移動する(図6)。この移動空間6では、荷物等を配列するための複数のラック(棚)60が配置されている。移動体1は、それぞれのラック60の間を通路61として目標軌道STに沿って走行する。
先ず、移動体1が実際に走行する移動空間6(実空間)と同一の3次元モデル(モデル空間)(図6)を3次元モデル作成手段21で作成する(図4のステップS01)。そして、3次元モデル記憶手段11が、この3次元モデルを記憶する。なお、3次元モデルは、実空間と略同一色で作成される。3次元モデル作成手段21は、例えばCADシステムからなる。
3次元モデル作成手段21は、対象物体(ラック)60に配列される荷物を管理する入出庫・在庫管理システム(WMS)22に基づいて、3次元モデルにおける対象物体60に荷物を配置した形状に随時変更する。これにより、常に、実際(実空間)と3次元モデル(モデル空間)との移動空間6における形状や色情報が一致する。色情報は、色相(色度)H、彩度S、明度(輝度)Vからなる。
そして、移動体1が走行する目標軌道STを作成して、目標軌道記憶手段17に目標軌道STを記憶する(図4のステップS02)。
図7は、カメラ画像を示す図である。そして、カメラ画像取得手段10は、所定時間tにおいて、カメラ2でカメラ画像Riを取得する(図4のステップS11)。カメラ画像Riは、所定時間tにおける、移動体1の位置(X,Y)及び方向θに対する画像である。
図8は、二値化したカメラ画像を示す図である。カメラ画像Riの全画素(全ピクセル)をHSV変換して、床面及び壁面の色相Hからなる画素の輝度値Vを「0」に、それ以外の画素の輝度値Vを「1」に変換して二値化処理し、対象物体60を抽出したカメラ画像Riを作成する(図3のステップS3)。なお、床面及び壁面の色相Hが予め設定されているので、対象物体60を抽出した二値化が可能である。
そして、所定時間tにおいて、移動体1が目標軌道STに沿って移動するための目標軌道上の目標位置(X,Y)及び方向θを算出する(図4のステップS12)。
そして、所定時間tの目標位置(X,Y)及び方向θの所定範囲内における複数の位置(Xtn,Ytn)及び方向θtnのモデル画像Viを作成する(図4のステップS13)。図5の通り、本実施形態では、所定範囲(W1−W2)は、目標位置(X,Y)を中心とする矩形範囲(円範囲等でもよい)であって、所定間隔Δwごとに、複数の位置(Xtn,Ytn)が設定される(図5の△印)。さらに、それぞれの位置(Xtn,Ytn)ごとに、目標方向θの左右所定角度範囲θwに所定角度間隔Δθごとに、複数のθtnが設定される(図5の×印)。なお、本実施形態では、例えば、W1=W2=200〜600mm、Δw=10〜50mm、θw=1〜10°、Δθ=0.1〜1.0°である。
図9は、モデル画像を示す図である。モデル画像作成手段15は、予め記憶した3次元モデルに基づいて、移動体1の任意の位置及び方向におけるカメラ高さHから見た2次元のモデル画像を作成する。従って、モデル画像作成手段15が、上記の複数の位置(Xtn,Ytn)及び方向θtnのモデル画像Viを作成する。
モデル画像Viにおいても、カメラ画像Riと同様に、全画素(全ピクセル)をHSV変換して、床面及び壁面の色相Hからなる画素の輝度値Vを「0」に、それ以外の画素の輝度値Vを「1」に変換して二値化処理し、対象物体60を抽出したモデル画像Viθiを作成する(図10)。図10は、二値化したモデル画像を示す図である。
そして、一致度算出手段16が、カメラ画像Riと各モデル画像Viとの比較を行う(図4のステップS14)。図11は、カメラ画像とモデル画像とを比較する状態を示す図である。そして、カメラ画像Riと各モデル画像Viとの一致度CViを求める(図4のステップS15)。一致度CViは、カメラ画像Riと各モデル画像Viとにおける特徴量(輝度値V「0」)の画素に基づいて、全画素に対する一致する画素の割合を採用する。
そして、最も一致度CViの高い一つのモデル画像Viを採用して、そのモデル画像Viにおける(Xtn,Ytn)及び方向θtnを、所定時間tにおける移動体1の自己位置(X,Y)及び方向θとして決定する(図4のステップS16)。この自己位置(X,Y)及び方向θに基づいて、予め記憶された目標軌道STに沿って移動体1が追従するように、操舵モータ40及び走行モータ50を制御する(図4のステップS17)。即ち、移動体1が、所定時間t+1における、目標軌道上の目標位置(Xt+1,Yt+1)及び方向θt+1に向かって走行するように制御する。
なお、上記では、完全に一致する色相Hに基づいて識別したが、ある程度の幅をもった色相H±Δhに一致する画素を対象にして算出してもよい。また、上記では、カメラ画像Riとモデル画像Viとを色相Hに基づいて二値化処理して、一致度CViを算出したが、二値化処理せずに、それぞれの画素における色情報の一致度CViで算出してもよい。その場合、色相Hのみで識別するのではなく、例えば、グレー系に関しては明度(輝度)Vで識別する等、色の種類によって、色相H、彩度S、明度Vのいずれか又はそれらを組合わせて識別することもできる。
[第2実施形態]
第2実施形態について説明する。なお、第1実施形態と同じ内容については、詳細な説明を省略する。
図12は、第2実施形態の自己位置認識システムを示すブロック図である。図13及び図14は、第2実施形態の自己位置認識手法を説明するフローチャート図である。
先ず、移動体1が走行する移動空間6と同一の3次元モデル(図6)を3次元モデル作成手段21で作成する(図13のステップS01)。そして、移動体1が走行する目標軌道STを目標軌道記憶手段17に記憶する(図13のステップS02)。
カメラ画像取得手段10は、所定時間tにおいて、カメラ2でカメラ画像Riを取得する(図13のステップS21)。カメラ画像Riは、所定時間tにおける、移動体1の位置(X,Y)及び方向θの画像である(図7)。
[基準線rRL、lRLの位置]
図15は、基準線を規定したカメラ画像を示す図である。基準線規定手段12は、二値化したカメラ画像Ri(図8)における、対象物体(ラック)60と正面壁との境界によって形成される境界垂直線を基準線rRL、lRLと規定する(図13のステップS23)。本実施形態では、対象物体60は、垂直方向及び水平方向に延設する支柱等を組み立てて形成されるラック(棚)なので、境界垂直線が現れる。図15の通り、カメラ画像Ri内での座標系をIX−IY座標とし、基準線rRL、lRLの位置はIX軸方向の座標値とする。
なお、境界垂直線は、移動体の位置等によっては1箇所しか現れない場合もある。また、境界垂直線は、対象物体60の形状によって設定が異なり、例えば、対象物体60と正面壁との境界が円弧の場合、その先端部分に接する垂直線としてもよい。
カメラ画像Riにおいて、通路中心線Cptー1を設定する。通路中心線Cptー1は、所定時間t−1において決定した移動体1の位置(X,Y)及び方向θに基づいて、時間t−1における通路61の中心位置(IX軸方向における各基準線rRLt−1、lRLt−1の間の中央位置)を採用する。
カメラ画像における基準線位置特定手段13は、次の手順により基準線rRL、lRLの位置を特定する。カメラ画像Riにおいて、通路中心線Cptー1の左右に対象物体60が存在する探索高さ範囲Raを設定する。探索高さ範囲Ra内において、カメラ画像Riにおける通路中心線Cptー1から、IY軸方向における所定画素間隔ごとに、IX軸方向に向けて探索を行い、対象物体60と識別される(輝度値V「1」と識別される)左右の位置を特定する。
そして、左右それぞれに対して特定された各位置をソートし、信頼性の低い上位量1/4の位置と下位量1/4の位置とを除き、中位量1/2の位置について平均値を求め、その値を左右の基準線rRL、lRLの位置と特定する。
上記した通路中心線Cptー1からの位置に基づいて、カメラ画像Riにおける画像中心垂直線から左右の基準線rRL、lRLの距離Wpa、Wpbを特定する(図13のステップS24)。
そして、所定時間tにおいて、移動体1が目標軌道STに沿って移動するための目標軌道上の目標位置(X,Y)及び方向θを算出する(図13のステップS22)。
図16は、基準線と移動体との位置関係を示す平面図である。3次元モデルにおける基準線位置特定手段14は、モデル空間内における基準線rRL、lRLの位置座標(Xq,Yq)、(Xp,Yp)を特定する(図13のステップS25)。この位置座標(Xq,Yq)、(Xp,Yp)は、所定時間tにおける目標位置(X,Y)及び方向θを算出することにより(図13のステップS22)、対象物体60の位置を推定して特定できる。
モデル空間内における基準線rRL、lRLと移動体1との位置関係(図16)に基づいて、次の(1)式〜(3)式が導かれる。
・・・(1)
・・・(2)
・・・(3)
ここで、(X,Y)及びθはモデル空間内での移動体1の位置及び方向である。Fはカメラ2の焦点距離である。
上記の通り、Wpa、Wpbは、カメラ画像Riに基づいて特定される(図13のステップS24)。また、Fはカメラ2のスペックで特定される。これらを(2)式及び(3)式に入力することによりα、βが特定される。
さらに、上記の通り、(Xq,Yq)、(Xp,Yp)は、3次元モデルに基づいて特定される(図13のステップS25)。これらより、(1)式に基づいて、移動体1の方向θを任意に決めると、移動体1の位置(X,Y)が一義的に決定される。
モデル画像作成手段15は、3次元モデルに基づいて、移動体1の任意の位置及び方向におけるカメラ高さHから見たモデル画像を作成する(図9)。
[モデル空間における移動体1の方向θ
次に、基準線rRL、lRLの拘束を行って、移動体1の方向θを認識する手順について説明する。先ず、所定時間t−1において認識した移動体1の方向θを基準方向とする。基準方向θを中心とする任意の角度Ψを探索角度範囲とする。この探索角度範囲Ψを所定数(本例では7つ)に等分割し、φi(i=1,2,・・・,7)からなる集合Sφを決定する。Sφを(4)式に示す。
・・・(4)
このφiをモデル空間内での移動体1の方向として、(1)式からモデル空間内での移動体1の位置(Xφi,Yφi)を決定する。そして、この決定したモデル空間内での移動体1の位置(Xφi,Yφi)及び方向φiに基づいて、モデル画像作成手段15でモデル画像Viφiを作成する(図13のステップS26)。
全画素(全ピクセル)をHSV変換して、床面及び壁面の色相Hからなる画素の輝度値Vを「0」に、それ以外の画素の輝度値Vを「1」に変換して二値化処理し、対象物体60のみを抽出した、特徴量のみのモデル画像Viφiを作成する(図10)。
そして、一致度算出手段16が、カメラ画像Riとモデル画像Viθiとの比較を行って(図11)、一致度CViを求める(図13のステップS27)。なお、一致度CViは、カメラ画像Riとモデル画像Viφiとにおける特徴量(輝度値V「0」)の画素に基づいて、全画素に対する一致する画素の割合を採用する。
これまでの手順(図13のステップS26及びS27)をそれぞれの方向φ〜φで繰り返し行い、これによって得られるカメラ画像Riとモデル画像Viφ1〜7と比較して、それぞれの一致度CV〜CVを求める。
図17は、任意の方向と一致度との関係を示すグラフ図である。一致度算出手段16は、i=1〜7における方向φiの一致度CViに基づいて、最小二乗法によって3次元曲線f(φ)による近似を行う(図13のステップS28)。そして、3次元曲線f(φ)において極大となる方向φmを求める(図13のステップS29)。
方向φmを新たな基準方向θとして、探索角度範囲をΨ/2として、これまでの手順(図13のステップS26〜S29)を行い、これをn回繰り返して、自己位置認識手段18で、モデル空間における移動体1の方向θを認識する(図13のステップS30)。
上記より、基準線rRL、lRLの拘束によって移動体1の方向θを認識して、これを(1)式に入力して移動体1の位置(XθM,YθM)を求める。そして、移動体1の位置(X,Y)の認識精度を向上するために、次の手順によって、基準線rRL、lRLの拘束を行わずに、カメラ画像Riと各モデル画像Viθ1〜7とを比較する。
[モデル空間における移動体1の位置(X,Y)]
次に、移動体1の位置(X,Y)を認識する手順について説明する。任意の変化量δとして、上記で求めた位置(XθM,YθM)を中心とする位置集合(Sx,Sy)を作成する。集合Sxを(5)式とし、集合Syを(6)式とする。従って、位置集合(Sx,Sy)は、集合Sxと集合Syとの全ての組合わせである9(=3×3)箇所の位置となり、位置(XθM,YθM)の周囲位置となる。なお、変化量δは、実空間における約5cmとする。
・・・(5)
・・・(6)
9箇所の位置集合(Sx,Sy)のそれぞれについて、モデル画像作成手段15でモデル画像ViθMを作成する(図14のステップS31)。そして、それぞれの9つのモデル画像ViθM とカメラ画像Riとの比較を行い(図11)、一致度算出手段16で一致度CViを求める(図14のステップS32)。そして、最大値となる一致度CViを採用して、位置(XθM,YθM)を決定する(図14のステップS33)。
さらに、位置(XθM,YθM)を中心とし、任意の変化量をδ/2として、これまでの手順(図14のステップS31〜S33)を行い、これをn回繰り返して、自己位置認識手段18が、モデル空間における移動体1の位置(X,Y)を認識する(図14のステップS34)。
上記では、移動体1の方向θを決定する際に、一致度CViから3次曲線f(φ)による近似を行ったが、移動体1の位置(X,Y)を決定する際にも、一致度CViから3次曲線による近似を行うことができる。
[実空間における移動体1の位置(X,Y)及び方向θ
上記より認識されたモデル空間内での移動体1の位置(X,Y)及び方向θから、実空間内での移動体1の位置(X,Y)及び方向θ をそれぞれ(7)式及び(8)式により決定する(図14のステップS35)。
・・・(7)
・・・(8)
ここで、Kは実空間とモデル空間との縮尺、(X,Y)は実空間とモデル空間とのXY軸方向のオフセット量、λは実空間とモデル空間との回転角、を表す。
[障害物認識]
障害物認識手段19は、自己位置(X,Y)及び方向θ を認識した後、カメラ画像Riとモデル画像Viに基づいて障害物認識を行う(図14のステップS36)。モデル画像Viは、移動体1の位置(X,Y)及び方向θに基づいて作成する。
通路61と壁面からなる領域(対象物体60以外の領域)を、障害物を検出するための領域(検出領域)とする。モデル画像Viにおいて検出領域を抽出する。カメラ画像Riについても検出領域を抽出する。
そして、カメラ画像Riとモデル画像Viとのそれぞれに対して検出領域内の画素をHSV変換し、それぞれの色相(H)、明度(V)、彩度(S)の差が閾値未満となる画素を除去して、カメラ画像Riの検出領域において、モデル画像Viと異なる色の画素のみを抽出した画像を作成する。そして、この画像において、一定値以上の面積を有する領域がある場合には、その領域を障害物として認識する。
[目標軌道追従]
目標軌道追従手段20は、上記によって認定した移動体1の位置(X,Y)及び方向θに基づいて、予め記憶された目標軌道ST(走行路)に沿って移動体1が追従するように、操舵モータ40及び走行モータ50を制御する(図14のステップS37)。
そして、所定時間間隔Δtごとに自己位置認識を行って、移動体1が目標軌道STを追従するように制御する。なお、上記手法において、所定時間t−1における種々の値を採用するステップがあるので、スタート時における値(初期値)は予め設定する。
そして、上記の障害物認識手法によって障害物を認識した際には、移動体1が停止する等の所定の処置を取るように、目標軌道追従手段20が、操舵モータ40及び走行モータ50を制御する。
[その他]
上記実施形態では、移動体1に前方に向けたカメラ2からのカメラ画像に基づいて自己位置を認識しているが、後方に向けたカメラ2からのカメラ画像を用いたり、前方からのカメラ画像と組合わせて認識してもよい。
また、上記では、ラックが配置された物流倉庫内を移動する無人搬送車について説明したが、座席(対象物体60)が配置されたコンサート会場(移動空間6)内を走行又は歩行する警備ロボット(移動体1)等でも適用でき、本発明の趣旨を逸脱しない範囲内であれば様々な移動体及び移動空間等に採用できる。
自己位置認識システムを搭載した移動体を示す図である。 目標軌道を説明するための図である。 第1実施形態の自己位置認識システムを示すブロック図である。 第1実施形態の自己位置認識手法を説明するフローチャート図である。 第1実施形態の比較するモデル画像を説明するための図である。 移動空間内の3次元モデルを示す概念図である。 カメラ画像を示す図である。 二値化したカメラ画像を示す図である。 モデル画像を示す図である。 二値化したモデル画像を示す図である。 カメラ画像とモデル画像とを比較する状態を示す図である。 第2実施形態の自己位置認識システムを示すブロック図である。 第2実施形態の自己位置認識手法を説明するフローチャート図である。 図13に続くフローチャート図である。 基準線を規定したカメラ画像を示す図である。 基準線と移動体との位置関係を示す平面図である。 任意の方向と一致度との関係を示すグラフ図である。
符号の説明
1 移動体
2 カメラ
3 コントローラ
6 移動空間
60 対象物体
61 通路
Ri カメラ画像
Vi モデル画像
rRL、lRL 基準線
θ モデル空間における移動体の方向
,Y モデル空間における移動体の位置
θ 実空間における移動体の方向
,Y 実空間における移動体の位置

Claims (14)

  1. 予め記憶された目標軌道に沿って移動空間を移動する移動体の自己位置認識手法であって、前記移動空間の3次元モデルを作成するステップと、所定時間における前記移動体の位置及び方向からカメラ画像を取得するステップと、前記所定時間における前記目標軌道上の目標位置及び方向を算出するステップと、前記3次元モデルから前記目標位置及び方向の所定範囲内における複数の位置及び方向のモデル画像を形成するステップと、この複数のモデル画像と前記カメラ画像との色情報の一致度を算出するステップと、この各一致度に基づいて、前記移動体の位置及び方向を認識するステップとを含むことを特徴とする自己位置認識手法。
  2. 前記移動空間に対象物体を設置するステップと、前記カメラ画像における前記対象物体の境界垂直線を基準線に規定するステップと、前記カメラ画像における前記基準線の位置を特定するステップと、前記3次元モデルにおける前記基準線の位置を特定するステップと、この特定した各基準線の位置に基づいて、前記3次元モデルから任意の位置及び方向における複数のモデル画像を形成するステップとを含むことを特徴とする請求項1に記載の自己位置認識手法。
  3. 前記対象物体が通路を形成する通路形成体であることを特徴とする請求項1又は2に記載の自己位置認識手法。
  4. 前記カメラ画像及び前記モデル画像を二値化処理するステップを含むことを特徴とする請求項1〜3のいずれかに記載の自己位置認識手法。
  5. 前記各一致度から2次又は3次曲線に近似して、前記曲線の極大値に基づいて前記移動体の位置及び方向の双方又は一方を認識するステップを含むことを特徴とする請求項1〜4のいずれかに記載の自己位置認識手法。
  6. 前記移動空間の入出庫管理システムからの情報に基づいて、前記3次元モデルにおける前記対象物体の形状を変更するステップを含むことを特徴とする請求項1〜5のいずれかに記載の自己位置認識手法。
  7. 前記カメラ画像及び前記モデル画像における前記対象物体以外からなる検出領域を抽出するステップと、この各検出領域を比較するステップと、この比較値と所定の閾値とに基づいて前記移動体の方向における障害物を認識するステップとを含むことを特徴とする請求項1〜6のいずれかに記載の自己位置認識手法。
  8. 予め記憶された目標軌道に沿って移動空間を移動する移動体の自己位置認識システムであって、前記移動空間の3次元モデルを作成する手段と、所定時間における前記移動体の位置及び方向からカメラ画像を取得する手段と、前記所定時間における前記目標軌道上の目標位置及び方向を算出する手段と、前記3次元モデルから前記目標位置及び方向の所定範囲内における複数の位置及び方向のモデル画像を形成する手段と、この複数のモデル画像と前記カメラ画像との色情報の一致度を算出する手段と、この各一致度に基づいて、前記移動体の位置及び方向を認識する手段とを備えたことを特徴とする自己位置認識システム。
  9. 前記移動空間に対象物体を設置する手段と、前記カメラ画像における前記対象物体の境界垂直線を基準線に規定する手段と、前記カメラ画像における前記基準線の位置を特定する手段と、前記3次元モデルにおける前記基準線の位置を特定する手段と、この特定した各基準線の位置に基づいて、前記3次元モデルから任意の位置及び方向における複数のモデル画像を形成する手段とを備えたことを特徴とする請求項8に記載の自己位置認識システム。
  10. 前記対象物体が通路を形成する通路形成体であることを特徴とする請求項8又は9に記載の自己位置認識システム。
  11. 前記カメラ画像及び前記モデル画像を二値化処理する手段を備えたことを特徴とする請求項8〜10のいずれかに記載の自己位置認識システム。
  12. 前記各一致度から2次又は3次曲線に近似して、前記曲線の極大値に基づいて前記移動体の位置及び方向の双方又は一方を認識する手段を備えたことを特徴とする請求項8〜11のいずれかに記載の自己位置認識システム。
  13. 前記移動空間の入出庫管理システムからの情報に基づいて、前記3次元モデルにおける前記対象物体の形状を変更する手段を備えたことを特徴とする請求項8〜12のいずれかに記載の自己位置認識システム。
  14. 前記カメラ画像及び前記モデル画像における前記対象物体以外からなる検出領域を抽出する手段と、この各検出領域を比較する手段と、この比較値と所定の閾値とに基づいて前記移動体の方向における障害物を認識する手段とを備えたことを特徴とする請求項8〜13のいずれかに記載の自己位置認識システム。
JP2008231599A 2008-09-10 2008-09-10 3次元モデルを用いた自己位置認識手法及び自己位置認識システム Active JP4806435B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008231599A JP4806435B2 (ja) 2008-09-10 2008-09-10 3次元モデルを用いた自己位置認識手法及び自己位置認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008231599A JP4806435B2 (ja) 2008-09-10 2008-09-10 3次元モデルを用いた自己位置認識手法及び自己位置認識システム

Publications (2)

Publication Number Publication Date
JP2010066934A true JP2010066934A (ja) 2010-03-25
JP4806435B2 JP4806435B2 (ja) 2011-11-02

Family

ID=42192477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008231599A Active JP4806435B2 (ja) 2008-09-10 2008-09-10 3次元モデルを用いた自己位置認識手法及び自己位置認識システム

Country Status (1)

Country Link
JP (1) JP4806435B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252477A (ja) * 2011-06-02 2012-12-20 Hitachi Ltd 画像検索装置及び画像検索システム
JP2013109624A (ja) * 2011-11-22 2013-06-06 Hitachi Plant Technologies Ltd 画像処理装置、画像処理方法
JP2013182523A (ja) * 2012-03-02 2013-09-12 Hitachi Plant Technologies Ltd 画像処理装置、画像処理システム、画像処理方法
WO2014125719A1 (ja) * 2013-02-15 2014-08-21 村田機械株式会社 搬送台車、搬送台車の駆動制御方法、及び搬送台車の駆動制御プログラム
JP2018010412A (ja) * 2016-07-12 2018-01-18 株式会社リコー 情報処理装置、情報処理方法及び情報処理プログラム
JP2019207618A (ja) * 2018-05-30 2019-12-05 日本電気株式会社 情報処理システム
JP2020149349A (ja) * 2019-03-13 2020-09-17 三菱電機株式会社 点検支援システムおよび点検支援方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10281743A (ja) * 1997-04-01 1998-10-23 Komatsu Ltd 共焦点光学装置及び該装置の合焦位置算定方法
JP2001072208A (ja) * 1999-08-31 2001-03-21 Nippon Seiki Co Ltd 倉庫内無人車両誘導装置
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
JP2008039611A (ja) * 2006-08-07 2008-02-21 Canon Inc 位置姿勢計測装置及び位置姿勢計測方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10281743A (ja) * 1997-04-01 1998-10-23 Komatsu Ltd 共焦点光学装置及び該装置の合焦位置算定方法
JP2001072208A (ja) * 1999-08-31 2001-03-21 Nippon Seiki Co Ltd 倉庫内無人車両誘導装置
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
JP2008039611A (ja) * 2006-08-07 2008-02-21 Canon Inc 位置姿勢計測装置及び位置姿勢計測方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252477A (ja) * 2011-06-02 2012-12-20 Hitachi Ltd 画像検索装置及び画像検索システム
JP2013109624A (ja) * 2011-11-22 2013-06-06 Hitachi Plant Technologies Ltd 画像処理装置、画像処理方法
JP2013182523A (ja) * 2012-03-02 2013-09-12 Hitachi Plant Technologies Ltd 画像処理装置、画像処理システム、画像処理方法
WO2014125719A1 (ja) * 2013-02-15 2014-08-21 村田機械株式会社 搬送台車、搬送台車の駆動制御方法、及び搬送台車の駆動制御プログラム
JPWO2014125719A1 (ja) * 2013-02-15 2017-02-02 村田機械株式会社 搬送台車、搬送台車の駆動制御方法、及び搬送台車の駆動制御プログラム
JP2018010412A (ja) * 2016-07-12 2018-01-18 株式会社リコー 情報処理装置、情報処理方法及び情報処理プログラム
JP2019207618A (ja) * 2018-05-30 2019-12-05 日本電気株式会社 情報処理システム
JP2020149349A (ja) * 2019-03-13 2020-09-17 三菱電機株式会社 点検支援システムおよび点検支援方法
JP7246211B2 (ja) 2019-03-13 2023-03-27 三菱電機株式会社 点検支援システムおよび点検支援方法

Also Published As

Publication number Publication date
JP4806435B2 (ja) 2011-11-02

Similar Documents

Publication Publication Date Title
JP4806435B2 (ja) 3次元モデルを用いた自己位置認識手法及び自己位置認識システム
CN106950972B (zh) 一种无人搬运车agv及其路线纠偏方法
CN108152823B (zh) 一种基于视觉的无人驾驶叉车导航系统及其定位导航方法
US9201425B2 (en) Human-tracking method and robot apparatus for performing the same
US7336805B2 (en) Docking assistant
CN110837814B (zh) 车辆导航方法、装置及计算机可读存储介质
CN110304386B (zh) 机器人及机器人丢码后的重新定位方法
US20220189055A1 (en) Item detection device, item detection method, and industrial vehicle
WO2012166970A1 (en) Deep lane navigation system for automatic guided vehicles
CN113342004B (zh) 基于人工智能和视觉感知的多agv小车调度方法及系统
Tsalatsanis et al. Vision based target tracking and collision avoidance for mobile robots
EP4111285B1 (en) Method for controlling an automatic guided vehicle and control system adapted to execute the method
KR101059927B1 (ko) 무인 이송장치의 팔레트 위치 인식 장치 및 방법
Rasmussen et al. Perception and control strategies for driving utility vehicles with a humanoid robot
JP2009176031A (ja) 自律移動体,自律移動体制御システムおよび自律移動体の自己位置推定方法
KR20220050483A (ko) 무인 반송 차량의 위치 인식 장치 및 방법
CN115244585A (zh) 用于控制货场上的车辆的方法、行驶控制单元和车辆
Wu et al. Adaptive ORB feature detection with a variable extraction radius in RoI for complex illumination scenes
Wang et al. Autonomous pallet localization and picking for industrial forklifts based on the line structured light
CN115494836A (zh) 检测系统、处理装置、移动体、检测方法以及存储介质
Kazama et al. Fundamental study on road detection method using multi-layered distance data with HOG and SVM
JP7482808B2 (ja) 移動体の制御方法、移動体及びプログラム
Venkatesh et al. Vision-Based Automated Guided Vehicle
US20190352144A1 (en) Movable hoisting apparatus, arrangement and method
EP4206846A1 (en) Control method for mobile object, mobile object, movement control system, and computer-readable storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110812

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4806435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140819

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250