JP4511919B2 - 多面体認識装置 - Google Patents

多面体認識装置 Download PDF

Info

Publication number
JP4511919B2
JP4511919B2 JP2004367973A JP2004367973A JP4511919B2 JP 4511919 B2 JP4511919 B2 JP 4511919B2 JP 2004367973 A JP2004367973 A JP 2004367973A JP 2004367973 A JP2004367973 A JP 2004367973A JP 4511919 B2 JP4511919 B2 JP 4511919B2
Authority
JP
Japan
Prior art keywords
polyhedron
staircase
image
shape
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004367973A
Other languages
English (en)
Other versions
JP2005182826A (ja
Inventor
武雄 金出
拓 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2005182826A publication Critical patent/JP2005182826A/ja
Application granted granted Critical
Publication of JP4511919B2 publication Critical patent/JP4511919B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

この発明は多面体認識装置に関し、より詳しくは、撮像した画像に基づき、階段などの多面体、より具体的にはその外形が多面体で近似される、階段などの多面体を認識する装置に関する。
階段などの多面体を認識する装置としては、従来、以下の特許文献1に示すものが知られている。
特許第3192736号公報(段落0011から0022。図4など)
この従来技術においては、撮像した画像の中、階段の水平面の2値画像の面積に基づいて階段の形状を認識している。
即ち、この従来技術においては、画像から所定面積の平面群を抽出して認識しているため、階段を正面かつ近距離から撮像しないと、認識が困難になる場合があった。また、階段の形状を細部までも認識するものではなかった。
従って、この発明の目的は上記した不都合を解消し、階段などの多面体の形状を撮像して得た画像から認識するときも、撮像位置や撮像距離の影響を受け難いと共に、階段の形状を細部まで認識するようにした多面体認識装置を提供することにある。
上記した課題を解決するために、請求項1においては、撮像手段から入力した画像に基づいて階段などの多面体の形状を認識する多面体認識装置において、前記撮像手段としての少なくとも1個のカメラと、前記カメラが撮像した画像の中の平行線グループからなる所定の領域を選択する領域選択手段と、前記カメラで得た画像から距離画像(距離情報)を得ると共に、前記選択された領域に基づいて前記得た距離画像上に処理領域を設定する処理領域設定手段と、および前記設定された処理領域内の前記距離画像に基づいて前記多面体の形状を認識する多面体形状認識手段とを備える如く構成した。
請求項2においては、前記撮像手段として少なくとも2個のカメラを備え、前記領域選択手段は前記2個のカメラのいずれかが撮像した画像の中から前記所定の領域を選択すると共に、前記処理領域設定手段は前記2個のカメラでステレオ視して得た画像から前記距離画像を得る如く構成した。
請求項3にあっては、前記領域選択手段は、前記撮像した画像から所定長さ以上の線分群を抽出し、前記抽出した線分群の位置に基づいて前記所定の領域を選択する如く構成した。
請求項4にあっては、前記領域選択手段は、前記抽出した線分群の中、互いに平行となる線分群であって、かつ距離的に接近する線分群の位置に基づいて前記所定の領域を選択する如く構成した。
請求項5にあっては、前記多面体形状認識手段は、前記処理領域内の前記距離画像を構成する点集合を3次元空間上の距離データの集合として抽出し、前記抽出した点集合に基づいて前記多面体の形状を認識するように構成した。
請求項6にあっては、前記多面体が階段であると共に、前記多面体形状認識手段は、前記抽出した点集合を傾斜平面とみなし、その近似平面を求めることで前記階段の形状を認識する如く構成した。
請求項7にあっては、前記多面体が階段であると共に、前記多面体形状認識手段は、前記抽出した点集合を垂直面で切断し、切断面の点集合と2次元モデルとの誤差に基づいて前記階段の形状を認識する如く構成した。
請求項1にあっては、カメラが撮像した画像の中の平行線グループからなる所定の領域を選択すると共に、選択された領域に基づき、カメラで得た距離画像(距離情報、より具体的には距離情報を示すテーブルデータ)上に処理領域を設定し、設定された処理領域内の距離画像に基づいて多面体の形状を認識するようにした。換言すれば、3次元画像情報に比して処理が容易な2次元画像情報を用いて処理領域を可能な限り限定すると共に、その限定された処理領域内の距離画像上に基づいて多面体の形状を認識するようにした。これによって、例えば3次元モデルマッチングなどによって認識するときも、処理領域が限定されていることで、撮像位置や撮像距離の影響を受け難いと共に、カメラの精度に応じて多面体の形状を細部まで認識することができる。
請求項2においては、より具体的には、2個のカメラのいずれかが撮像した画像の中の所定の領域を選択すると共に、選択された領域に基づき、2個のカメラでステレオ視して得た距離画像上に処理領域を設定し、設定された処理領域内の距離画像に基づいて多面体の形状を認識するようにしたので、請求項1で述べた如く、例えば3次元モデルマッチングなどによって認識するときも、処理領域が限定されていることで、撮像位置や撮像距離の影響を受け難いと共に、カメラの精度に応じて多面体の形状を細部まで認識することができる。
請求項3にあっては、撮像した画像から所定長さ以上の線分群を抽出し、その位置に基づいて領域を選択する如く構成したので、多面体が例えば階段であるときなど、段を構成する直線成分に相当する線分の位置に基づいて領域を選択することができ、領域を可能な限り限定できて認識精度を上げることができる。
請求項4にあっては、抽出した線分群の中、互いに平行となる線分群であって、かつ距離的に接近する線分群の位置に基づいて領域を選択する如く構成したので、多面体が例えば階段であるときなど、段を構成する直線成分に相当する線分の位置を良く検出することができ、それに基づいて領域を選択することができ、領域を可能な限り限定できて認識精度を上げることができる。
請求項5にあっては、処理領域内の距離画像を構成する点集合を3次元空間上の距離データの集合として抽出し、抽出した点集合に基づいて多面体の形状を認識するように構成したので、それによって例えば多面体の形状を示すモデルを用いて3次元モデルマッチングによって処理領域を評価することで、カメラの精度に応じて多面体の形状を細部まで効率良く認識することができる。
請求項6にあっては、多面体が階段であると共に、抽出した点集合を傾斜平面とみなし、その近似平面を求めることで階段の形状を認識する如く構成したので、近似平面からなる平面モデルを用いて3次元モデルマッチングによって処理領域を評価することができ、よってカメラの精度に応じて多面体の形状を細部まで効率良く認識することができる。
請求項7にあっては、多面体が階段であると共に、抽出した点集合を垂直面に切断し、切断面の点集合と2次元モデルとの誤差に基づいて階段の形状を認識する如く構成したので、カメラの精度に応じて階段の形状を細部まで一層効率良く認識することができる。
以下、添付図面を参照してこの発明に係る多面体認識装置を実施するための最良の形態について説明する。
図1は、この発明の第1実施例に係る多面体認識装置が搭載される、脚式移動ロボットの正面図である。
尚、この実施例においては、多面体認識装置を、2足歩行の脚式移動ロボットに搭載した場合を例にとって説明する。図1はその脚式移動ロボット(以下「ロボット」という)1の正面図、図2はその側面図である。
図1に示すように、ロボット1は、2本の脚部リンク(脚部)2を備えると共に、その上方には上体(基体)3が設けられる。上体3の上部には頭部4が設けられると共に、上体3の両側には2本の腕リンク(腕部)5が連結される。また、図2に示すように、上体3の背部には格納部6が設けられ、その内部にはECU(電子制御ユニット。後述)およびロボット1の関節を駆動する電動モータ(駆動源。後述)のバッテリ電源(図示せず)などが収容される。尚、図1および図2に示すロボット1は、内部構造を保護するためのカバーが取着されたものを示す。
図3を参照して上記したロボット1の内部構造を関節を中心に説明する。
図示の如く、ロボット1は、左右それぞれの脚部2に6個の関節を備える。計12個の関節は、腰部の脚回旋用の鉛直軸(Z軸あるいは重力軸)まわりの関節10R,10L(右側をR、左側をLとする。以下同じ)、股(腰部)のロール方向(X軸まわり)の関節12R,12L、股(腰部)のピッチ方向(Y軸まわり)の関節14R,14L、膝部のピッチ方向(Y軸まわり)の関節16R,16L、足首のピッチ方向(Y軸まわり)の関節18R,18L、および同ロール方向(X軸まわり)の関節20R,20Lから構成される。脚部リンク2R(L)の下部には足平(足部)22R,22Lが取着される。
このように、脚部リンク2は、股関節(腰関節)10R(L),12R(L),14R(L)、膝関節16R(L)、および足関節18R(L),20R(L)から構成される。股関節と膝関節は大腿リンク24R(L)で、膝関節と足関節は下腿リンク26R(L)で連結される。
脚部リンク2は股関節を介して上体3に連結されるが、図3では上体3を上体リンク28として簡略的に示す。前記したように、上体3には腕リンク5が連結される。腕リンク5は、肩部のピッチ方向の関節30R,30L、同ロール方向の関節32R,32L、腕の回旋用の鉛直軸まわりの関節34R,34L、肘部のピッチ軸まわりの関節36R,36L、手首回旋用の鉛直軸まわりの関節38R,38Lから構成される。手首の先にはハンド(エンドエフェクタ)40R,40Lが取着される。
このように、腕リンク5は、肩関節30R(L),32R(L),34R(L)、手首関節38R(L)から構成される。また肩関節と肘関節とは上腕リンク42R(L)で、肘関節とハンドとは下腕リンク44R(L)で連結される。
頭部4は、鉛直軸まわりの首関節46およびそれと直交する軸で頭部4を回転させる頭部揺動機構48から構成される。頭部4の内部には、少なくとも2個のCCDカメラ(カメラ。撮像手段)50が、左右に並列してステレオ視(複眼視)自在に取りつけられる。
CCDカメラ50は頭部4に取りつけられると共に、頭部4は首関節46と頭部揺動機構48を介して上体3に取りつけられることから、ロボット1は、頭部4を回転あるいは上下に揺動させつつ、周囲の環境を撮像して得た画像に基づいて認識して移動する。尚、CCDカメラ50はそれぞれ、320×240の画素を備えると共に、水平60度、垂直40度の視野を有する。
ロボット1の説明に戻ると、上記の構成により、脚部リンク2は左右の足について合計12の自由度を与えられ、歩行中にこれらの12個の関節を適宜な角度で駆動することで、足全体に所望の動きを与えることができ、任意に3次元空間を歩行させることができる。また、腕リンク5も左右の腕についてそれぞれ5つの自由度を与えられ、これらの関節を適宜な角度で駆動することで所望の作業を行わせることができる。
尚、足関節の下方の足部22R(L)には公知の6軸力センサ52が取着され、ロボットに作用する外力の中、接地面からロボットに作用する床反力の3方向成分Fx,Fy,Fzとモーメントの3方向成分Mx,My,Mzを示す信号を出力する。
また、上体3には傾斜センサ54が設置され、鉛直軸に対する傾きとその角速度を示す信号を出力する。さらに、各関節の電動モータはその出力を減速・増力する減速機(後述)を介して前記したリンク24,26R(L)などを相対変位させると共に、その回転量を検出するロータリエンコーダ(図3で図示省略)が設けられる。
前記したとおり、格納部6の内部にはマイクロコンピュータからなるECU(電子制御ユニット)60などが収納され、6軸力センサ52などの出力(図示の便宜のためロボット1の右側についてのみ図示する)は、ECU60に送られる。
図4はECU60の構成を詳細に示すブロック図である。図示の如く、ECU60はマイクロコンピュータから構成される。そこにおいて傾斜センサ54などの出力はA/D変換器62でデジタル値に変換され、その出力はバス64を介してRAM66に送られる。また各関節において電動モータに隣接して配置されるエンコーダの出力は、カウンタ68を介してRAM66内に入力される。
ECU60にはCPUからなる演算装置70が設けられ、演算装置70は、ROM72に格納されているデータおよびセンサ出力に基づいて各関節の駆動に必要な制御値(操作量)を算出してD/A変換器74と各関節に設けられたアクチュエータ駆動装置(アンプ)76を介して各関節を駆動する電動モータに出力する。
左右の(2個の)CCDカメラ50がそれぞれ撮像して得た(モノクロームの)画像(出力)は画像処理ECU80に送られ、そこで後述する階段などの多面体の認識を含む画像処理が行われる。画像処理ECU80の出力は、ECU60に入力される。
図示の如く、この実施例に係る多面体認識装置は、CCDカメラ50と、画像処理ECU80を必須の要件として構成される。
図5は、画像処理ECU80の多面体認識動作、即ち、この実施例に係る多面体認識装置の動作を機能的に示すブロック図である。
以下、同図を参照して説明する。
画像処理ECU80は画像入力選択ブロック800を備え、画像入力選択ブロック800は、左右の(2個の)CCDカメラ(ステレオカメラ)50が撮像した画像を入力すると共に、その中で例えば右側のCCDカメラが撮像した画像を選択する。
図6は、CCDカメラ50の撮像環境、即ち、ロボット1が移動する環境を示す説明図である。図示の如く、そこには平面からなる多面体で近似される階段82が存在し、ロボット1は通路(床面)84を階段82に向かって移動しつつあるものとする。通路84の右手には窓86と出入口88が存在する。
ここで、図5に示す処理を概説すると、画像入力選択ブロック800を介して入力された右側のカメラから入力された白黒濃淡画像(図示せず)は線分抽出ブロック802に送られ、そこで公知の微分エッジ抽出オペレータを用いて画像内の濃度変化の大きい画素が抽出され、次いで抽出されたエッジ画素の中、直線状に並んでいるものが接続されて(直線からなる)線分要素(2次元画像情報)が抽出される。図7に抽出された線分要素を示す。
次いで、抽出された線分画像情報は平行線グループ化ブロック804に送られ、そこで抽出された線分群の中から平行線の関係にあって、かつ距離的にも近い線分同士が抽出され、抽出された平行線グループを階段候補領域(前記した所定領域)とされる(選択される)。図8によって得た、A,Bからなる平行線グループを示す。平行線グループ(階段候補領域)も、2次元画像情報(2D画像)として示される。
他方、画像処理ECU80において、左右のCCDカメラ50でステレオ視して得た画像は入力された後、ステレオ画像処理ブロック806に送られ、そこで距離画像(3D画像。より具体的には距離情報を示すテーブルデータ)が得られる(算出される)。得られた距離画像は処理領域設定ブロック808に送られ、そこで前記した階段候補領域(2D画像)に基づいて距離画像上に処理領域が設定される。
処理領域(階段候補領域)の中には窓86の枠など平行線の多い構造物も含まれているため、設定された処理領域(階段候補領域)内の距離画像(3D画像)は3D平面近似ブロック810に送られ、そこで3次元(3D)上の位置としての階段領域が求められる。具体的には、図9に示す如く、処理領域内の(距離画像を構成する)3次元点集合(3D画像データ)に、平面モデル90を当てはめ、その傾きによって階段であるか否か判断する。
よって得られた処理領域内の3次元点集合と、3次元(3D)上の位置として階段領域についての情報は、階段形状認識ブロック812に送られる。
階段形状認識ブロック812は入力した距離画像から、撮像位置(CCDカメラ50の位置)から階段までの距離(図9に示すX方向の距離)が遠いか、あるいは入力画像の解像度が低いか否か判断し、肯定されるときは、処理を打ち切ると共に、然らざる場合、処理領域の3次元点集合(3D画像)に階段モデル92(図10に示す)を当てはめ、階段82の位置および形状(高さ、奥行き)を計算すると共に、階段モデルに一致する3次元点集合の分布から階段82の幅を計測する。
以下、個別に説明する。
平行線グループ化ブロック804の処理について説明すると、抽出された線分集合に対し、あまり水平ではないものは取り除いた後(制約1)、抽出された線分集合から任意の2つを取り出して大体同じ角度(方向)である(制約2)、共通部分が長い(制約3)、距離が近い(制約4)という4つの制約(条件)を満たす組み合わせの線分対を選び出し、繋がりのあるもので集合を作って1つのグループとする。上記で「水平」は、図9のXY平面に平行なことを意味する。
上記で、制約2の大体同じ角度(方向)であるか否かは、角度のずれが第1のしきい値以下か否かで判断する。制約3の共通部分が長いか否かは、図11に示す如く、線分の長さに比して共通部分が長い、即ち、c/l1が第2のしきい値以上か否かで判断する。制約4の距離が近いか否かは、同図の示す如く、線分間の距離d(=(d1+d2)/2)が、線分の長さに比して近い、即ち、d/l1が第3のしきい値以下か否かで判断する。
この第1から第3のしきい値を緩く設定すると、明らかに平行ではない線分や無関係な線分が線分対として選び出され、誤検出が増加する。逆にしきい値を厳しく設定すると、誤検出は減少するものの、必要な階段領域やその一部が処理領域外になる恐れがある。
そこで、この実施例にあっては、第1から第3のしきい値のそれぞれについて2段階の値を設定し、図12に示す如く、最初は厳しい方のしきい値で処理領域を選び、次いで選んだ領域を緩い方のしきい値を使用して拡張するようにした。これにより、階段以外の領域が選択されるのを防止しながら、階段領域を広く含むように処理領域を選択(設定)することができる。
さらに、抽出線分群の中から平行線の関係にある線分を選び出す場合、全ての線分対に対して作業する代わり、次のように予め線分対を分類しておき、検査すべき線分対の数を減らすようにした。即ち、図13に示す如く、画像を大まかにn個(図示例では3個)の領域に分割し、それぞれの線分がどの領域に属するか記録し、同じ領域に属する線分対同士のみを比較する。例えば、領域(1)についていえば、線分(番号)1,2,3,4についてのみ判断すれば足るようにした。これにより、作業能率を向上させることができる。
次いで、3D平面近似ブロック810の処理について説明する。
図8に示すように、平行線分という特徴からだけでは、平行線分を多く持つ窓86などの構造と、階段82との区別をつけ難い。そこで、この実施例においては、3次元形状の特徴を用いて区別することとした。
具体的には、白黒濃淡画像から選択された処理領域(階段領域)内の距離画像を構成する点集合を、図14に示す如く、X,Y,Z空間上の距離データの集合として抽出する。階段82は、段があるために正確には平面ではないが、巨視的には斜め平面とみなすことができる。階段82の段と測定誤差による距離データのばらつきに対処するため、適当な平面モデル当てはめ演算(例えば最小二乗法)によって前記した平面モデル90を当てはめ、その傾きを求める。
図15は、理解の便宜のため、図14の視点V0からXZ平面に投影した場合の図を示す。測定した各々の3次元点集合は階段形状と測定誤差のため、図示のようにばらついているが、近似平面との距離ei(i=1...n)が何らかの意味で小さくなるような平面モデル90のパラメータを計算する。
上記によって、図9に示す如く、当てはめられた平面モデル90の傾きを調べることで、階段と、窓あるいは壁(の模様)などを容易に区別することができる。
次いで、階段形状認識ブロック812の処理を説明する。
先ず、図10に示す、前記した階段モデル92を設定する。階段モデル92は水平と垂直の2つの平面で1段が構成され、それを単位として接続されて複数段が構成される。1段の高さと奥行きは可変とし、幅は無限の長さを仮定する。
3D平面近似ブロック810の処理と同様、この階段モデルを3次元点集合に当てはめ、最も一致する位置、方向、高さ、奥行きを階段として認識する。ところが、位置3自由度、回転3自由度、高さと奥行き2自由度を合計すると8自由度となり、8自由度では最小化によるモデル当てはめ問題として扱うためには自由度が多すぎるので、次のように問題を分割する。
即ち、図16に示すように、階段位置の3次元点集合を切断面に投影して取り出すようにした。具体的には、床面に垂直な複数の平面(XZ平面)を用い、ある間隔で3次元点集合を切断し、平面に近い3次元点集合を集める。図17に集められた切断面の点集合を示す。
これらの点集合はほぼ2次元データとみなすことができるので、それに対して2次元階段モデル(切断モデル)94を当てはめる。図18に示すように、データ点から階段モデルに最も近い点までの距離e2i(i=1...n)を測定点1点に対する誤差と考え、適当な意味での誤差の合計を、例えば最小二乗法を用いて最小にするようにモデルを収束させる。2次元階段モデル94は位置2自由度、回転1自由度、高さと奥行き2自由度の合計5自由度であって、モデルへの当てはめも、現実の空間ではなく、2次元平面でなされるので、現実的な時間で計算することができる。
この場合、漸近的にモデルにデータを当てはめていく手法なので、適当な初期値の設定が必要である。そこで、大まかな段の位置と間隔を推定するため、図17の切断面データを水平および垂直方向に投影し、それぞれのヒストグラムを作成する。
図19に、よって得たヒストグラムを示す。段のある位置には多くのデータ点があるので、ヒストグラムにはピークができ、そのピークは高さや奥行きと同じ周期になる筈である。そこで、図19の垂直軸に示すように周期的なウインドウを設定し、位置と周期を変えながら、ウインドウ内のヒストグラムの和が最も大きくなる位置を段の位置、周期を1段の高さとする。横方向の位置と奥行きについても同様である。
尚、垂直の壁を持たない階段の場合、図19の水平軸はヒストグラムのピークを持たないので、図20に示す如く、データ点列に直線を当てはめ、その傾きをα、図19に関して述べた垂直ヒストグラムから求めた高さをhとすると、奥行きdは、d=h/α、で求めることができる。
上記のようにして求めた複数の切断面形状から、凸頂点と凹頂点を選び出し、同じ高さを持つ頂点を接続することで、図21に示す如く、階段82の位置と形状を求めることができる。
尚、階段82の幅については、3次元点集合の中から当てはめた平面モデル90(図14などに関して説明)に十分近い点集合を選び出し、孤立点などのノイズを除去して求める。
この実施例は上記の如く構成したので、撮像位置や撮像距離の影響を受け難いと共に、階段の形状を細部まで精度良く認識できると共に、位置も認識することができる。
即ち、階段82を認識するために平行線は有力な特徴であるが、ロボット1が移動する事務所や家庭などの人工的な環境では、他にも直線や平行線を持つ特徴や、組み合わせによって平行線となってしまう直線構造が多数存在する。また、3次元の斜面形状は階段の特徴ではあるが、モデルマッチングによる形状認識がうまく働くためには、処理範囲をできるだけ限定することが必要である。何故ならば、一般に3次元形状の認識は処理コストが大きいことに加え、処理領域内に複数の平面からなる物体などを含むと、モデルマッチング処理の際、相互にノイズとなって良好な処理結果が得られないからである。
そこで、2次元的な画像処理(平行線のグループ化)によって処理範囲を限定すると共に、ステレオ視して得た距離画像(距離情報、より具体的には距離情報を示すテーブルデータ)について平面モデルと階段モデルを用いた3次元モデルマッチングによって限定された領域を詳細に評価するようにした。
即ち、処理領域を可能な限り限定するようにしたので、撮像位置や撮像距離の影響を受け難い利点を備えると共に、限定された処理領域を3次元モデルマッチングで詳細に評価するようにした。これによって、CCDカメラ50の精度に応じて階段の細部の形状および位置を効率良く認識、換言すれば、CCDカメラ50の備える精度の限界の精度まで階段の細部の形状および位置を認識することができる。
従って、ロボット1に搭載するときも、移動空間内の通路84に存在する階段82の位置および形状を良く認識することができる。
このように、この実施例においては、撮像手段から入力した画像に基づいて階段82などの多面体の形状を認識する多面体認識装置(画像処理ECU80)において、前記撮像手段としての少なくとも1個のカメラ(CCDカメラ50)と、前記カメラが撮像した画像の中の平行線グループからなる所定の領域(階段候補領域)を選択する領域選択手段(線分抽出ブロック802、平行線グループ化ブロック804)と、前記カメラで得た画像から距離画像(距離情報、より具体的には距離情報を示すテーブルデータ)を得ると共に、前記選択された領域に基づいて前記得た距離画像上に処理領域を設定する処理領域設定手段(処理領域設定ブロック808)と、および前記設定された処理領域内の前記距離画像に基づいて前記多面体の形状を認識する多面体形状認識手段(3D平面近似ブロック810、階段形状認識ブロック812)とを備える如く構成した。
上記で、前記撮像手段として少なくとも2個のカメラ(CCDカメラ50)を備え、前記領域選択手段は前記2個のカメラのいずれかが撮像した画像の中から前記所定の領域(階段候補領域)を選択すると共に、前記処理領域設定手段は前記2個のカメラでステレオ視して得た画像から前記距離画像を得る如く構成した。
上記で、前記領域選択手段(より具体的には、その中の平行線グループ化ブロック804)は、前記撮像した画像から所定長さ以上の線分群を抽出し、前記抽出した線分群の位置に基づいて前記所定の領域を選択する如く構成した。
また、前記領域選択手段(より具体的には、その中の平行線グループ化ブロック804)は、前記抽出した線分群の中、互いに平行となる線分群であって、かつ距離的に接近する線分群の位置に基づいて前記所定の領域を選択するように構成した。
また、前記多面体形状認識手段は、前記処理領域内の前記距離画像を構成する点集合を3次元空間(X,Y,Z空間)上の距離データの集合として抽出し、前記抽出した点集合に基づいて前記多面体の形状を認識するように構成した。
また、前記多面体が階段82であると共に、前記多面体形状認識手段は、前記抽出した点集合を傾斜平面とみなし、その近似平面、より具体的には平面モデル90を求めることで前記階段の形状を認識する如く構成した。
また、前記多面体が階段であると共に、前記多面体形状認識手段は、前記抽出した点集合を垂直面(XZ平面)に切断し、切断面の点集合と2次元モデル94との誤差に基づいて前記階段の形状を認識する如く構成した。
尚、上記した実施例において、モデル94で求めた階段位置を初期値として図10の階段モデル92を、図16の全ての階段領域内の3次元点集合に当てはめると、階段82のより正確な位置と形状を求めることができる。その場合には断面データへの処理で真値に近い初期値を設定することができるので、現実的な計算量で収束させることができる。
また、2個のカメラでステレオ視して得た3次元画像から距離画像を得るように構成したが、3DV SYSTEMS社(米国)のZcam(商標)などの距離計測手法を用い、1個のカメラで距離画像を得るようにしても良い。請求項1で「少なくとも1個のカメラ」と記載したのは、そのためである。
さらに、多面体の例として階段82を挙げたが、それに限定されるものではなく、踏台などであっても良い。
さらに、階段82の例として通常の階段を挙げたが、螺旋階段であっても良い。その場合は、前記した平行線グループ化ブロック804において、平行線に代え、規則的なずれ角をもって変化する線分群を抽出して処理領域を設定すると共に、3D平面近似ブロック810では適宜なモデルを使用することになる。
さらに、この実施例に係る多面体認識装置を脚式移動ロボットに搭載した場合を例にとって説明したが、この実施例に係る多面体認識装置は、CCDカメラ(撮像手段)50と画像処理ECU80があれば足り、脚式移動ロボットは必須の要件ではない。
さらには、この実施例に係る多面体認識装置を他の装置に搭載する場合も、脚式移動ロボット、車輪式移動ロボット、クローラ式の移動ロボットなどのロボットに限られるものではなく、車両などの移動体であっても良い。また、その移動体も、有人であると、無人であると、問うものではない。
この発明の一つの実施例に係る多面体認識装置が搭載される、脚式移動ロボットの正面図である。 図1に示す脚式移動ロボットの側面図である。 図1に示す脚式移動ロボットの内部構造を関節を中心に全体的に示す概略図である。 図3に示す脚式移動ロボットのECU(電子制御ユニット)の詳細を、搭載される、この実施例に係るCCDカメラおよび画像処理ECUからなる多面体認識装置も含めて示すブロック図である。 図4に示す、画像処理ECU80によって行われる、この実施例に係る多面体認識装置の動作あるいは処理を機能的に示すブロック図である。 図4に示すCCDカメラの撮像環境を示す説明図である。 図5の線分抽出ブロックによって抽出された線分要素(画像)を示す説明図である。 図5の平行線グループ化ブロックによって得られた平行線グループを示す説明図である。 図5の3D平面近似ブロックの動作を示す説明図である。 図5の階段形状認識ブロックが用いる階段モデルを示す説明図である。 図5の平行線グループ化ブロックの処理を示す説明図である。 同様に、図5の平行線グループ化ブロックの処理を示す説明図である。 同様に、図5の平行線グループ化ブロックの処理を示す説明図である。 図5の3D平面近似ブロックの動作を示す説明図である。 同様に、図5の3D平面近似ブロックの動作を示す説明図である。 同様に、図5の3D平面近似ブロックの動作を示す説明図で、階段位置の3次元点集合から切断面を取り出す作業を示す説明図である。 図16の処理によって得られる切断面の点集合を示す説明図である。 図17に示す切断面のデータ点と2次元階段モデルへの当てはめを示す説明図である。 図16などの処理で必要な初期値を決定するために使用されるヒストグラムの説明図である。 図19と同様な、図16などの処理で必要な初期値の決定を示す説明図である。 図16などの処理によって認識される、階段の位置と形状を示す説明図である。
符号の説明
1 脚式移動ロボット(ロボット)、2 脚部リンク、3 上体、5 腕リンク、50CCDカメラ(カメラ、撮像手段)、60 ECU(電子制御ユニット)、80 画像処理ECU、82 階段(多面体)、84 通路、86 窓、90 平面モデル、92 階段モデル、802 線分抽出ブロック、804 平行線グループ化ブロック、808 処理領域設定ブロック、810 3D平面近似ブロック、812 階段形状認識ブロック

Claims (7)

  1. 撮像手段から入力した画像に基づいて階段などの多面体の形状を認識する多面体認識装置において、前記撮像手段としての少なくとも1個のカメラと、前記カメラが撮像した画像の中の平行線グループからなる所定の領域を選択する領域選択手段と、前記カメラで得た画像から距離画像を得ると共に、前記選択された領域に基づいて前記得た距離画像上に処理領域を設定する処理領域設定手段と、および前記設定された処理領域内の前記距離画像に基づいて前記多面体の形状を認識する多面体形状認識手段とを備えることを特徴とする多面体認識装置。
  2. 前記撮像手段として少なくとも2個のカメラを備え、前記領域選択手段は前記2個のカメラのいずれかが撮像した画像の中から前記所定の領域を選択すると共に、前記処理領域設定手段は前記2個のカメラでステレオ視して得た画像から前記距離画像を得ることを特徴とする請求項1記載の多面体認識装置。
  3. 前記領域選択手段は、前記撮像した画像から所定長さ以上の線分群を抽出し、前記抽出した線分群の位置に基づいて前記所定の領域を選択することを特徴とする請求項1または2記載の多面体認識装置。
  4. 前記領域選択手段は、前記抽出した線分群の中、互いに平行となる線分群であって、かつ距離的に接近する線分群の位置に基づいて前記所定の領域を選択することを特徴とする請求項3記載の多面体認識装置。
  5. 前記多面体形状認識手段は、前記処理領域内の前記距離画像を構成する点集合を3次元空間上の距離データの集合として抽出し、前記抽出した点集合に基づいて前記多面体の形状を認識することを特徴とする請求項1から4のいずれかに記載の多面体認識装置。
  6. 前記多面体が階段であると共に、前記多面体形状認識手段は、前記抽出した点集合を傾斜平面とみなし、その近似平面を求めることで前記階段の形状を認識することを特徴とする請求項5記載の多面体認識装置。
  7. 前記多面体が階段であると共に、前記多面体形状認識手段は、前記抽出した点集合を垂直面で切断し、切断面の点集合と2次元モデルとの誤差に基づいて前記階段の形状を認識することを特徴とする請求項5または6記載の多面体認識装置。
JP2004367973A 2003-12-23 2004-12-20 多面体認識装置 Expired - Fee Related JP4511919B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/743,299 US7653216B2 (en) 2003-12-23 2003-12-23 Polyhedron recognition system

Publications (2)

Publication Number Publication Date
JP2005182826A JP2005182826A (ja) 2005-07-07
JP4511919B2 true JP4511919B2 (ja) 2010-07-28

Family

ID=34678632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004367973A Expired - Fee Related JP4511919B2 (ja) 2003-12-23 2004-12-20 多面体認識装置

Country Status (2)

Country Link
US (1) US7653216B2 (ja)
JP (1) JP4511919B2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9959463B2 (en) 2002-02-15 2018-05-01 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
US10242255B2 (en) 2002-02-15 2019-03-26 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
WO2005088244A1 (ja) * 2004-03-17 2005-09-22 Sony Corporation 平面検出装置、平面検出方法、及び平面検出装置を搭載したロボット装置
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
US7660307B2 (en) 2006-06-29 2010-02-09 Verint Americas Inc. Systems and methods for providing recording as a network service
ATE422185T1 (de) * 2006-08-24 2009-02-15 Harman Becker Automotive Sys Verfahren zum abbilden der umgebung eines fahrzeugs und system dafür
US7916935B2 (en) * 2006-09-19 2011-03-29 Wisconsin Alumni Research Foundation Systems and methods for automatically determining 3-dimensional object information and for controlling a process based on automatically-determined 3-dimensional object information
US8116519B2 (en) * 2007-09-26 2012-02-14 Honda Motor Co., Ltd. 3D beverage container localizer
JP5104355B2 (ja) * 2008-02-01 2012-12-19 富士通株式会社 ロボット制御装置、ロボット制御方法およびロボット制御プログラム
US8265425B2 (en) * 2008-05-20 2012-09-11 Honda Motor Co., Ltd. Rectangular table detection using hybrid RGB and depth camera sensors
JP5284923B2 (ja) * 2009-10-28 2013-09-11 本田技研工業株式会社 脚式移動ロボットの制御装置
JP5623362B2 (ja) * 2011-09-28 2014-11-12 本田技研工業株式会社 段差部認識装置
KR101820299B1 (ko) 2011-11-23 2018-03-02 삼성전자주식회사 3차원 데이터 영상의 계단 인식 방법
JP2015175664A (ja) * 2014-03-13 2015-10-05 三菱重工業株式会社 地形判断装置、及び脚式移動ロボット
JP7189620B2 (ja) * 2017-05-24 2022-12-14 Groove X株式会社 天球画像の歪みを補正する画像処理装置とそれを備えるロボット
US11548151B2 (en) 2019-04-12 2023-01-10 Boston Dynamics, Inc. Robotically negotiating stairs
US11599128B2 (en) 2020-04-22 2023-03-07 Boston Dynamics, Inc. Perception and fitting for a stair tracker
CN110245701A (zh) * 2019-06-11 2019-09-17 云南电网有限责任公司曲靖供电局 一种基于无人机航拍图像的电力线检测方法
US12094195B2 (en) 2020-04-20 2024-09-17 Boston Dynamics, Inc. Identifying stairs from footfalls
US12077229B2 (en) 2020-04-22 2024-09-03 Boston Dynamics, Inc. Stair tracking for modeled and perceived terrain
CN111652897A (zh) * 2020-06-10 2020-09-11 北京云迹科技有限公司 一种基于机器人视觉的边缘定位方法及装置
JP2022161328A (ja) * 2021-04-08 2022-10-21 ソニーグループ株式会社 情報処理システム、情報処理装置および情報処理方法
CN114663775B (zh) * 2022-05-26 2022-08-12 河北工业大学 一种用于外骨骼机器人使役环境中楼梯识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05297940A (ja) * 1992-04-15 1993-11-12 Honda Motor Co Ltd 移動体の現在位置認識処理装置
JP2000353242A (ja) * 1999-06-11 2000-12-19 Nec Corp 人工物領域検出装置及び方法並びに記録媒体
JP2002032759A (ja) * 2000-07-19 2002-01-31 Mitsubishi Electric Corp 監視装置
JP2003269917A (ja) * 2002-03-15 2003-09-25 Sony Corp 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3192736B2 (ja) * 1992-02-10 2001-07-30 本田技研工業株式会社 移動体の階段などの認識方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05297940A (ja) * 1992-04-15 1993-11-12 Honda Motor Co Ltd 移動体の現在位置認識処理装置
JP2000353242A (ja) * 1999-06-11 2000-12-19 Nec Corp 人工物領域検出装置及び方法並びに記録媒体
JP2002032759A (ja) * 2000-07-19 2002-01-31 Mitsubishi Electric Corp 監視装置
JP2003269917A (ja) * 2002-03-15 2003-09-25 Sony Corp 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置

Also Published As

Publication number Publication date
US7653216B2 (en) 2010-01-26
US20050135680A1 (en) 2005-06-23
JP2005182826A (ja) 2005-07-07

Similar Documents

Publication Publication Date Title
JP4511919B2 (ja) 多面体認識装置
JP4080932B2 (ja) 2足歩行ロボットの制御装置
US8761925B2 (en) Robot and method of building map therefor
JP4564447B2 (ja) 自律移動ロボット
JP4645601B2 (ja) 環境地図の生成方法及び移動ロボット
US5378969A (en) Navigation control system for mobile robot
JP4506685B2 (ja) 移動型ロボット
US7254253B2 (en) Moving object detection system
EP1975046B1 (en) Legged locomotion robot
JP2009096335A (ja) 脚型ロボット
EP1717547B1 (en) Method and device for determining the alignment of the wheels of a vehicle
KR100501093B1 (ko) 2족 보행 로봇
JP2006277076A (ja) 画像インターフェイス装置
KR20130078913A (ko) 물체 인식 방법과, 물체 인식을 위한 기술자 생성 방법, 물체 인식을 위한 기술자
JP2015175664A (ja) 地形判断装置、及び脚式移動ロボット
JP2009050936A (ja) 干渉判定装置および脚車輪型ロボット
JP4849178B2 (ja) 移動型ロボット
JP2003311670A (ja) ロボットアームの位置制御方法およびロボット装置
JP2009006984A (ja) 脚車輪型ロボット
JP2010005718A (ja) 脚式ロボット
JP2005014108A (ja) 多関節ロボットの干渉回避方法
JP2008260117A (ja) 脚車輪型ロボット及び脚車輪装置
JP3192736B2 (ja) 移動体の階段などの認識方法
JP2009006466A (ja) 脚車輪型ロボット
JP2003200377A (ja) ロボット,ロボットによる測距方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100507

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4511919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees