JP2001250122A - 物体の位置姿勢決定処理方法およびそのためのプログラム記録媒体 - Google Patents

物体の位置姿勢決定処理方法およびそのためのプログラム記録媒体

Info

Publication number
JP2001250122A
JP2001250122A JP2000059782A JP2000059782A JP2001250122A JP 2001250122 A JP2001250122 A JP 2001250122A JP 2000059782 A JP2000059782 A JP 2000059782A JP 2000059782 A JP2000059782 A JP 2000059782A JP 2001250122 A JP2001250122 A JP 2001250122A
Authority
JP
Japan
Prior art keywords
model
vector
points
orientation
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000059782A
Other languages
English (en)
Inventor
Susumu Sekino
進 関野
Koichi Yoshida
耕一 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2000059782A priority Critical patent/JP2001250122A/ja
Publication of JP2001250122A publication Critical patent/JP2001250122A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 モデルの3次元空間における位置姿勢を決定
する際に,計算の冗長性を大幅に削減し,物体の認識処
理の高速化を可能にする。 【解決手段】 距離画像から得られている特徴点を利用
することにより,モデルの特徴点とのマッチング処理に
よって位置姿勢を決定する際に,モデルとシーン上の対
応する線分nm ,ns に対し,モデル上にある参照ベク
トルrm を設定し,ns ・rs =nm ・rm を満たすよ
うにrs をとり,この参照ベクトルrs をns の周りに
120度刻みで360度回転させることにより,得られ
る3点の軌跡から変位ベクトルTの投票空間における円
の中心と半径とを求め,これをすべての特徴点の組み合
わせについて求めた円の中心と半径とから,投票空間上
での集積点を検出し,モデルのシーン上での位置姿勢を
決定するパラメータである変位ベクトルTと回転行列R
を決定する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は,3次元画像計測技
術に関するもので,詳しくは3次元空間上での物体の位
置姿勢を決定する方法に関するものである。ここでいう
距離画像とは,それぞれの画素に対応する撮影対象物体
上の1点の3次元座標が格納されたデータセットのこと
を意味している。
【0002】
【従来の技術】3次元画像計測および認識は,部品の組
み立てなど,工場の生産ラインで用いられることを想定
したような応用に対して必要性が強く求められている。
例えば,産業用ロボットの視覚としては,立体形状に基
づく機構部品の識別やマニピュレータに対象物をつかま
せるために必要な対象物の位置・姿勢の計測,また自立
移動ロボットの視覚としては,衝突回避のための前方障
害物監視や移動経路決定などである。そのため,コンピ
ュータビジョンの計算機科学としての流れ,生産工程の
自動化の制御工学としての流れ,高速・高精度・非接触
な形状計測を望む計測工学としての流れなど,複雑に絡
み合いながら研究開発の取り組みがなされている。
【0003】物体の位置姿勢を決定する方法の一つに,
距離画像の処理と物体の認識の2つのステップを踏んで
行うものがある。本発明は,このタイプの認識に関する
もののうち,物体の認識の部分に関するものである。
【0004】この物体の認識の部分に関して,システム
によって保持される3次元幾何モデルに対応する物体の
シーン中からの検出とその位置姿勢決定のための3次元
物体認識方法は,次の2種類に大別される。
【0005】一つは,単眼のカメラからの入力画像から
抽出した2次元特徴を利用し,物体モデルと対応づける
ことによって物体の位置姿勢を推定する方法である。し
かし,3次元物体の位置姿勢を2次元画像上の特徴から
推定するため,複雑なシーンを扱う場合,照合のための
探索空間が膨大になる。そのため,この方法は,位置姿
勢に関するパラメータの検出時間が長くなってしまうと
いう問題がある。
【0006】また,2次元画像においては,物体上に照
射される光の状況と物体表面の状況によっては,物体の
表面に鏡状になる鏡面反射が生じてしまい,2次元画像
上からの3次元情報の取得を困難にしてしまうという間
題がある。また,2次元の濃淡やカラー画像から特徴点
を決定すると,物体表面上に鏡面反射や陰影等が生じて
いてエッジ部分の検出が画像からでは難しい場合があ
る。
【0007】もう一つは,シーンと物体モデルの照合に
3次元幾何特徴を利用する方法である。本発明もこの3
次元幾何特徴を利用する方法を用いる。しかし,この方
法でベースとなっている従来の位置姿勢パラメータの決
定法では,モデル上の特徴点と,距離画像上の特徴点と
の対応から位置姿勢パラメータを決定する際に行う計算
が非常に膨大な量となって,実用的ではない。以下で示
す Gongzhuの手法("3-D Object Matching in the Houg
h Space", Gongzhu Hu, Proc. Int. Conf. onIEEE Syst
ems, Man, and Cybernetics, pp.2718-2723, 1995)
は,本発明のベースにもなっているので,以下に詳細に
記す。
【0008】[Gongzhu の手法とその問題点]モデルと
シーンの表示には,3つの座標系を考える。これらの3
つの座標系を,グローバル座標系Σ(=XYZ),モデ
ル座標系Σm (=Xm m m )(グローバルXYZと
一致),撮影された対象の座標系であるシーン座標系Σ
s (=Xs s s )とする。
【0009】em :モデルのエッジ es :シーンのエッジ rm :モデルの参照ベクトル rs :シーンの参照ベクトル 認識対象のモデルは,形状が表面の直線エッジといった
線分によって表現できるものを考える。各エッジはベク
トルによって表現できる。シーン中の対象に対しても,
形状が線分によって定義されるものとする。任意に選ば
れた参照ベクトルをモデルに加える。
【0010】この参照ベクトルについて簡単に説明す
る。モデル空間上のベクトルem とシーン空間上のベク
トルes とを考える。ベクトルem の長さと,ベクトル
s の長さとは同じとする。モデル空間上のベクトルe
m に対して,参照ベクトルrmを考える。この参照ベク
トルrm は,モデル空間上に任意に取られるものである
が,モデル空間上でem とrm の2ベクトルから三角形
が構成されるようにとる。このとき,シーン空間上にe
m とrm によって構成される三角形と合同となるよう
に,es に対してrs を取ることにより,em をes
写像する回転行列を確定することができる。このとき,
s の取り方は,es を軸にして360度回転分の自由
度がある。rm とrs とは長さは同じである。
【0011】以上のようなエッジのベクトルと参照ベク
トルとの関係を利用して,物体の位置姿勢を確定するパ
ラメータを決めるため,モデル座標系のモデルの各エッ
ジベクトルem と任意に取った参照ベクトルrm との内
積di =em ・rm を考える。em とes とがマッチす
るなら,rm ・em =rs ・es =di である。すなわ
ち,rs はdi とes に拘束される。このとき,シーン
中のrs が決まるなら,回転行列を決定することができ
る。シーン中のモデルのエッジに対し参照ベクトルの座
標を決めると,モデル座標系上でのモデルの座標を,シ
ーン座標系上でのモデルの座標へ変換するための変換行
列である変位ベクトルTと回転行列Rとを,決定するこ
とができる。rs は,内積rs ・es の値を等しくした
まま,その座標としてes の円錐の表面の縁に沿うこと
は明らかである。したがって,シーン中での参照ベクト
ルのとり方は,図3のようにエッジベクトルes との挟
角を一定に保ちながら,エッジベクトルes の周りに3
60度回転分の自由度があるが,360度のどの角度で
参照ベクトルをとっても,変換行列は容易に計算され
る。
【0012】ここで,モデル座標系の点pm を,シーン
座標系の点ps と変位ベクトルTと回転行列Rで表現す
る方法について述べ,その変位ベクトルTと回転行列R
の導出法の例をあげる。モデル座標系から3点pm1,p
m2,pm3を選び,この3点から決まる三角形と合同な三
角形を構成するようにシーン座標系の3点ps1,ps2
s3をとる。モデル座標系の3点pm1,pm2,pm3から
なる2ベクトルをnm(=pm2−pm1)とrm (=pm3
−pm1)とする。シーン座標系の3点からなる2ベクト
ルをns (=ps2−ps1)とrs (=ps3−ps1)とす
る。モデル座標系とシーン座標系との間に,Rを回転行
列,Tを変位ベクトルとし, ps =R・pm +T なる関係があるとし,モデル座標系のx座標軸上の単位
ベクトルの点をxm =(1,0,0)とし,対応するシ
ーン座標系の点をxs =(a,b,c)としたとき, es ・xs =em ・xm =d1s ・xs =rm ・xm =d2 なる内積関係があり,かつ a2 +b2 +c2 =1 となる。ここで,es =(rx ,ry ,rz )とし,r
s =(nx ,ny ,nz)とする。
【0013】rx ・a+ry ・b+rz ・c=d1x ・a+ny ・b+nz ・c=d22 +b2 +c2 =1 から,3つの未知パラメータに対して,3方程式が得ら
れた(ys ,zs についても同様)。これからaについ
ての2次方程式,bについての2次方程式,cについて
の2次方程式から,それぞれ2つずつの解が得られる
が,外積で与えられる座標系の束縛条件zs =xs ×y
s なる条件を用いて,不適解の削除を行うことにより, R=(xs ,ys ,zs ) なる解を得る。そして, T=ps −R・pm なる関係から,残りのTが決定される。以上から,モデ
ルの3点に対応するシーン上の3点を決めることによっ
て,変位ベクトルTと回転行列Rとを決定することがで
き,これによって物体の位置姿勢を表現することができ
る。
【0014】モデル座標系のエッジとシーン座標系上で
の対応するエッジとの対応において,モデル座標系の参
照ベクトルに対応するシーン座標系の参照ベクトルは,
シーン座標系上のエッジの周りに360度回転分の自由
度があるが,1度刻みで360度回転させ,そのとき求
められる回転行列Rを利用して,変位ベクトルT=p s
−R・pm を得る。この置換は,置換パラメータを表現
する3次元投票空間(Hough空間)中の1票とする。計算
された変位ベクトルTは,モデル座標系とシーン座標系
のすべてのエッジのマッチングに対して,これらの操作
を行う。計算された変位ベクトルの3つのパラメータ
(Δx,Δy,Δz)を表記する3次元投票空間上で
は,モデル座標系のエッジem とシーン座標系のエッジ
s の組み合わせに対して,投票座標は3次元投票空間
で円の軌跡を作る。3次元投票空間の投票値の高いもの
が置換を決定する。そのときこの置換をつくる回転行列
は,正しい回転行列として選出される。
【0015】この3次元投票空間上で,最も高い投票が
行われた変位ベクトルTが,正しい変換を示す。3次元
投票空間で高い投票を見つけるためには,投票空間をk
×k×k(実験ではk=5を使った。)の正方体箱で満
たす,もっとも多くカウントされた位置が置換パラメー
タを表現する。
【0016】以上の手順により,変位ベクトルTの投票
空間を利用して,位置姿勢を決定するパラメータである
変位ベクトルTと回転行列Rを決定するアルゴリズムが
Gongzhuの手法であるが, Gongzhuの手法では,このよ
うに,シーン座標系でのエッジとモデル座標系でのエッ
ジとの対応ごとにおける,モデル座標系の参照ベクトル
に対応するシーン座標系の参照ベクトルにおいて,36
0度の自由度があるが,ここで1度刻みで360度回転
させ,その都度,回転行列Rや変位ベクトルTの計算と
いったことをするため,複雑な図形では膨大な計算を要
し,計算機の負荷が大きい。
【0017】
【発明が解決しようとする課題】上記の位置姿勢のパラ
メータを決定する方法では,不要な位置姿勢パラメータ
の導出に大きな時間をとることになり,さらに特徴点の
すべてに対し,すべての位置姿勢のパラメータを導出す
ることは,計算時間の大幅な増加と計算機の資源に多大
な負荷をかけてしまうという問題がある。このため,従
来の位置姿勢決定方法は,物体の認識(位置姿勢パラメ
ータの決定)に時間がかかり,工場の生産ラインへの応
用などの実用化に耐えない。本発明は,以上の問題点の
解決を図り,物体の認識の実行速度を高速化することを
目的とする。
【0018】
【課題を解決するための手段】本発明は,モデル座標系
の特徴点をpm ,シーン座標系の対応する点をps
し,モデル座標系とシーン座標系との間に,Rを回転行
列,Tを変位ベクトルとして, ps =R・pm +T なる関係があるとき,モデルの3次元空間における位置
姿勢を決定するパラメータである変位ベクトルTと回転
行列Rの各要素を確定する方法である。
【0019】本発明では,高速化を実現するために,光
パルスを対象に照射し,反射して帰ってくるまでの時間
を計測して距離を求めるなど能動的に距離画像を取得
し,その特徴を利用することにより,物体の位置姿勢認
識を行う。処理は,距離画像からの特徴点抽出処理の段
階と,距離画像から得られた特徴点からモデルの特徴点
とのマッチング処理による位置姿勢認識の段階の2段階
のうち後者の部分に関するものである。本発明は,距離
画像から得られている特徴点を利用することにより,モ
デルの特徴点とのマッチング処理によって位置姿勢認識
を行うものである。
【0020】認識処理における距離画像から得られた特
徴点とモデルの特徴点とのマッチングを行う段階では,
距離画像より得られた特徴点とモデルの特徴点とからそ
れぞれ任意の2点を抽出し,それぞれの2点から構成さ
れる線分の合致性をチェックする。合致である場合に
は,モデル上にある参照ベクトルrm を設定し,ns
s =nm ・rm を満たすようにrs をとるが,このと
き参照ベクトルをns の周りに120度刻みで360度
回転させることにより,得られる3点の軌跡から円の中
心と半径とを求め,これをすべての特徴点の組み合わせ
について求めた円の中心と半径とから,投票空間上での
集積点を検出し,モデルのシーン上での位置姿勢を決定
するパラメータである変位ベクトルTと回転行列Rの組
み合わせを,位置姿勢を決定するパラメータとして確定
する。
【0021】以上の各処理をコンピュータによって実現
するためのプログラムは,コンピュータが読み取り可能
な可搬媒体メモリ,半導体メモリ,ハードディスクなど
の適当な記録媒体に格納することができる。
【0022】
【発明の実施の形態】図1は,本発明を実施する装置の
構成図である。物体の位置姿勢決定装置1は,CPUお
よびメモリ等からなり,認識対象物体の距離画像を記憶
する距離画像記憶部2,距離画像から特徴点を抽出する
特徴点抽出部3,認識対象のモデルデータを記憶するモ
デルデータ記憶部4,および距離画像から得られた特徴
点を利用することにより,モデルの特徴点とのマッチン
グ処理によって位置姿勢をあらわす変位ベクトルTと回
転行列Rの確定を行う位置姿勢確定部5とを備える。
【0023】本発明は,特に図1に示す位置姿勢確定部
5,すなわち認識位置姿勢をあらわす変位ベクトルTと
回転行列Rを確定する部分に関するものである。特徴点
抽出部3の処理については,従来から行われている処理
と同様でよく,よく知られている技術であるので,ここ
での詳細な説明は省略する。
【0024】図2は,図1に示す位置姿勢確定部5の処
理フローチャートであり,本発明の全体の流れを示す。
これは,シーン中からの特徴点を利用したシステム内部
のモデルの認識処理を行う部分の処理である。ここでの
「シーン」とは,入力装置での座標系上で定義される距
離画像のことである。
【0025】図3は,従来技術であるGongzhu の手法の
説明図である。図4は,本発明による方法の特徴を説明
するための図である。図5は,投票空間における投票方
法を説明するための図である。
【0026】以下,図2に示すフローチャートに従っ
て,本発明の実施の形態を説明する。まず,図2のステ
ップS1では,モデルの特徴点から選んだ2点からなる
エッジと,距離画像(シーン)上の特徴点から選んだ2
点からなるエッジとが,どの程度合致するかの判定を行
う。
【0027】モデルの座標系から2点pm1,pm2を選
び,この2点から決まる線分の写像とみなせるシーン座
標系の2点ps1,ps2を検出する。本実施の形態では, |pm1−pm2|×0.9 <|ps1−ps2|<|pm1−pm2
|×1.1とした。
【0028】次に,モデル座標系の2点pm1,pm2から
なるベクトルをem (=pm2−pm1),モデル座標系に
任意に選んだ参照ベクトルをrm とし,d=em ・rm
を考える。シーン座標系の2点からなるベクトルで,か
つem の写像とみなせるベクトルをes (=ps2
s1)とし,d=es ・rs となるようにrs をシーン
座標系にとる。そして,このようにモデル座標系のエッ
ジベクトルem と,対応するシーン座標系のエッジベク
トルes ,モデル座標系上の参照ベクトルrm と,対応
するシーン座標系上の参照ベクトルrs とが決まると,
変換を示す回転行列Rと変位ベクトルTを計算すること
ができる。
【0029】この計算方法について説明する。モデル座
標系とシーン座標系との間に,Rを回転行列,Tを変位
ベクトルとし, ps =R・pm +T なる関係があるとすると,モデル座標系のx座標軸上の
単位ベクトルの点をxm =(1,0,0)とし,対応す
るシーン座標系の点をxs =(a,b,c)としたと
き, rs ・xs =rm ・xm =d1s ・xs =em ・xm =d2 なる内積関係があり,かつ a2 +b2 +c2 =1 となる。ここで,rs =(rx ,ry ,rz )とし,e
s =(nx ,ny ,nz)とする。
【0030】rx ・a+ry ・b+rz ・c=d1x ・a+ny ・b+nz ・c=d22 +b2 +c2 =1 から,3つの未知パラメータに対して,3方程式が得ら
れることになる。
【0031】同様に,モデル座標系のy座標軸上の単位
ベクトルの点をym =(0,1,0)とし,対応するシ
ーン座標系の点をys としたとき,およびモデル座標系
のz座標軸上の単位ベクトルの点をzm =(0,1,
0)とし,対応するシーン座標系の点をzs としたとき
にも,それぞれ3方程式が得られる。
【0032】上記3つの未知パラメータa,b,cにつ
いて,方程式を解くと,aについての2次方程式,bに
ついての2次方程式,cについての2次方程式から,そ
れぞれ2つづつの解が得られるが,外積で与えられる座
標系の束縛条件zs =xs ×ys なる条件を用いて,不
適解の削除を行うことにより, R=(xs ,ys ,zs ) として求めることができる。そして, T=ps −R・pm なる関係から,残りのTが決定される。
【0033】以上から,モデルの3点に対応するシーン
上の3点を決めることによって,変位ベクトルTと回転
行列Rとを決定することができ,これによって,物体の
位置姿勢を表現することができる。
【0034】モデル座標系のモデルの各エッジベクトル
m と任意に取った参照ベクトルr m との内積d=em
・rm を考える。em とes とがマッチするなら,rm
・e m =rs ・es =dである。すなわちrs はdとe
s に拘束される。このとき,シーン中のrs が決まるな
ら,回転行列を決定することができる。シーン中のモデ
ルのエッジに対し参照ベクトルの座標を決めると,モデ
ル座標系上でのモデルの座標を,シーン座標系上でのモ
デルの座標へ変換するための変換行列である変位ベクト
ルTと回転行列Rとを,決定することができる。
【0035】参照ベクトルrs は,内積rs ・es の値
を等しくしたまま,その座標としてes の円錐の表面の
縁に沿うことは明らかである。したがって,シーン中で
の参照ベクトルのとり方は,図3のようにエッジベクト
ルes との挟角を一定に保ちながら,エッジベクトルの
周りに360度回転分の自由度がある。このすべての場
合に対して,変換を示す回転行列Rと変位ベクトルTを
計算することができるが,Gongzhu の手法のようにすべ
ての場合に対してこの計算操作を行うことは,非常に重
い処理となってしまう。
【0036】そこで,図4のように,モデル座標系Σm
のエッジとシーン座標系Σs 上での対応するエッジとの
対応においてモデル座標系の参照ベクトルに対応するシ
ーン座標系の参照ベクトルは,シーン座標系上のエッジ
の周りに360度回転分の自由度があるが,120度刻
みで360度回転させ,そのとき求められる回転行列R
を利用して,変位ベクトルT=R・pm −ps を3つ求
めることにする。ここで求められた変位ベクトルを
1 ,T2 ,T3 とすると,この3ベクトルは投票空間
上で,正三角形を構成している(ステップS2)。
【0037】この変位ベクトルが構成するTの投票空間
における3点を通るような円iの中心Oi と半径Ri
および,投票空間T上での円の法線ベクトルLi を求め
る(ステップS3)。
【0038】こうして求めた円iのパラメータ(Oi
i ,Li )の情報をもとにして,後段の処理において
投票点が集中する点を求める。これが本方法の最大のポ
イントである。以下に円iのパラメータの求め方を示
す。
【0039】円の中心Oi は,T1 ,T2 ,T3 が正三
角形を構成することにより,この正三角形の重心の位置
に同じく(T1 +T2 +T3 )÷3として求まる。円の
半径Ri は,|T1 −(T1 +T2 +T3 )÷3|とし
て求まる。円の法線ベクトルLi は,2ベクトル(T2
−T1 ),(T3 −T1 )の外積(T2 −T1 )×(T
3 −T1 )から求まる。モデル座標系とシーン座標系の
すべてのエッジのマッチングに対して,これらの操作を
行い,投票空間T上で構成される円iのパラメータ(O
i ,Ri ,Li )をすべて求める。
【0040】モデルの特徴点からなるエッジと,シーン
の特徴点からなるエッジのすべての組み合わせについて
ステップS1〜S3を繰り返し(ステップS4),投票
空間T上で構成される円iのパラメータ(Oi ,Ri
i )をすべて求めたならば,求めた円のパラメータ群
{(O1 ,R1 ,L1 ),(O2 ,R2 ,L2 ),(O
3 ,R3 ,L3 ),………,(On ,Rn ,Ln )}か
ら任意の2つの円(円iと円j)の交点を求め,変位ベ
クトルTの投票空間に投票を行う(ステップS5)。
【0041】以下に円の交点の求め方を示す。まず,円
のパラメータ群{(O1 ,R1 ,L 1 ),(O2
2 ,L2 ),(O3 ,R3 ,L3 ),………,
(On ,Rn ,Ln )}から任意の二つの円を取り出
し,それを円i:(Oi ,Ri ,Li ),円j:
(Oj ,Rj ,Lj )とする。次に,Li とLj とが平
行であるか否かを外積Li ×Lj の値を利用して判断す
る。本実施の形態では,閾値として0.008を利用
し,Li ×Lj <0.008のときは,平行であるとみ
なすこととした。
【0042】以下では,中心Oi を通る法線がLi であ
る円iの平面をπi ,中心Oi で半径がRi である球を
i とする。
【0043】Li ×Lj >0.008またはLi ×Lj
=0.008のときには,平行でないので,円iの決め
る平面πi と円jの決める平面πj との交線を求め,そ
の交線と球Ci との交点を求める。交点を持たない場合
には,投票空間Tへの投票はなしとする。交点を持つ場
合には,さらに,その交点が球Cj 上に含まれるかを調
べ,含まれる場合には,円iと円jとの交点として,投
票空間Tへの投票を行う。
【0044】Li ×Lj <0.008のときには,平行
なので同一平面にあるか否かを,円jの中心Oj が円i
を決める平面πi の方程式に代入したときに,方程式を
満たすか否かによって判断する。πi とπj とが同一平
面でない場合には,円iと円jとは交点を持たない。π
i とπj とが同一平面である場合には,中心一致でかつ
半径も一致する場合か,中心一致で半径が異なる場合
も,投票点は持たないとする。円iと円jとの平面πi
とπj が平行でかつ同一平面であり,円の中心が一致し
ない場合には,そのときの交点を求め,それを投票点と
する。
【0045】以上の操作を,円のパラメータ群
{(O1 ,R1 ,L1 ),(O2 ,R2 ,L 2 ),(O
3 ,R3 ,L3 ),………,(On ,Rn ,Ln )}か
ら任意の2つの円すべてに対して行い(ステップS
6),すべての交点の投票点について投票空間Tに投票
する。
【0046】投票の方法を述べる。円の交点がT1 ,T
2 ,…,Tn とn個求まったとする。図5に示すよう
に,これらを投票点の集合{T1 ,T2 ,…,Tn }に
対して,近傍同士に存在する点を1点に代表させてい
き,最終的に代表点の集合{E1,E2 ,…,Et }と
集約させ,代表点の集合を得ることとする。
【0047】各代表点Ei の属性としては,代表値とカ
ウンタを持つものとする。カウンタの初期値は,0であ
る。まず,T1 を初期値としてそれを代表点E1 とす
る。E 1 の代表値としてT1 ,カウンタを1とする。次
に,T2 に対して,E1 の代表値T1 と比べたとき,近
傍にあるとみなせるときには,E1 のカウンタを1繰り
上げて2とし,E1 の集合とみなす。もし,T2 がE1
の代表値T1 と比べて,近傍とみなせないならば,新た
にE2 という集合を考え,その代表値をT2 とし,カウ
ンタを1とする。この操作をTn まで繰り返していく。
最もカウンタの値が大きい集合Ei の代表値を変位ベク
トルTとし,これに対応する回転行列Rと合わせて,位
置姿勢を決定するパラメータとして採用する(ステップ
S7)。これによって,位置姿勢を決定するパラメータ
である変位ベクトルTと回転行列Rとが求められたこと
になる。
【0048】
【実施例】図6は,認識対象を示した図である。図7
は,図6に示す認識対象の距離画像から,図1の特徴点
抽出部3によって距離データを用いて特徴点の抽出処理
を行った結果を示している。ここでは,中央の菱形形状
の組で表される直方体の頂点の特徴点の位置が,図中に
黒丸で示されるように求められている。
【0049】図8は,図7のように得られた特徴点の組
み合わせをもとに,従来のGongzhuの手法によって推定
された変位ベクトルTの投票空間の様子を示している。
投票点は,投票空間上で図8に示されるように円の軌跡
を作る。この投票のための計算量は膨大なものとなる。
【0050】図9は,同じ対象について,本発明によっ
て推定された変位ベクトルTの投票空間の様子を示して
いる。投票点の数は,従来のGongzhu の手法に比べて大
幅に削減されることがわかる。
【0051】図10は,本発明の実施例による認識処理
によって推定された変位ベクトルTと回転行列Rをモデ
ルに対し施し写像させたモデルを,シーン画像と重ね合
わせた2次元的な図である。図中の110は,写像後の
モデルのワイヤーフレームを示している。
【0052】また,図11は,本発明の実施例による認
識処理によって推定された変位ベクトルTと回転行列R
をモデルに対し施し写像されたモデルのワイヤーフレー
ムを,距離画像と重ね合わせた図である。120は,シ
ーン中へ写像されたモデルのワイヤフレームを示してい
る。図10および図11から,精度よく認識されている
ことがわかる。
【0053】
【発明の効果】以上のように,Gongzhu の手法において
は,モデル座標系のエッジとシーン座標系上での対応す
るエッジとの対応においてモデル座標系の参照ベクトル
に対応するシーン座標系の参照ベクトルは,シーン座標
系上のエッジの周りに360度回転分の自由度がある
が,1度刻みで360度回転させ,そのとき求められる
回転行列Rを利用して,変位ベクトルT=ps −R・p
m を得るが,この方法では,正しい位置姿勢をあらわす
変位ベクトルTや回転行列Rとは,関係のないパラメー
タを多く求めてしまうという冗長性があった。これに対
し,本発明では,集中的にプロットされると思われる点
を求めるため,計算の冗長性を大幅に削減することがで
きる。
【0054】また,Gongzhu の手法では,精度を上げよ
うとすると,モデル座標系の参照ベクトルに対応するシ
ーン座標系の参照ベクトルは,シーン座標系上のエッジ
の周りに1度刻みではなく,もっと,細かく360度回
転させる必要があるが,このように精度を上げようとす
ると,計算負荷が大きくなってしまうという欠点を持っ
ていたが,本発明では,投票空間上に構成される軌跡で
ある円と円との交点を方程式的に解くことにより,高精
度で位置姿勢を決定するパラメータを確定することがで
きる。
【0055】モデルとして三角形を用いて,シーン中に
写像させた三角形の位置姿勢パラメータを決定するシミ
ュレーションでは,Gongzhu の手法では,40秒かかっ
ていたものが,本方法では,0.8秒程度と大幅に高速
化された。
【図面の簡単な説明】
【図1】本発明を実施する装置の構成図である。
【図2】位置姿勢確定部の処理フローチャートである。
【図3】Gongzhu の手法の説明図である。
【図4】本発明による方法の特徴を説明するための図で
ある。
【図5】投票空間における投票方法を説明するための図
である。
【図6】認識対象を示した図である。
【図7】認識対象の距離画像から得たシーン空間上の特
徴点の位置を示す図である。
【図8】従来のGongzhu の手法によって推定された変位
ベクトルTの投票空間の様子を示す図である。
【図9】本発明の方法によって推定された変位ベクトル
Tの投票空間の様子を示す図である。
【図10】推定された変位ベクトルTと回転行列Rを用
いてモデルをシーン上へ写像した図である。
【図11】推定された変位ベクトルTと回転行列Rを用
いてモデルを距離画像空間へ写像した図である。
【符号の説明】
1 物体の位置姿勢決定装置 2 距離画像記憶部 3 特徴点抽出部 4 モデルデータ記憶部 5 位置姿勢確定部

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 あらかじめ記憶されたモデルデータと認
    識対象の距離画像とがあり,距離画像から得られた特徴
    点とモデルの特徴点とのマッチング処理によりモデルの
    3次元空間における位置姿勢を決定するパラメータであ
    る変位ベクトルTと回転行列Rとを確定する物体の位置
    姿勢決定処理方法において,前記距離画像から得られた
    特徴点と前記モデルの特徴点とからそれぞれ2点を抽出
    し,それぞれの2点から構成される線分の合致性をチェ
    ックする第1の過程と,線分が合致するとみなされる場
    合に,モデルの線分のベクトルnm に対して,ある参照
    ベクトルrm を設定し,対応する距離画像の線分のベク
    トルをns としたとき,ns ・rs =nm ・rm を満た
    すように参照ベクトルrs をとり,この参照ベクトルr
    s を,前記線分のベクトルns の周りに120度刻みで
    360度回転させることにより得られる3点の軌跡か
    ら,変位ベクトルTの投票空間上でその3点を通る円の
    中心と半径とを求める第2の過程と,前記第1および第
    2の過程をすべての特徴点の組み合わせについて繰り返
    す過程と,求めた円の中心と半径とから,前記投票空間
    上での集積点を検出し,最も多く投票された変位ベクト
    ルTとそれに対応する回転行列Rの組み合わせを求める
    過程とを有し,求めた変位ベクトルTと回転行列Rの組
    み合わせを,モデルの3次元空間における位置姿勢を決
    定するパラメータとして確定することを特徴とする物体
    の位置姿勢決定処理方法。
  2. 【請求項2】 あらかじめ記憶されたモデルデータと認
    識対象の距離画像とがあり,距離画像から得られた特徴
    点とモデルの特徴点とのマッチング処理によりモデルの
    3次元空間における位置姿勢を決定するパラメータであ
    る変位ベクトルTと回転行列Rとを確定する物体の位置
    姿勢決定処理方法を,コンピュータによって実施するた
    めのプログラムを記録した記録媒体であって,前記距離
    画像から得られた特徴点と前記モデルの特徴点とからそ
    れぞれ2点を抽出し,それぞれの2点から構成される線
    分の合致性をチェックする第1の処理と,線分が合致す
    るとみなされる場合に,モデルの線分のベクトルnm
    対して,ある参照ベクトルrm を設定し,対応する距離
    画像の線分のベクトルをns としたとき,ns ・rs
    m ・rm を満たすように参照ベクトルrs をとり,こ
    の参照ベクトルrs を,前記線分のベクトルns の周り
    に120度刻みで360度回転させることにより得られ
    る3点の軌跡から,変位ベクトルTの投票空間上でその
    3点を通る円の中心と半径とを求める第2の処理と,前
    記第1および第2の処理をすべての特徴点の組み合わせ
    について繰り返す処理と,求めた円の中心と半径とか
    ら,前記投票空間上での集積点を検出し,最も多く投票
    された集積点を示す変位ベクトルTとそれに対応する回
    転行列Rの組み合わせを求める処理とを,コンピュータ
    に実行させるためのプログラムを記録したことを特徴と
    する物体の位置姿勢決定のためのプログラム記録媒体。
JP2000059782A 2000-03-06 2000-03-06 物体の位置姿勢決定処理方法およびそのためのプログラム記録媒体 Pending JP2001250122A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000059782A JP2001250122A (ja) 2000-03-06 2000-03-06 物体の位置姿勢決定処理方法およびそのためのプログラム記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000059782A JP2001250122A (ja) 2000-03-06 2000-03-06 物体の位置姿勢決定処理方法およびそのためのプログラム記録媒体

Publications (1)

Publication Number Publication Date
JP2001250122A true JP2001250122A (ja) 2001-09-14

Family

ID=18580190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000059782A Pending JP2001250122A (ja) 2000-03-06 2000-03-06 物体の位置姿勢決定処理方法およびそのためのプログラム記録媒体

Country Status (1)

Country Link
JP (1) JP2001250122A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005091181A (ja) * 2003-09-18 2005-04-07 Meidensha Corp 画像処理装置
JP2006248410A (ja) * 2005-03-11 2006-09-21 Meidensha Corp トロリー線検出装置
JP2007183908A (ja) * 2005-12-05 2007-07-19 Yaskawa Electric Corp 物体検出方法
WO2008111452A1 (ja) * 2007-03-09 2008-09-18 Omron Corporation 認識処理方法およびこの方法を用いた画像処理装置
JP2012123781A (ja) * 2010-11-19 2012-06-28 Canon Inc 情報処理装置、情報処理システム及び情報処理方法
JP2012141962A (ja) * 2010-12-14 2012-07-26 Canon Inc 位置姿勢計測装置及び位置姿勢計測方法
JP2013033468A (ja) * 2011-07-11 2013-02-14 Toshiba Corp 画像処理方法およびシステム
KR20150062880A (ko) * 2013-11-29 2015-06-08 삼성테크윈 주식회사 특징점 매칭을 이용한 영상매칭 방법
KR20200139229A (ko) * 2018-12-25 2020-12-11 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 위치 자세 추정 방법, 장치, 전자 기기 및 기억 매체

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4552409B2 (ja) * 2003-09-18 2010-09-29 株式会社明電舎 画像処理装置
JP2005091181A (ja) * 2003-09-18 2005-04-07 Meidensha Corp 画像処理装置
JP2006248410A (ja) * 2005-03-11 2006-09-21 Meidensha Corp トロリー線検出装置
JP4624826B2 (ja) * 2005-03-11 2011-02-02 株式会社明電舎 トロリー線検出装置
JP2007183908A (ja) * 2005-12-05 2007-07-19 Yaskawa Electric Corp 物体検出方法
JPWO2008111452A1 (ja) * 2007-03-09 2010-06-24 オムロン株式会社 認識処理方法およびこの方法を用いた画像処理装置
KR100975512B1 (ko) 2007-03-09 2010-08-11 오므론 가부시키가이샤 인식 처리 방법 및 이 방법을 이용한 화상 처리 장치
JP4508283B2 (ja) * 2007-03-09 2010-07-21 オムロン株式会社 認識処理方法およびこの方法を用いた画像処理装置
WO2008111452A1 (ja) * 2007-03-09 2008-09-18 Omron Corporation 認識処理方法およびこの方法を用いた画像処理装置
US8861834B2 (en) 2007-03-09 2014-10-14 Omron Corporation Computer implemented method for recognizing an object based on a correspondence relationship between object feature points and pre-registered model feature points
JP2012123781A (ja) * 2010-11-19 2012-06-28 Canon Inc 情報処理装置、情報処理システム及び情報処理方法
JP2012141962A (ja) * 2010-12-14 2012-07-26 Canon Inc 位置姿勢計測装置及び位置姿勢計測方法
US8849039B2 (en) 2011-07-11 2014-09-30 Kabushiki Kaisha Toshiba Image processing method and system
JP2013033468A (ja) * 2011-07-11 2013-02-14 Toshiba Corp 画像処理方法およびシステム
US9008439B2 (en) 2011-07-11 2015-04-14 Kabushiki Kaisha Toshiba Image processing method and system
KR20150062880A (ko) * 2013-11-29 2015-06-08 삼성테크윈 주식회사 특징점 매칭을 이용한 영상매칭 방법
KR102149274B1 (ko) 2013-11-29 2020-08-28 한화테크윈 주식회사 특징점 매칭을 이용한 영상매칭 방법
KR20200139229A (ko) * 2018-12-25 2020-12-11 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 위치 자세 추정 방법, 장치, 전자 기기 및 기억 매체
KR102423730B1 (ko) 2018-12-25 2022-07-20 저지앙 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 위치 자세 추정 방법, 장치, 전자 기기 및 기억 매체

Similar Documents

Publication Publication Date Title
Lu A review of solutions for perspective-n-point problem in camera pose estimation
Rabbani et al. Efficient hough transform for automatic detection of cylinders in point clouds
WO2020155615A1 (zh) Vslam方法、控制器和可移动设备
Wan et al. Teaching robots to do object assembly using multi-modal 3d vision
JP5835926B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
RU2700246C1 (ru) Способ и система захвата объекта с помощью роботизированного устройства
US11328182B2 (en) Three-dimensional map inconsistency detection using neural network
Lambrecht Robust few-shot pose estimation of articulated robots using monocular cameras and deep-learning-based keypoint detection
CN116249607A (zh) 用于机器人抓取三维物体的方法和装置
CN114255323A (zh) 机器人、地图构建方法、装置和可读存储介质
JP2001250122A (ja) 物体の位置姿勢決定処理方法およびそのためのプログラム記録媒体
Figueiredo et al. Robust cylinder detection and pose estimation using 3D point cloud information
Popov et al. Real-time estimation of multiple potential contact locations and forces
Ravankar et al. Line segment extraction and polyline mapping for mobile robots in indoor structured environments using range sensors
Drwięga Features matching based merging of 3D maps in multi-robot systems
Militaru et al. Object handling in cluttered indoor environment with a mobile manipulator
CN113160401B (zh) 一种面向物体的视觉slam轻量化语义地图创建方法
Kim et al. Structured light camera base 3D visual perception and tracking application system with robot grasping task
Birr et al. Oriented surface reachability maps for robot placement
Martínez et al. Visual identification and similarity measures used for on-line motion planning of autonomous robots in unknown environments
Liang et al. Model-based 3d pose estimation for pick-and-place application
Fu et al. Point Pair Feature based 6D pose estimation for robotic grasping
Elhaouari et al. Robust IMU-Monocular-SLAM For Micro Aerial Vehicle Navigation Using Smooth Variable Structure Filter
JP5938201B2 (ja) 位置姿勢計測装置、その処理方法及びプログラム
Ohashi et al. One-Shot Accurate Cylinder Pose Estimation From Point Cloud Data With Density-Based Geometric Clustering