JP2001143073A - 物体の位置姿勢決定の方法 - Google Patents

物体の位置姿勢決定の方法

Info

Publication number
JP2001143073A
JP2001143073A JP31906999A JP31906999A JP2001143073A JP 2001143073 A JP2001143073 A JP 2001143073A JP 31906999 A JP31906999 A JP 31906999A JP 31906999 A JP31906999 A JP 31906999A JP 2001143073 A JP2001143073 A JP 2001143073A
Authority
JP
Japan
Prior art keywords
points
point
distance image
feature
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP31906999A
Other languages
English (en)
Inventor
Susumu Sekino
進 関野
Koichi Yoshida
耕一 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP31906999A priority Critical patent/JP2001143073A/ja
Publication of JP2001143073A publication Critical patent/JP2001143073A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 本発明は、距離画像(3次元座標の画像)の
処理および物体認識の高速化を図ることを目的としてい
る。 【解決手段】 距離画像から特徴点を検出し、モデルの
特徴点間の位置関係と距離画像上の対応する位置関係と
の比較を行って最も合致する特徴点群を選別し、変位ベ
クトルT(ベ)や回転ベクトルR(ベ)の各要素を決定
する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、3次元画像計測技
術に関するもので、詳しくは3次元空間上での物体の位
置姿勢を決定する物体の位置姿勢決定の方法に関するも
のである。
【0002】ここでいう距離画像とはそれぞれの画素に
対応する撮影対象物体上の1点の3次元座標が格納され
たデータセットのことを意味している。
【0003】
【従来の技術】3次元画像計測および認識は、部品の組
み立てなど、工場の生産ラインで用いられることを想定
したような応用に対して必要性が強く求められている。
例えば、産業用ロボットの視覚としては立体形状に基づ
く機構部品の識別やマニピュレータに対象物をつかませ
るために必要な対象物の位置・姿勢の計測、また自立移
動ロボットの視覚としては衝突回避のための前方障害物
監視や移動経路決定、などである。
【0004】そのため、コンピュータビジョンの計算機
科学としての流れ、生産工程の自動化の制御工学として
の流れ、高速・高精度・非接触な形状計測を望む計測工
学としての流れなど、複雑に絡み合いながら研究開発の
取り組みがなされている。
【0005】物体の位置姿勢を決定する方法の一つに、
カメラで捕らえた距離画像を処理して特徴点を抽出する
ステップと、位置姿勢を決定すべき物体のモデルと前記
特徴点との比較から物体の認識を行うステップの2つを
踏んで行うものがある(距離画像とは、画像を構成する
画素にカメラからの距離情報を持たせた画像のことを言
う。例えば距離を画素の濃淡で表現すれば、立体的な視
覚イメージが得られる)。
【0006】距離画像の処理には、局所的微分操作によ
って曲面のセグメンテーションあるいはパッチ化を行う
方法、距離値に対して直接平面をフィッティングする方
法、測定点間の隣接情報を用いた方法などがある。
【0007】次に、従来の物体の認識方法では、モデル
上の特徴点と距離画像上の特徴点とを1対1に対応さ
せ、可能性のある位置姿勢のパラメータ群を導出し、全
ての組み合わせに対して投票を行うことによりパラメー
タを決定していた。
【0008】
【発明が解決しようとする課題】上記の距離画像に対す
る局所的処理方法は、最終結果を得るまでにかなりの計
算量を必要とする。例えば、局所的微分操作によって曲
面のセグメンテーションを行う方法では、200×20
0サイズの距離画像に対して約1分の処理時間を必要と
する。
【0009】上記の物体の認識方法では不要な位置姿勢
のパラメータ導出に大きな時間をとられ、さらに特徴点
の全てに対し、全ての位置姿勢のパラメータを導出する
ので、計算時間が大幅に増加するという問題があった。
例えばこの方法を使って、モデルとして直方体を、シー
ン(入力装置の座標系で定義される距離座標)中の特徴
点として12点を用意し認識を行うと約12分かかる。
モデルの頂点として3点を用意し、距離画像中に対応す
る3点を用意してこの方法を使っても18秒かかってし
まう。
【0010】上述したように、従来の位置姿勢決定方法
は、距離画像処理(特徴点の抽出)、および物体の認識
(位置姿勢パラメータの決定)に短くとも1分以上を要
し、工場の生産ラインへの応用などの実用化に耐えな
い。本発明では距離画像の処理、および物体認識の高速
化を図ることを目的とする。
【0011】
【課題を解決するための手段】本発明では、より高速を
実現するために、光パルスを対象に照射し、反射して帰
ってくるまでの時間を計測しで距離を求めるなど能動的
に距離画像を取得し、その特徴を利用することにより、
物体の位置姿勢認識を行う。処理の段階は、距離画像か
らの特徴点抽出処理の段階と、距離画像から得られた特
徴点からモデルの特徴点とのマッチング処理による位置
姿勢認識の段階との2段階から構成される。
【0012】距離画像からの特徴点抽出処理、つまり、
有効特徴点の絞り込みの段階では、距離画像に対してエ
ッジから構成される直線群を検出し、直線群の交点から
検出される特徴点と距離画像上の凹凸点を検出するフィ
ルターから検出される凹凸点による特徴点とを採用す
る。
【0013】認識処理における距離画像から得られた特
徴点とモデルの特徴点とのマッチングを行う段階では、
距離画像より得られた特徴点とモデルの特徴点とからそ
れぞれ任意の3点を抽出し、それぞれの3点から構成さ
れる三角形の合致性をチェックする。
【0014】合致である場合には、モデル上で選ばれた
3点からシーン中の3点への写像を決定する変位ベクト
ルT(ベ)と回転行列R(ベ)とを決定し、モデル上の
すべての点に対し、T(ベ),R(ベ)による変換を行
う。写像されたモデル点とシーン中での特徴点とのマッ
チング数をカウントする。この操作を、すべての距離画
像から得られた特徴点3点とモデル中の特徴点3点とに
対して行い、マッチング数の多い場合のT(ベ)とR
(ベ)との組み合わせによって、モデルの位置姿勢を決
定する。
【0015】
【発明の実施の形態】以下、図を用いて本発明の実施例
を説明する。図1は、本発明全体の流れを示すフローで
ある。まず、 距離画像より特徴点の検出を行い(ステップS1)、 モデルと距離画像とから、位置関係の合致する特徴点
群を選別し(ステップS2)、 位置姿勢を示すT(ベ),R(ベ)の決定を行い(ス
テップS3)、 物体の位置姿勢認識が終了する。
【0016】図2は、図1のステップS1の処理を詳
細に述べたものである。入力される距離画像(「3次元
画像計測(井口征士・佐藤宏介共著、コロナ社、199
0年)」P7−8)から距離画像上において、モデルの
特徴を保持している可能性を持つような座標点である特
徴点を抽出するための処理である。ここでは、まず、距
離画像に対し、大きく2つの処理を施す。
【0017】ステップS4:距離画像に対し、エッジ処
理を行う。図4の如き2次元濃淡画像に対応する距離画
像に対し、エッジ処理を行うが、ここではガウス系ラプ
ラシアンフィルタを利用した。この、距離画像に対して
ガウス系ラプラシアンフィルタ(「画像処理工学−基礎
編(谷口慶治編、共立出版社、1996年)」P74−
76」)を施したときのエッジ画像が図5である。
【0018】ステップS5:エッジ画像に対して直線部
分の検出を行う。ここでは、エッジ画像より9本分の直
線の検出を行う。
【0019】ステップS6:各々の交点を抽出する。
【0020】ステップS7:これらの交点に対し、距離
画像上の不要特徴点の削除処理に当たって、画像範囲外
の位置にある交点と計測器の測定範囲外の位置にある交
点と、更に同一点とみなせる程度に近傍にある交点との
削除を行う。この不要交点の削除処理において、導出さ
れた交点の奥行き情報は、測定不能であっても、近傍で
奥行き情報を持つ場合には、その値を取ることとして特
徴点として含める。
【0021】図6は、以上の距離画像に対して、ガウス
系ラプラシアンフィルタを施した図において検出された
直線、および不要交点の削除を行った特徴点のプロット
を行った図である。ここで、交点60は、この位置では
奥行き情報が直接得られなかったが、近傍でモデルの頂
点に対応する奥行き情報が取得できるために、採用され
た交点である。また、交点61については測定範囲外の
交点であるため、削除されている。交点62において
は、3直線の交点により交点が3点出てくるが、類似点
として、代表の一つを特徴点とする。
【0022】図7は、図4に示す2次元濃淡画像に対し
て、特徴点の位置にプロットを行ったものである。○印
で表す70が特徴点の位置のプロットである。
【0023】ステップS8:距離画像に対して、距離画
像上の凹凸点を検出するフィルターを用いて画像の凹凸
点を検出する。このフィルターとしては、距離画像に対
して距離画像上の各位置aに対して、あらかじめ定めた
半径rをとり、その周上のすべての点が円の中心aに対
してすべて手前にある場合、または奥にある場合に、そ
の中心点を距離画像上の凹凸点の侯補とする。
【0024】ここでは、図8のように、距離画像の
(i,j)の座標位置のX、Y、Z座標を(X(ベ)
(i,j)、Y(ベ)(i,j)、Z(ベ)(i,
j))とし、中心点○(80で示す○)の位置のZ座標
に対して、●(81で示す●)の位置のZ(ベ)(i,
j−2)等の12点の値を確認し、凹凸を調べた。
【0025】ステップS9:これらの候補点に関して、
侯補点同士で、同じ点とみなせる点を、1点で代表させ
ていき、残った候補点を凹凸点の特徴点とする。
【0026】図9は、このようにして、凹凸点による特
徴点を2次元濃淡画像上に表示した図である。91は、
凹凸点を検出するフィルターにより検出された特徴点の
位置である。なお上記X(ベ)はXがベクトル量である
ことを表す(以下同様)。
【0027】図10は、特徴点抽出により得られた特徴
点の位置を、濃淡画像上に表示した図である。ここで、
○101などは距離画像上のエッジから検出される直線
群を利用して得られた特徴点の位置であり、*100な
どは凹凸点を検出するフィルターによって検出された特
徴点の位置である。
【0028】次に、図1のステップS2の処理および
ステップS3の処理について図3のフローを使って詳
細に述べる。
【0029】ここで、変位ベクトルT(ベ)と回転行列
R(ベ)とで表現する方法について述ベ、その導出法の
例をあげる。
【0030】モデルの座標系から3点p(ベ)m1、p
(ベ)m2、p(ベ)m3を選び、この3点から決まる三角
形と合同な三角形を構成するようにシーン座標系の3点
p(ベ)s1、p(ベ)s2、p(ベ)s3をとる。モデル座
標系の3点p(ベ)m1、p(ベ)m2、p(ベ)m3から得
られる2ベクトルをn(ベ)m (=p(ベ)m2−p
(ベ)m1)とr(ベ)m (=p(ベ)m3−p(ベ)m1
とする。シーン座標系の3点から得られる2ベクトルを
n(ベ)s (=p(ベ)s2−p(ベ)s1)とr(ベ) s
(=p(ベ)s3−p(ベ)s1)とする。モデル座標系と
シーン座標系との間に、R(ベ)を回転行列、T(ベ)
を変位ベクトルとし、 p(ベ)s =R(ベ)・p(ベ)m +T(ベ) なる関係があるとすると、モデル座標系のx座標をx
(ベ)m =(1,0,0)とし、対応するシーン座標系
のx座標をx(ベ)s =(a,b,c)としたとき、 r(ベ)s ・x(ベ)s =r(ベ)m ・x(ベ)m =d
1 n(ベ)s ・x(ベ)s =n(ベ)m ・x(ベ)m =d
2 なる内積関係があり、かつ a2 +b2 +c2 =l となる。ここで、r(ベ)s =(rx 、ry 、rz )と
し、n(ベ)s =(nx、ny 、nz )とする。
【0031】rx ・a+ry ・b+rz ・c=d1x ・a+ny ・b+nz ・c=d22 +b2 +c2 =1 から、3つの未知パラメータに対して、3方程式が得ら
れた。これからaについての2次方程式、bについての
2次方程式、cについての2次方程式から、それぞれ2
つずつの解が得られるが、外積で与えられる座標系の束
縛条件z(ベ)s=x(ベ)s ×y(ベ)s なる条件を
用いて、不適解の削除を行うことにより、 R(ベ)=(x(ベ)s 、y(ベ)s 、z(ベ)s ) なる解を得る。そして、 T(ベ)=p(ベ)s −R(ベ)・p(ベ)m なる関係から、残りのT(ベ)が決定される。以上か
ら、モデルの3点に対応するシーン上の3点を決めるこ
とによって、変位ベクトルT(ベ)と回転行列R(ベ)
とを決定することができこれによって、物体の位置姿勢
を表現することができる。
【0032】以上から、モデル座標系の3点から構成さ
れる三角形と合同となるような三角形を構成するシーン
中の3点が決まると、位置姿勢を決定するT(ベ),R
(ベ)が決定されることがわかる。
【0033】ステップS10:モデルの特徴点(M個)
から任意の3点を選び、この3点から決定される三角形
をMi とする。
【0034】ステップS11:距離画像から決定された
シーンの特徴点(S個)より任意の3点を選び、この3
点から決定される三角形をSj とする。
【0035】ステップS12,S13:Mi とSj との
合致性を確認する。この確認においては、Mi とSj
のそれぞれの三角形の最大の辺の長さと、2番目の大き
さの辺の長さと、3番目の辺の長さとを比較する。例え
ば、その比率が0.9以上で、かつ1.1以下の範囲内
の時に、合致性が高いとする。
【0036】この結果を用いて、処理の処理を行う変
位ベクトルT(ベ)および回転行列R(ベ)を計算する
(ステップS14)。
【0037】そして、このT(ベ)、R(ベ)に対し、
モデルの特徴点のすべてをシーン中に写像し、写像され
たモデルの特徴点のうち、その近傍に距離画像中の特徴
点を含む点の数Nk を確認する(ステップS15)。
【0038】以上について、モデルからの任意の3点か
らなる三角形とシーンからの任意の3点からなる三角形
の組み合わせのうち、対応する三角形の合致性の高いも
のについて、それぞれについての総当りを行う(ステッ
プS16)。
【0039】すべて終了したとき、各T(ベ),R
(ベ)を用いて写像されたモデルの特徴点のうち、その
近傍に距離画像中の特徴点をもつものの数Nk が最大値
であるような、T(ベ)、R(ベ)の組み合わせを正し
い位置姿勢パラメータであると確定するようにする(ス
テップS17)。
【0040】図11は、認識処理によって決定された変
位ベクトルT(ベ)と回転行列R(ベ)とをモデルに対
し施し写像させたモデルを、2次元濃淡画像上に重ね合
わせた図である。
【0041】図中の110は、写像後のモデルのワイヤ
ーフレームである。この図によって、決定されたT
(ベ)とR(ベ)によって写像されたモデルが2次元濃
淡画像上で確認したとき、一致していることがわかる。
【0042】図12は、認識処理によって決定された変
位ベクトルT(ベ)と回転行列R(ベ)をモデルに対し
施し写像されたモデルを、距離画像と重ね合わせた図で
ある。120は、写像されたモデルのワイヤフレームの
図である。この図によって、決定されたT(ベ)とR
(ベ)によって写像されたモデルが3次元的にも画像上
で一致していることがわかり、確定されたT(ベ)とR
(ベ)が正しい値とみなせることがわかる。
【0043】なお、本発明において、モデル及び距離画
像の特徴点から、それぞれ選択する特徴点を3つとした
のは、物体の位置姿勢を決定するパラメータである変位
ベクトルT(ベ)と回転行列R(ベ)の導出に用いられ
る方程式を解くための最小限の点の組み合わせであり、
4つ以上の組み合わせの対応を用いると、距離画像上の
特徴点がノイズ誤差や検出誤差等を持つときに、T
(ベ)とR(ベ)の計算において、解が不定となってし
まうことがある。
【0044】距離画像を利用することで、2次元の濃淡
やカラー画像から特徴点を決定する場合と比べて、物体
表面上に鏡面反射や陰影等が生じていてエッジ部分が画
像からでは検出が難しい場合においても、その影響を受
けることなく距離画像中から特徴点を決定することが出
来る。
【0045】距離画像の処理においては、エッジから構
成される直線群の交点や凹点、凸点といった単純で容易
に検出できる特徴点の取得に主眼を置くことで、計算時
間を大幅に短縮できる。
【0046】また、認識処理においては、モデルの3点
から構成される三角形と距離画像中の特徴点3つから構
成される三角形との合致性を調べることによって、変位
ベクトルT(ベ)と回転行列R(ベ)を計算する必要の
有無をチエックする。このため、すべての組み合わせに
ついて変位べクトルT(ベ)と回転行列R(ベ)とを求
める場合に比べて、必要分だけの計算だけですむことに
なり、計算時間を大幅に短縮することができる。
【0047】また、特徴点の導出の際に、エッジから構
成される直線群の交点を利用した特徴点の導出では、距
離画像の各画素に対する処理でないこと、そして凹凸点
を求めるためのフィルターが非常に単純であること、な
どにより非常に高速にモデルの位置姿勢を決定すること
が出来る。また、モデルと距離画像上からそれぞれ3点
ずつから位置姿勢のバラメータを決定することは、位置
姿勢を決定するために必要最小限の対応であるため、認
識部分のパラメータ導出を高速に行うことができる。
【0048】また、距離画像上からモデルの認識にとっ
て関係のない特徴点が検出された場合でも、モデルの特
徴点から構成される三角形と距離画像上から検出された
特徴点から構成される三角形の合致性を検出する段階
と、認識処理の最後の段階における導出されたT
(ベ),R(ベ)のうちモデルを写像させたときに、最
もモデルの合致度の高いT(ベ),R(ベ)を決定する
段階で、不適な特徴点の影響を受けたT(ベ),R
(ベ)の組み合わせを棄却することができ、正しい位置
姿勢を決定することができる。
【0049】
【発明の効果】以上のように、本発明によれば、距離画
像上の凹点、凸点、エッジ点交点といった基本的な特徴
点取得に主眼を置くことで、検出時間の短縮を実現し、
認識処理においては、必要最小限の組み合わせについ
て、位置姿勢決定のためのパラメータの導出を行うこと
により、高速にモデルの位置姿勢認識を行うことができ
る。
【0050】従来技術の説明例と比較すると、局所的微
分操作を利用して局面のセグメンテーションを行う方法
で使用した、200×200サイズの距離画像に対し
て、従来例では約1分、本発明の手法を使って特徴点抽
出を行うと10秒程度で距離画像上の特徴点を取得する
ことができる。また、モデルの特徴点と距離画像上の特
徴点とからモデルの位置姿勢を決定する方法において
は、約8秒であった。以上から、距離画像からモデルの
位置姿勢を認識するまでの時間は全体として18秒程度
と大幅に処理時間が短縮される。
【0051】従来技術の例において使用したモデルとし
て直方体について、認識を行う部分についての時間を見
てみると、従来例と同じくシーン中の特徴点として12
点としたとき、認識時間は約10秒であった。本発明の
方法であるモデルの頂点として3点を用意し、距離画像
中に対応する3点を用意した場合については、0.8秒
と短縮される。
【図面の簡単な説明】
【図1】本発明の全体の流れを示すフローチャートであ
る。
【図2】距離画像から特徴点抽出のためのフローチャー
トである。
【図3】シーン中からの特徴点を利用したシステム内部
のモデルの認識処理フローチャートである。
【図4】認識対象を示した2次元濃淡画像である。
【図5】距離画像に対し、エッジ処理フィルターを施し
た結果画像である。
【図6】図5のエッジ画像に対し、直線部分を検出後、
検出された直線群の交点でかつ距離画像として測定され
た交点座標のプロットを行った画像である。
【図7】エッジ画像から検出された直線を利用して求め
られた特徴点の位置(70で示した○)を2次元濃淡画
像上にプロットした図である。
【図8】凹凸点を検出するフィルターに関する説明の図
である。
【図9】凹凸点を検出するフィルターによって検出され
た特徴点の位置(91で示した○)を2次元濃淡画像上
にプロットした図である。
【図10】エッジ画像を利用して検出された特徴点の位
置(101で示した○)と、凹凸を検出するフィルター
によって検出された特徴点の位置(100で示した*)
を2次元濃淡画像上にプロットした図である。
【図11】認識処理によって決定された変位ベクトルT
(ベ)と回転行列R(ベ)をモデルに対し施し写像させ
たモデルのワイヤーフレームを、2次元濃淡画像と重ね
合わせた図である。
【図12】認識処理によって決定された変位ベクトルT
(ベ)と回転行列R(ベ)をモデルに対し施し写像され
たモデルを、距離画像と重ね合わせた図である。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 15/70 365 Fターム(参考) 2F065 AA04 AA06 AA12 AA37 BB05 BB24 DD06 FF04 GG10 JJ03 JJ09 JJ26 QQ08 QQ21 QQ28 QQ32 QQ33 5B057 AA04 CA08 CA12 CA16 CA19 DA06 DB03 DC05 DC08 5L096 DA02 FA03 FA06 FA08 FA10 FA67 FA69 GA05 9A001 DD15 GG01 GG04 HH19 HH24 HH29 JJ49 KK32 KK37

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 モデルの3次元空間における位置姿勢を
    決定するパラメータである変位ベクトルT(ベ)と回転
    行列R(ベ)の各要素を確定する方法であって、 距離画像上から特徴点を検出し、 次にモデルの特徴点間の位置関係と、対応する距離画像
    上の特徴点間の位置関係との対応比較を行い、最も合致
    する特徴点群を選別し、 前記選別したモデルの特徴点群から距離画像の特徴点群
    への写像をあらわすT(ベ),R(ベ)を決定すること
    を特徴とする物体の位置姿勢決定の方法。
  2. 【請求項2】 距離画像上から特徴点を検出する方法と
    して、距離画像上のエッジから直線群を検出し、これら
    の直線群の交点として検出される距離空間上の点を特徴
    点とすることを特徴とする請求項1記載の物体の位置姿
    勢決定の方法。
  3. 【請求項3】 距離画像上から特徴点を検出する方法と
    して、凹凸点を検出するフィルターにおいて、 距離画像上の各位置Aにおいて、あらかじめ決めた半径
    rを取り、その周上のすべての点が円の中心Aよりも手
    前にある、または、奥にある場合に、点Aを距離画像上
    の凹凸点の候補とし、 これらの候補点のうち各侯補点ごとに同じ点とみなせる
    点は1点で代表させ、残った距離画像上の凹凸点を特徴
    点とすることを特徴とする請求項1または2記載の物体
    の位置姿勢決定の方法。
  4. 【請求項4】 特徴点群の選別については、 モデル上の特徴点群に対して任意の3点より構成される
    三角形を選び、 距離画像から得られた特徴点群に対して任意の3点から
    構成される三角形を選び、 前記2つの三角形の合致性が高いものを採用するように
    し、かつ位置姿勢パラメータT(ベ),R(ベ)の決定
    については、 採用された合致性の高い三角形を構成するモデル上の特
    徴点3点と距離画像上の特徴点3点との対応から、写像
    する変位ベクトルT(ベ)と回転行列R(ベ)を計算
    し、 モデルのすべての点を、前記計算で得たT(ベ),R
    (ベ)によって距離画像上に写像し、 距離画像上で検出された特徴点と同一点とみなせる点の
    数Nk(kは自然数)をカウントし、 合致性の高いモデルおよび距離画像上の前記三角形すべ
    てについてNkを計算し、 最大のNkを与えるT(ベ),R(ベ)の組み合わせを
    位置姿勢を決定するパラメータと決定するようにしたこ
    とを特徴とする請求項1または2または3記載の物体の
    位置姿勢決定の方法。
JP31906999A 1999-11-10 1999-11-10 物体の位置姿勢決定の方法 Pending JP2001143073A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31906999A JP2001143073A (ja) 1999-11-10 1999-11-10 物体の位置姿勢決定の方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31906999A JP2001143073A (ja) 1999-11-10 1999-11-10 物体の位置姿勢決定の方法

Publications (1)

Publication Number Publication Date
JP2001143073A true JP2001143073A (ja) 2001-05-25

Family

ID=18106162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31906999A Pending JP2001143073A (ja) 1999-11-10 1999-11-10 物体の位置姿勢決定の方法

Country Status (1)

Country Link
JP (1) JP2001143073A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009128075A (ja) * 2007-11-20 2009-06-11 Ihi Corp 物体認識方法
JP2010079452A (ja) * 2008-09-24 2010-04-08 Canon Inc 位置姿勢計測装置及び方法
WO2010150639A1 (ja) * 2009-06-22 2010-12-29 株式会社豊田自動織機 3次元における形状の一致を判定する方法および装置
JP2011027724A (ja) * 2009-06-24 2011-02-10 Canon Inc 3次元計測装置、その計測方法及びプログラム
JP2011163822A (ja) * 2010-02-05 2011-08-25 Aisin Seiki Co Ltd 物体形状評価装置
JP2011174879A (ja) * 2010-02-25 2011-09-08 Canon Inc 位置姿勢推定装置及びその方法
JP2011174891A (ja) * 2010-02-25 2011-09-08 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、及びプログラム
CN102798351A (zh) * 2012-04-25 2012-11-28 山东大学 一种文物法向图的扫描方法
JP2013172211A (ja) * 2012-02-17 2013-09-02 Sharp Corp 遠隔操作装置、遠隔操作システム
JP2013254300A (ja) * 2012-06-06 2013-12-19 Konica Minolta Inc 画像処理方法
JP5458885B2 (ja) * 2007-08-30 2014-04-02 株式会社安川電機 物体検出方法と物体検出装置およびロボットシステム
JP2017203742A (ja) * 2016-05-13 2017-11-16 株式会社トプコン 位置特定装置、位置特定方法および位置特定用プログラム
WO2020217651A1 (ja) * 2019-04-25 2020-10-29 パナソニックIpマネジメント株式会社 寸法測定装置及び荷物発送用ロッカー
CN114777668A (zh) * 2022-04-12 2022-07-22 新拓三维技术(深圳)有限公司 一种桌面式弯管测量方法及装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5458885B2 (ja) * 2007-08-30 2014-04-02 株式会社安川電機 物体検出方法と物体検出装置およびロボットシステム
JP2009128075A (ja) * 2007-11-20 2009-06-11 Ihi Corp 物体認識方法
JP2010079452A (ja) * 2008-09-24 2010-04-08 Canon Inc 位置姿勢計測装置及び方法
US8520931B2 (en) 2008-09-24 2013-08-27 Canon Kabushiki Kaisha Position and orientation measurement apparatus and method thereof
CN102428497A (zh) * 2009-06-22 2012-04-25 株式会社丰田自动织机 判定三维形状一致的方法以及装置
WO2010150639A1 (ja) * 2009-06-22 2010-12-29 株式会社豊田自動織機 3次元における形状の一致を判定する方法および装置
JP2011003127A (ja) * 2009-06-22 2011-01-06 Toyota Industries Corp 3次元における形状の一致を判定する方法および装置
JP2011027724A (ja) * 2009-06-24 2011-02-10 Canon Inc 3次元計測装置、その計測方法及びプログラム
JP2011163822A (ja) * 2010-02-05 2011-08-25 Aisin Seiki Co Ltd 物体形状評価装置
JP2011174891A (ja) * 2010-02-25 2011-09-08 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、及びプログラム
JP2011174879A (ja) * 2010-02-25 2011-09-08 Canon Inc 位置姿勢推定装置及びその方法
JP2013172211A (ja) * 2012-02-17 2013-09-02 Sharp Corp 遠隔操作装置、遠隔操作システム
CN102798351A (zh) * 2012-04-25 2012-11-28 山东大学 一种文物法向图的扫描方法
JP2013254300A (ja) * 2012-06-06 2013-12-19 Konica Minolta Inc 画像処理方法
JP2017203742A (ja) * 2016-05-13 2017-11-16 株式会社トプコン 位置特定装置、位置特定方法および位置特定用プログラム
WO2020217651A1 (ja) * 2019-04-25 2020-10-29 パナソニックIpマネジメント株式会社 寸法測定装置及び荷物発送用ロッカー
JPWO2020217651A1 (ja) * 2019-04-25 2020-10-29
CN114777668A (zh) * 2022-04-12 2022-07-22 新拓三维技术(深圳)有限公司 一种桌面式弯管测量方法及装置
CN114777668B (zh) * 2022-04-12 2024-01-16 新拓三维技术(深圳)有限公司 一种桌面式弯管测量方法及装置

Similar Documents

Publication Publication Date Title
CN107063228B (zh) 基于双目视觉的目标姿态解算方法
JP2919284B2 (ja) 物体認識方法
Coiras et al. Segment-based registration technique for visual-infrared images
JP2001143073A (ja) 物体の位置姿勢決定の方法
CN114119864A (zh) 一种基于三维重建与点云匹配的定位方法和装置
CN111598946B (zh) 一种物体位姿测量方法、装置及存储介质
Wang et al. Edge extraction by merging 3D point cloud and 2D image data
JP2016179534A (ja) 情報処理装置、情報処理方法、プログラム
JPH08136220A (ja) 物品の位置検出方法およびその装置
Sansoni et al. Optoranger: A 3D pattern matching method for bin picking applications
US11189053B2 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
GB2244621A (en) Machine vision stereo matching
Ye et al. An improved algorithm for Harris corner detection
JPH07103715A (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
CN115112098B (zh) 一种单目视觉的一维二维测量方法
Kokovkina et al. The algorithm of EKF-SLAM using laser scanning system and fisheye camera
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
EP4131177A1 (en) Imaging system and method using a multi-layer model approach to provide robust object detection
Seppälä et al. Feature-Based Object Detection and Pose Estimation Based on 3D Cameras and CAD Models for Industrial Robot Applications
Hargas et al. Novel machine vision tools applied in biomechatronic tasks
CN113313725A (zh) 含能材料药桶的桶口识别方法及系统
Baláž et al. Camera systems of industrial robots
Böhm et al. Curvature-based range image classification for object recognition
JP2022508434A (ja) 回転仮説を決定することによって画像を処理する方法及びシステム
US20240062358A1 (en) Dimensional Measurement Method Based on Deep Learning