JP4900204B2 - 物体認識方法 - Google Patents
物体認識方法 Download PDFInfo
- Publication number
- JP4900204B2 JP4900204B2 JP2007303503A JP2007303503A JP4900204B2 JP 4900204 B2 JP4900204 B2 JP 4900204B2 JP 2007303503 A JP2007303503 A JP 2007303503A JP 2007303503 A JP2007303503 A JP 2007303503A JP 4900204 B2 JP4900204 B2 JP 4900204B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- scene
- data
- orientation
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
モデルを、候補となる視点からの位置姿勢に配置したとき、モデルによって遮蔽され、本来計測不可能な範囲にシーンデータが存在するか否かを算出し、この幾何学的な矛盾の有無に基づいて、モデルの位置姿勢候補の成否を検証することにある。
「モデル」とは、認識すべき対象物体の三次元形状データを言う。三次元位置を持った点群と、点を結び物体の表面を表す三角メッシュから構成される。
「シーン」とは、実際の環境をサンプリングした三次元形状データを言う。距離センサによる計測データから生成される。モデルと同様に点群と三角メッシュから構成される。
「スピンイメージ」とは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す特徴量である。
本発明において、自己位置とは、計測位置を意味し、例えば、3Dセンサ41の外界における6自由度の位置と姿勢を意味する。
図示しないが、本発明において、距離センサ(3Dセンサ)以外のオドメータ、カメラ、GPS、姿勢センサを、必要に応じてオプションとして用いても良い。以下、距離センサを用いた例を説明する。
外部記憶装置33は、ハードディスク、フロッピー(登録商標)ディスク、磁気テープ、コンパクトディスク等である。外部記憶装置33は、環境モデルのサイズが大きく後述する内部記憶装置34に入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の全体を保持できない場合には、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を記憶し、かつ本発明の方法を実行するためのプログラムを記憶する。また、外部記憶装置33は、後述するCADモデルデータを記憶する。
内部記憶装置34は、例えばRAM,ROM等であり、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を保管し、かつ演算情報を保管する。
中央処理装置35(CPU)は、モデル入力手段、シーン計測手段、対応点ペア作成手段、グループ化手段、一致度検証手段、高精度化手段として機能し、演算や入出力等を集中的に処理し、内部記憶装置34と共に、プログラムを実行する。
ロボット制御部45は、物体認識処理部42から受け取る物体の位置や姿勢に基づいてロボットのアームやハンドの動きを制御する。
まず、スピンイメージについて説明する。
スピンイメージとは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す、回転不変な特徴量である。
モデルの頂点Aのスピンイメージと、シーンの頂点Bのスピンイメージが似ているということは、その周辺の表面形状が似ていることを意味している。これは、モデルとシーンを照合する際、点Aと点Bが対応する可能性があることを示している。
三角メッシュで構成されるデータの頂点Pのスピンイメージを作成する場合、まず、頂点Pの法線を中心軸とした円筒座標系を考える。円筒座標系では、法線までの距離をα、法線方向の変移をβとする。
スピンイメージは回転不変なデジタル二次元画像として表されるので、正規化相関などの画像比較手段により、類似性を評価できる。
ただし、シーンのスピンイメージを作成する場合、物体の隠れにより本来値が存在する画素の値がゼロとなることや、乱雑な背景により本来値がゼロとなる画素に値が入力されてしまうことがある。したがって、2つのスピンイメージを比較する際、共通して値がゼロでない画素(以下、「重なりがある画素」と表現する。)を比較するよう制限する。
スピンイメージPとQの類似度C(P,Q)を算出するために、まず、正規化相関係数R(P,Q)を算出する。
pi:スピンイメージPのi番目の画素の値
qi:スピンイメージQのi番目の画素の値
単純にこの正規化相関係数R(P,Q)を類似度としてしまうと、重なりが少ないほど類似度が高くなってしまう。例えば、PとQで重なりがある画素が1画素しかない場合、その画素の値が一致すれば、類似度は最高値となってしまう。そこで、重なりがある画素が多いほど類似度が高くなるよう、重み付けを行うことが妥当である。
(1)モデル入力:ステップS10
認識対象物体のモデルを読み込み、モデルのスピンイメージを作成するなどの事前準備を実施する。本処理は、計測のたびに実施する必要はない。例えば対象物体が決まっている場合は、システム起動時に一回だけモデル入力を行うことになる。
実際の環境をセンサで計測して距離データを取得し、三角メッシュ作成処理や法線算出処理を行い、シーンを作成する。
モデルとシーンのスピンイメージの類似度から、モデル頂点とシーン計測点のペアである対応点ペアを複数作成する。
複数ある対応点ペアの中から、同時に成立することが可能な対応点ペアをまとめ、一つのグループとする。全ての可能なグループを作成する。
グループごとに座標変換を行ったとき、モデルとシーンの表面がどの程度一致するかを評価して、グループの検証を行う。
検証の結果得られたモデルの位置姿勢候補の成否を検証する。モデルをある位置姿勢に配置したときの、モデルデータとシーンデータとの幾何学的な矛盾に基づいて、位置姿勢候補の成否を検証する。(1)ある場所に距離センサを配置して、1回計測して得られたデータをシーンデータとする場合、(2)複数視点から計測して得られたデータを統合してシーンデータとする場合に分けて、詳細は後述する。
[モデル入力]
図6に本発明の実施形態に係るモデル入力処理フローを示す。
対象物体の三次元形状データを入力する。例えば、三次元形状データ表現形式の一つであるPLY形式のファイルを読み込む。PLYファイルは、頂点の三次元位置と、頂点間を結び物体の表面を表す三角メッシュ情報から成る。
なお、高精度化(ステップS60)において、複数視点から計測して得られたデータを統合してシーンデータとする場合は、後述するように、対象物体の三次元形状データは、表面形状及び表裏が分かるデータとする。
図7に本発明の実施形態に係るPLY形式のファイルの例を示す。
図8に本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す。
スピンイメージ作成時の円筒座標設定に各頂点の法線情報が必要となるため、ここで作成する。頂点の法線は、その頂点を含む三角メッシュの法線の平均を単位ベクトル化したものである。
図9に本発明の実施形態に係る法線算出手順を示す。
頂点ごとに円筒座標を設定してその周辺の頂点をスピンマップにプロットすることで、各頂点のスピンイメージを作成する。スピンイメージ生成手順の詳細は後述する。
また、各スピンイメージごとに、値がゼロで無い画素数を記憶する。その中央値の1/2の値がスピンイメージ同士の類似度算出の際に用いられるパラメータλとなる。
図10に本発明の実施形態に係るシーン計測処理フローを示す。以下、各ステップについて説明する。
距離センサを用いて、0個〜n個の対象物体やそれ以外の物体が存在する実際の環境を計測し、三次元点群データを得る。使用する距離センサは、可能な限り密に等間隔で距離データが得られるものが望ましい。
計測した点群から、物体の表面を表す三角メッシュを生成する。三角メッシュの作成方法として、(a)正方格子分割し対角線を結ぶ方法や、(b)ドロネー三角形分割法がある。(a)正方格子分割は、点群を平面正方格子に投影し、格子ごとに代表点を決定し、隣り合う代表点を決まった形で結んで三角形を形成する手法である。(b)ドロネー三角形分割は、点群を三角形分割したとき、最小角度が最大になるよう分割する方法である。以下ではより精密な三角メッシュが得られる(b)ドロネー三角形分割法を用いる。
計測データを平面に投影し、平面上の点をドロネー三角形分割し、点群を三次元空間に戻したときに辺の長さがしきい値より大きい三角形を除去する、という手順でメッシュ生成を行う。
スピンイメージ作成時の円筒座標設定条件として、各頂点の法線情報が必要となるため、ここで作成する。
対応点ペア作成処理では、モデルとシーンの対応点ペアを複数作成する。
図11に本発明の実施形態に係る対応点ペア作成処理フローを示す。以下、各ステップについて説明する。
シーンの頂点を一つ選択し、その頂点に関するスピンイメージを作成する。シーンの頂点を一つ選択する際、ランダムピックアップを行っているが、他に、これまで選んだ頂点との距離の最小値が最大になる位置の頂点を選ぶ方法や、法線の精度が良い(周辺の頂点が多く、三角メッシュの辺が集中している)頂点を選ぶ方法などが考えられる。
作成したシーンの頂点と、モデルの各頂点のペアで、スピンイメージとの類似度を数1を用いて算出する。
例えば、モデルの頂点数が1000個の場合、1つのシーン頂点と1000個のモデル頂点の各ペアでそれぞれ類似度を算出し、1000個の類似度が算出される。
前述した例で言うところの1000個のペアの中に、他と比較して特に類似度が高いペアがあれば、選択したシーン頂点とモデル頂点で対応点ペアCi(Si,Mi)を作成する。Siはシーン頂点を、Miはモデル頂点を示す。
この結果、シーン頂点とモデル頂点を結びつける対応点ペアCi(Si,Mi)が複数生成される。
図12に本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す。同図は、シーンとして動物の玩具を並べた環境を計測し、モデルとしてブタを使用して対応点ペアを検出した結果である。
グループ化処理では、同時に成立することが可能な対応点ペアを一つのグループとする処理を繰り返し、複数のグループを作成する。
図13に本発明の実施形態に係るグループ化処理フローを示す。以下、各ステップについて説明する。
最初に、シーン頂点Siとモデル頂点Miを結びつける対応点ペアCi(Si,Mi)を、グループGiに追加する。この時点では、グループには基準となる一つの対応点ペアしか含まれていない。つまり、Gi={Ci}。
Gi内に含まれている対応点ペアと同時に成り立つことができる新たな対応点ペアCjを決定する。同時に成り立つことができるかどうかの基準として、幾何学的一貫性を用いる。幾何学的一貫性の概念について説明する。対応点ペアC1(S1,M1)とC2(S2,M2)が同時に成り立つ場合、S1からS2までの距離と、M1からM2までの距離は同じで、かつS1法線とS2法線とベクトルS1→S2が成す3つの角の角度と、M1法線とM2法線とベクトルM1→M2が成す3つの角の角度は等しくなるはずである。この一致度合いから、対応点ペアC1とC2が幾何学的一貫性を持っているかどうかを判定することができる。
図14に本発明の実施形態に係る幾何学的一貫性の概念図を示す。
例えば、G1={C1,C4,C8}に対してC9を追加できるか評価する際、C1−C9,C4−C9,C8−C9の全てにおいて幾何学的一貫性が成り立てば、G1にC9を追加できると言える。
CjをGiに追加してもGiが幾何学的一貫性を維持可能な場合、CjをGiに追加する。CjをGiに追加するとGiが幾何学的一貫性を維持不可能な場合、Giに対する追加処理は終了する。
全ての対応点ペアを基準にグループを作成した後、グループ内の対応点ペアが多い順にグループを並び替える。
図15(A)及び(B)に本発明の実施形態に係るグループ化された対応点ペアの例を示す。
一致度の検証処理では、モデルとシーンの表面がどの程度一致するかを評価して、各グループが物体の位置姿勢候補として適切かどうかを検証する。
図16に本発明の実施形態に係る一致度の検証処理フローを示す。以下、各ステップについて説明する。
後の対応点ペア拡張処理の高速化のために、ここでシーン頂点のKDツリーを作成しておく。仮に入力データ点数がN点、参照データ点数がM点のときに、近傍点探索処理量が全探索でO(MN)であるのに対して、KDツリーを作成しておくことでO(NlogM)に削減できる。
グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にするような座標変換式Tiを算出する。Tiは3×3の回転行列Rと3×1の並進ベクトルtを含む、4×4の剛体変換式である。この変換式にしたがってモデルを移動させた結果を、グループGiが示す物体の初期位置姿勢とする。
グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点をKDツリー探索によって見つけ、そのモデル頂点とシーン頂点の間の6次元距離(法線方向のずれも考慮に入れた距離)がしきい値以下ならば、その対応点ペアをグループGiに追加する。この処理を、対応点ペアが追加できなくなるまで繰り返す。
図17図に本発明の実施形態に係る対応点ペア拡張処理の例を示す。同図(A)は拡張前を示し、同図(B)は拡張後を示す。
初期位置姿勢が正しく、モデルとシーンの表面が一致していれば、対応点ペアの拡張処理によりグループ内の対応点ペアの数は大幅に増加するはずである。グループ内の対応点ペアの数がしきい値(モデルの頂点数のβ%)より多ければ、このグループは対象物を捉えている可能性が高いとして、位置姿勢候補に残す。そうでなければ、このグループを除外する。
グループGiの対応点ペアの数がしきい値より多ければ、Giを位置姿勢候補G’に追加する。その際、Giに含まれているシーン頂点は、以後の対応点ペア拡張処理に使えないようにする。これにより、位置姿勢候補が重なり合って出現することを防いでいる。
全てのグループで一致度の検証処理を行い、位置姿勢候補G’を作成した後、対応点ペアが多い順にG’を並び替える。
モデルをある位置姿勢に配置したときの、モデルデータとシーンデータとの幾何学的な矛盾に基づいて、位置姿勢候補の成否を検証する。
ある場所に距離センサを配置して、1回計測して得られたデータをシーンデータとする場合、視点を一意に特定できるので、以下のような処理によってモデルの位置姿勢候補の成否を検証することができる。
図18に、三次元計測の視点及び視線方向が明らかな場合(ある場所に距離センサを配置して、1回計測して得られたデータをシーンデータとする場合)の高精度化処理フローを示す。以下、各ステップについて説明する。
図19(a)〜(d)に、高精度化処理の具体例を示す。まず、同図(a)に示すように、視線方向に垂直な平面60を仮定する。
図19(b)に示すように、物体61の各計測点(シーン計測点)62〜74を平面60に投影する。ただし、投影後も各点は視点からの距離データ(奥行きデータ)を保持している。
図19(c)に、検証すべき位置姿勢にある三次元モデル91及び視線方向に垂直な平面90を示す。三次元モデル91の各頂点を、平面90に投影する。シーン計測点の場合と同様に、投影後も各点は視点からの距離データ(奥行きデータ)を保持している。
モデル表面とシーン計測点62〜74との重なりを評価する。
具体的には、平面上ではモデル表面と重なるが、奥行き的にはモデルの奥側に存在するシーン計測点を検出する。
図19(d)の例では、シーン計測点71,72,73はモデル表面92と重なり、シーン計測点74はモデル表面93と重なる。モデル表面93と重なる計測点74は、本来は見えないモデル表面に存在する点である。このような計測点74は、その位置にモデルが本当に存在すれば、見えるはずの無い点である。
なお、モデル表面は、本来はシーンと同程度の粒度の三角メッシュである。しかし、理解が容易になるように、上記の例では直方体の各表面=モデル表面とした。
モデル頂点と重なるが、本来は見えるはずが無いと評価された計測点の個数をカウントする。そして、そのような計測点の個数が所定の閾値を上回った場合、又はそのような計測点が計測点全体に占める割合が所定の閾値を上回った場合、モデル位置姿勢が間違っていると判定する。
複数視点から計測して得られたデータを統合してシーンデータとする場合、視点を一意に特定できないので、前述の方法は使用できない。
このような場合、ソリッドモデル(中身が詰まった三次元形状モデル)を用いて計測点とモデルとの衝突(幾何学的な矛盾)を判定することができる。
また、計算量軽減のため、サーフェスモデル(表面形状データ。本実施形態においては三角パッチで表現され、表裏が判断可能なデータとする)を用いて計測点とモデルの衝突を判定することができる。
図20に、三次元計測の視点が特定できない場合(複数視点から計測して得られたデータを統合してシーンデータとする場合)の高精度化処理フローを示す。以下、各ステップについて説明する。
図21に示すように、まず擬似的に視点81を仮定する。
図21に示すように、検証すべき位置姿勢に三次元モデル82を配置する。
ある計測点(例えば、計測点83)に注目し、視点81と計測点83を結ぶ直線84を引く。この直線84上に、計測点83の手前と奥にモデルのサーフェス85,86が存在する。そして、(1)計測点83の手前のサーフェス(計測点83よりも視点81に近いサーフェス)85は、視点81側に表を向け、かつ(2)計測点83の奥のサーフェス(計測点83よりも視点81から遠いサーフェス)86は、視点81側に裏を向けている場合、計測点83はモデル82の内部に存在すると評価する。
モデルの内部に存在すると評価された計測点の個数をカウントする。そして、そのような計測点の個数が所定の閾値を上回ったら、又はそのような計測点が計測点全体に占める割合が所定の閾値を上回ったら、モデル位置姿勢が間違っていると判定する。
33 外部記憶装置
34 内部記憶装置
35 中央処理装置
40 物体認識装置
41 3Dセンサ
42 物体認識処理部
43 モデルデータベース部
45 ロボット制御部
46 ロボット
Claims (6)
- 距離を計測できるセンサによって計測したシーンデータと、目的物体の三次元形状を表すモデルデータとを、物体の局所的な表面形状を表す特徴量について照合することにより物体の三次元位置姿勢を検出する三次元物体認識方法において、
モデルを、候補となる視点からの位置姿勢に配置したとき、モデルによって遮蔽され、本来計測不可能な範囲にシーンデータが存在するか否かを算出し、この幾何学的な矛盾の有無に基づいて、モデルの位置姿勢候補の成否を検証することを特徴とする三次元物体認識方法。 - 前記候補となる視点としての、三次元計測におけるセンサの視点及び視線方向が明らかな場合に、前記センサの視線方向に垂直な平面上に前記センサの視点からの距離データを保持したままシーンデータのシーン計測点及びモデルデータのモデル表面を投影するステップと、
前記平面に平行なX座標とY座標に基づいて、前記平面上に投影されたシーン計測点とモデル表面との重なりを評価するステップと、
前記平面上においてモデル表面と重なるという第1の条件、及び前記センサの視点から見てモデル表面の奥側に存在するという第2の条件を満たすシーン計測点を抽出するステップと、
前記第1及び第2の条件を満たすシーン計測点に基づいて、候補となる位置姿勢に存在するモデルによるシーンの遮蔽状態を判断し、モデルの位置姿勢候補の成否を評価するステップと、を含む請求項1に記載の三次元物体認識方法。 - 前記モデルの位置姿勢候補の成否を評価するステップにおいて、モデルの奥側に存在すると判定されるシーン計測点の個数、又はそのようなシーン計測点がシーン計測点全体に占める割合に基づいて、位置姿勢候補の成否を評価する、請求項2に記載の三次元物体認識方法。
- 前記モデルデータが物体の表裏に関する情報をさらに有し、
前記候補となる視点としての、三次元計測におけるセンサの視点が明らかでない場合に、仮の視点を設定し、かつ設定した仮の視点からの候補となる位置姿勢にモデルを配置するステップと、
前記仮の視点と第1のシーン計測点とを結ぶ直線を引くステップと、
(1)前記モデルデータから読み取り可能な物体の裏表情報を有するモデル表面であって、(1−1)前記直線上に存在し、(1−2)前記仮の視点と前記第1のシーン計測点との間に存在し、かつ(1−3)前記仮の視点側に表を向けている第1のモデル表面が存在し、かつ
(2)前記モデルデータから読み取り可能な物体の裏表情報を有するモデル表面であって、(2−1)前記直線上に存在し、(2−2)前記第1のシーン計測点よりも前記仮の視点から遠くに存在し、かつ(2−3)前記仮の視点側に裏を向けている第2の物体表面が存在する、シーン計測点の個数を抽出するステップと、
前記第1及び第2の条件を満たすシーン計測点に基づいて、候補となる位置姿勢に存在するモデルによるシーンの遮蔽状態を判断し、モデルの位置姿勢候補の成否を評価するステップと、を含む請求項1に記載の三次元物体認識方法。 - 前記モデルの位置姿勢候補の成否を評価するステップにおいて、モデルの内部に存在すると判定されるシーン計測点の個数、又はそのようなシーン計測点がシーン計測点全体に占める割合に基づいて、位置姿勢候補の成否を評価する、請求項4に記載の三次元物体認識方法。
- 前記特徴量がスピンイメージであることを特徴とする請求項1に記載の物体認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007303503A JP4900204B2 (ja) | 2007-11-22 | 2007-11-22 | 物体認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007303503A JP4900204B2 (ja) | 2007-11-22 | 2007-11-22 | 物体認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009129189A JP2009129189A (ja) | 2009-06-11 |
JP4900204B2 true JP4900204B2 (ja) | 2012-03-21 |
Family
ID=40820037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007303503A Expired - Fee Related JP4900204B2 (ja) | 2007-11-22 | 2007-11-22 | 物体認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4900204B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009128191A (ja) * | 2007-11-22 | 2009-06-11 | Ihi Corp | 物体認識装置およびロボット装置 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5380792B2 (ja) * | 2007-06-15 | 2014-01-08 | 株式会社Ihi | 物体認識方法および装置 |
JP5027741B2 (ja) * | 2008-06-18 | 2012-09-19 | セコム株式会社 | 画像監視装置 |
JP5027758B2 (ja) * | 2008-08-19 | 2012-09-19 | セコム株式会社 | 画像監視装置 |
JP5567908B2 (ja) * | 2009-06-24 | 2014-08-06 | キヤノン株式会社 | 3次元計測装置、その計測方法及びプログラム |
JP2011159042A (ja) * | 2010-01-29 | 2011-08-18 | Ihi Corp | 物体認識方法及び物体認識装置 |
JP5548482B2 (ja) * | 2010-02-26 | 2014-07-16 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体 |
JP6101134B2 (ja) * | 2013-04-01 | 2017-03-22 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
JP6216211B2 (ja) | 2013-10-25 | 2017-10-18 | 株式会社日立製作所 | 3次元モデル生成装置、3次元モデル生成方法及びプログラム |
JP6441032B2 (ja) * | 2014-11-07 | 2018-12-19 | 国立研究開発法人産業技術総合研究所 | 対応点探索装置と対応点探索プログラム並びに対応点探索方法 |
JP6117901B1 (ja) * | 2015-11-30 | 2017-04-19 | ファナック株式会社 | 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム |
DK3184958T3 (da) * | 2015-12-23 | 2020-06-02 | Liebherr Verzahntech Gmbh | Indretning til tømning af en transportbærer med en indretning til emneidentifikation og/eller registrering af position for emner af en flerhed af vilkårligt anbragte emner inden i transportbæreren og med en gribeindretning til tømning af transportbæreren |
JP2018091656A (ja) * | 2016-11-30 | 2018-06-14 | キヤノン株式会社 | 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法 |
JP7064664B2 (ja) * | 2018-03-28 | 2022-05-11 | 太平洋セメント株式会社 | 対象認識装置、方法およびプログラムならびに対象除去システム |
JP6937995B2 (ja) * | 2018-04-05 | 2021-09-22 | オムロン株式会社 | 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09212643A (ja) * | 1996-02-05 | 1997-08-15 | Meidensha Corp | 三次元物体認識方法及びその装置 |
JP2920513B2 (ja) * | 1997-01-21 | 1999-07-19 | 工業技術院長 | 3次元物体位置姿勢決定方法 |
-
2007
- 2007-11-22 JP JP2007303503A patent/JP4900204B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009128191A (ja) * | 2007-11-22 | 2009-06-11 | Ihi Corp | 物体認識装置およびロボット装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2009129189A (ja) | 2009-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4900204B2 (ja) | 物体認識方法 | |
JP5092711B2 (ja) | 物体認識装置およびロボット装置 | |
JP5251080B2 (ja) | 物体認識方法 | |
Walsh et al. | Data processing of point clouds for object detection for structural engineering applications | |
JP5677798B2 (ja) | 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法 | |
EP3314570B1 (en) | Real-time, model-based object detection and pose estimation | |
TWI607412B (zh) | 多維度尺寸量測系統及其方法 | |
JP4785880B2 (ja) | 三次元オブジェクト認識のためのシステムおよび方法 | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
CN103984362B (zh) | 位置和姿势测量装置、信息处理装置以及信息处理方法 | |
JP6573419B1 (ja) | 位置決め方法、ロボット及びコンピューター記憶媒体 | |
JP6632208B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
Lei et al. | A CNN-based 3D patch registration approach for integrating sequential models in support of progress monitoring | |
CN110992427B (zh) | 一种形变物体的三维位姿估计方法及定位抓取系统 | |
JP2011174880A (ja) | 位置姿勢推定方法及びその装置 | |
JP5104248B2 (ja) | 物体認識装置およびロボット装置 | |
Cheng et al. | An automatic and robust point cloud registration framework based on view-invariant local feature descriptors and transformation consistency verification | |
JP6673504B2 (ja) | 情報処理装置、データベース生成装置、方法、プログラム、及び記憶媒体 | |
JP5083715B2 (ja) | 三次元位置姿勢計測方法および装置 | |
JP5462662B2 (ja) | 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム | |
US7379599B1 (en) | Model based object recognition method using a texture engine | |
JP5030183B2 (ja) | 3次元物体位置姿勢計測方法 | |
CN112146647B (zh) | 一种地面纹理的双目视觉定位方法及芯片 | |
Canelhas | Truncated signed distance fields applied to robotics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110908 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111206 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111219 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4900204 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150113 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |