JP5104248B2 - 物体認識装置およびロボット装置 - Google Patents
物体認識装置およびロボット装置 Download PDFInfo
- Publication number
- JP5104248B2 JP5104248B2 JP2007303502A JP2007303502A JP5104248B2 JP 5104248 B2 JP5104248 B2 JP 5104248B2 JP 2007303502 A JP2007303502 A JP 2007303502A JP 2007303502 A JP2007303502 A JP 2007303502A JP 5104248 B2 JP5104248 B2 JP 5104248B2
- Authority
- JP
- Japan
- Prior art keywords
- vertex
- model
- orientation
- corresponding point
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
(1)頂点の三次元位置と頂点間を結び物体の表面を表す三角メッシュ情報からなる三次元形状データを読み込み、モデルの頂点に対して物体の局所的な表面形状を表す特徴量を作成するモデル入力手段と、
(2)実際の環境をセンサで計測して距離データを取得し、物体の表面情報を作成するシーン計測手段と、
(3)シーン頂点に対して物体の局所的な表面形状を表す特徴量を作成し、シーン頂点の特徴量とモデル頂点の特徴量の類似度を算出し、類似度がしいき値よりも高いペアが存在したら、それらシーン頂点とモデル頂点を対応点ペアCi(iは、初期値1、最大値nの自然数)とする対応点ペア作成手段と、
(4)対応点ペアCiを含むグループGi(iは、初期値1、最大値nの自然数)を作成し、グループGiに含まれている全ての対応点ペアとの関係で幾何学的一貫性を有する他の対応点ペアをグループGiに追加する処理を繰り返し、全ての対応点ペアを基準にグループを作成するグループ化手段と、
(5)グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にする座標変換式Tiを算出し、座標変換式Tiにしたがってモデルを移動させた結果をグループGiが示す物体の初期位置姿勢とし、グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点を見つけ、そのモデル頂点とシーン頂点の間の距離が第1しきい値以下ならば、その対応点ペアをグループGiに追加する処理を繰り返し、繰り返した後にグループ内の対応点ペアの数が第2しきい値よりも多ければグループGiから得られる位置姿勢に物体が存在すると判定し、この処理を全てのグループGiに対して実行して計測データ内に存在する0個以上の物体の位置姿勢を決定する一致度検証手段と、
(6)前記一致度検証手段により検出したモデルの位置姿勢を初期値として、モデル頂点とシーン頂点のうち距離が最小の頂点同士を対応付け、この頂点ペア間の評価値が最小となるようにモデルの位置姿勢を補正する処理を繰り返すことで高精度化し、最終的な位置姿勢を算出する高精度化手段を備えることにある。
「モデル」とは、認識すべき対象物体の三次元形状データを言う。三次元位置を持った点群と、点を結び物体の表面を表す三角メッシュから構成される。
「シーン」とは、実際の環境をサンプリングした三次元形状データを言う。距離センサによる計測データから生成される。モデルと同様に点群と三角メッシュから構成される。
「スピンイメージ」とは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す特徴量である。
本発明において、自己位置とは、計測位置を意味し、例えば、3Dセンサ41の外界における6自由度の位置と姿勢を意味する。
図示しないが、本発明において、距離センサ(3Dセンサ)以外のオドメータ、カメラ、GPS、姿勢センサを、必要に応じてオプションとして用いても良い。以下、距離センサを用いた例を説明する。
外部記憶装置33は、ハードディスク、フロッピー(登録商標)ディスク、磁気テープ、コンパクトディスク等である。外部記憶装置33は、環境モデルのサイズが大きく後述する内部記憶装置34に入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の全体を保持できない場合には、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を記憶し、かつ本発明の方法を実行するためのプログラムを記憶する。また、外部記憶装置33は、後述するCADモデルデータを記憶する。
内部記憶装置34は、例えばRAM,ROM等であり、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を保管し、かつ演算情報を保管する。
中央処理装置35(CPU)は、モデル入力手段、シーン計測手段、対応点ペア作成手段、グループ化手段、一致度検証手段、高精度化手段として機能し、演算や入出力等を集中的に処理し、内部記憶装置34と共に、プログラムを実行する。
ロボット制御部45は、物体認識処理部42から受け取る物体の位置や姿勢に基づいてロボットのアームやハンドの動きを制御する。
まず、スピンイメージについて説明する。
スピンイメージとは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す、回転不変な特徴量である。
モデルの頂点Aのスピンイメージと、シーンの頂点Bのスピンイメージが似ているということは、その周辺の表面形状が似ていることを意味している。これは、モデルとシーンを照合する際、点Aと点Bが対応する可能性があることを示している。
三角メッシュで構成されるデータの頂点Pのスピンイメージを作成する場合、まず、頂点Pの法線を中心軸とした円筒座標系を考える。円筒座標系では、法線までの距離をα、法線方向の変移をβとする。
スピンイメージは回転不変なデジタル二次元画像として表されるので、正規化相関などの画像比較手段により、類似性を評価できる。
ただし、シーンのスピンイメージを作成する場合、物体の隠れにより本来値が存在する画素の値がゼロとなることや、乱雑な背景により本来値がゼロとなる画素に値が入力されてしまうことがある。したがって、2つのスピンイメージを比較する際、共通して値がゼロでない画素(以下、「重なりがある画素」と表現する。)を比較するよう制限する。
スピンイメージPとQの類似度C(P,Q)を算出するために、まず、正規化相関係数R(P,Q)を算出する。
pi:スピンイメージPのi番目の画素の値
qi:スピンイメージQのi番目の画素の値
単純にこの正規化相関係数R(P,Q)を類似度としてしまうと、重なりが少ないほど類似度が高くなってしまう。例えば、PとQで重なりがある画素が1画素しかない場合、その画素の値が一致すれば、類似度は最高値となってしまう。そこで、重なりがある画素が多いほど類似度が高くなるよう、重み付けを行うことが妥当である。
(1)モデル入力:ステップS10
認識対象物体のモデルを読み込み、モデルのスピンイメージを作成するなどの事前準備を実施する。本処理は、計測のたびに実施する必要はない。例えば対象物体が決まっている場合は、システム起動時に一回だけモデル入力を行うことになる。
実際の環境をセンサで計測して距離データを取得し、三角メッシュ作成処理や法線算出処理を行い、シーンを作成する。
モデルとシーンのスピンイメージの類似度から、モデル頂点とシーン頂点のペアである対応点ペアを複数作成する。
複数ある対応点ペアの中から、同時に成立することが可能な対応点ペアをまとめ、一つのグループとする。全ての可能なグループを作成する。
グループごとに座標変換を行ったとき、モデルとシーンの表面がどの程度一致するかを評価して、グループの検証を行う。
検証の結果得られた変換式をモデルの初期位置姿勢として、モデル頂点とシーン頂点のうち距離が最小の頂点同士を対応付け、この頂点ペア間の評価値が最小となるようにモデルの位置姿勢を補正する処理を繰り返すことで高精度化し、最終的な位置姿勢を算出する。
[モデル入力]
図6に本発明の実施形態に係るモデル入力処理フローを示す。
対象物体の三次元形状データを入力する。例えば、三次元形状データ表現形式の一つであるPLY形式のファイルを読み込む。PLYファイルは、頂点の三次元位置と、頂点間を結び物体の表面を表す三角メッシュ情報から成る。
図7に本発明の実施形態に係るPLY形式のファイルの例を示す。
図8に本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す。
スピンイメージ作成時の円筒座標設定に各頂点の法線情報が必要となるため、ここで作成する。頂点の法線は、その頂点を含む三角メッシュの法線の平均を単位ベクトル化したものである。
図9に本発明の実施形態に係る法線算出手順を示す。
頂点ごとに円筒座標を設定してその周辺の頂点をスピンマップにプロットすることで、各頂点のスピンイメージを作成する。スピンイメージ生成手順の詳細は後述する。
また、各スピンイメージごとに、値がゼロで無い画素数を記憶する。その中央値の1/2の値がスピンイメージ同士の類似度算出の際に用いられるパラメータλとなる。
図10に本発明の実施形態に係るシーン計測処理フローを示す。以下、各ステップについて説明する。
距離センサを用いて、0個〜n個の対象物体やそれ以外の物体が存在する実際の環境を計測し、三次元点群データを得る。使用する距離センサは、可能な限り密に等間隔で距離データが得られるものが望ましい。
計測した点群から、物体の表面を表す三角メッシュを生成する。三角メッシュの作成方法として、(a)正方格子分割し対角線を結ぶ方法や、(b)ドロネー三角形分割法がある。(a)正方格子分割は、点群を平面正方格子に投影し、格子ごとに代表点を決定し、隣り合う代表点を決まった形で結んで三角形を形成する手法である。(b)ドロネー三角形分割は、点群を三角形分割したとき、最小角度が最大になるよう分割する方法である。以下ではより精密な三角メッシュが得られる(b)ドロネー三角形分割法を用いる。
計測データを平面に投影し、平面上の点をドロネー三角形分割し、点群を三次元空間に戻したときに辺の長さがしきい値より大きい三角形を除去する、という手順でメッシュ生成を行う。
スピンイメージ作成時の円筒座標設定条件として、各頂点の法線情報が必要となるため、ここで作成する。
対応点ペア作成処理では、モデルとシーンの対応点ペアを複数作成する。
図11に本発明の実施形態に係る対応点ペア作成処理フローを示す。以下、各ステップについて説明する。
シーンの頂点を一つ選択し、その頂点に関するスピンイメージを作成する。シーンの頂点を一つ選択する際、ランダムピックアップを行っているが、他に、これまで選んだ頂点との距離の最小値が最大になる位置の頂点を選ぶ方法や、法線の精度が良い(周辺の頂点が多く、三角メッシュの辺が集中している)頂点を選ぶ方法などが考えられる。
作成したシーンの頂点と、モデルの各頂点のペアで、スピンイメージとの類似度を数1を用いて算出する。
例えば、モデルの頂点数が1000個の場合、1つのシーン頂点と1000個のモデル頂点の各ペアでそれぞれ類似度を算出し、1000個の類似度が算出される。
前述した例で言うところの1000個のペアの中に、他と比較して特に類似度が高いペアがあれば、選択したシーン頂点とモデル頂点で対応点ペアCi(Si,Mi)を作成する。Siはシーン頂点を、Miはモデル頂点を示す。
この結果、シーン頂点とモデル頂点を結びつける対応点ペアCi(Si,Mi)が複数生成される。
図12に本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す。同図は、シーンとして動物の玩具を並べた環境を計測し、モデルとしてブタを使用して対応点ペアを検出した結果である。
グループ化処理では、同時に成立することが可能な対応点ペアを一つのグループとする処理を繰り返し、複数のグループを作成する。
図13に本発明の実施形態に係るグループ化処理フローを示す。以下、各ステップについて説明する。
最初に、シーン頂点Siとモデル頂点Miを結びつける対応点ペアCi(Si,Mi)を、グループGiに追加する。この時点では、グループには基準となる一つの対応点ペアしか含まれていない。つまり、Gi={Ci}。
Gi内に含まれている対応点ペアと同時に成り立つことができる新たな対応点ペアCjを決定する。同時に成り立つことができるかどうかの基準として、幾何学的一貫性を用いる。幾何学的一貫性の概念について説明する。対応点ペアC1(S1,M1)とC2(S2,M2)が同時に成り立つ場合、S1からS2までの距離と、M1からM2までの距離は同じで、かつS1法線とS2法線とベクトルS1→S2が成す3つの角の角度と、M1法線とM2法線とベクトルM1→M2が成す3つの角の角度は等しくなるはずである。この一致度合いから、対応点ペアC1とC2が幾何学的一貫性を持っているかどうかを判定することができる。
図14に本発明の実施形態に係る幾何学的一貫性の概念図を示す。
例えば、G1={C1,C4,C8}に対してC9を追加できるか評価する際、C1−C9,C4−C9,C8−C9の全てにおいて幾何学的一貫性が成り立てば、G1にC9を追加できると言える。
CjをGiに追加してもGiが幾何学的一貫性を維持可能な場合、CjをGiに追加する。CjをGiに追加するとGiが幾何学的一貫性を維持不可能な場合、Giに対する追加処理は終了する。
全ての対応点ペアを基準にグループを作成した後、グループ内の対応点ペアが多い順にグループを並び替える。
図15(A)及び(B)に本発明の実施形態に係るグループ化された対応点ペアの例を示す。
一致度の検証処理では、モデルとシーンの表面がどの程度一致するかを評価して、各グループが物体の位置姿勢候補として適切かどうかを検証する。
図16に本発明の実施形態に係る一致度の検証処理フローを示す。以下、各ステップについて説明する。
後の対応点ペア拡張処理の高速化のために、ここでシーン頂点のKDツリーを作成しておく。仮に入力データ点数がN点、参照データ点数がM点のときに、近傍点探索処理量が全探索でO(MN)であるのに対して、KDツリーを作成しておくことでO(NlogM)に削減できる。
グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にするような座標変換式Tiを算出する。Tiは3×3の回転行列Rと3×1の並進ベクトルtを含む、4×4の剛体変換式である。この変換式にしたがってモデルを移動させた結果を、グループGiが示す物体の初期位置姿勢とする。
グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点をKDツリー探索によって見つけ、そのモデル頂点とシーン頂点の間の6次元距離(法線方向のずれも考慮に入れた距離)がしきい値以下ならば、その対応点ペアをグループGiに追加する。この処理を、対応点ペアが追加できなくなるまで繰り返す。
図17図に本発明の実施形態に係る対応点ペア拡張処理の例を示す。同図(A)は拡張前を示し、同図(B)は拡張後を示す。
初期位置姿勢が正しく、モデルとシーンの表面が一致していれば、対応点ペアの拡張処理によりグループ内の対応点ペアの数は大幅に増加するはずである。グループ内の対応点ペアの数がしきい値(モデルの頂点数のβ%)より多ければ、このグループは対象物を捉えている可能性が高いとして、位置姿勢候補に残す。そうでなければ、このグループを除外する。
グループGiの対応点ペアの数がしきい値より多ければ、Giを位置姿勢候補G’に追加する。その際、Giに含まれているシーン頂点は、以後の対応点ペア拡張処理に使えないようにする。これにより、位置姿勢候補が重なり合って出現することを防いでいる。
全てのグループで一致度の検証処理を行い、位置姿勢候補G’を作成した後、対応点ペアが多い順にG’を並び替える。
一致度の検証の結果得られた対応点ペアのグループから算出される座標変換式によってモデルの位置姿勢を決定し、これを初期位置姿勢として、高精度化により最終的な位置姿勢を算出する。
図18に高精度化処理フローを示す。以下、各ステップについて説明する。
グループG’i内の対応点ペアから、モデルとシーンの頂点間距離を最小にする座標変換式T’iを算出する。T’iは、3x3の回転行列Rと、3x1の並進ベクトルtを含む、4x4の剛体変換式である。このT’iによって得られるモデルの位置姿勢を、高精度化開始時の初期位置姿勢とする。
高精度化の詳細は後述する。
モデルの初期位置姿勢と、高精度化の結果得られた位置姿勢を比較し、重心の移動距離を算出する。重心の移動距離がしきい値(パラメータδ)より大きければ、初期位置姿勢が確実でなく、高精度化の結果にも信頼が置けないものと判断して、このグループを除去する。
重心の移動距離がしきい値以内であれば、この高精度化の結果を最終的な物体の位置姿勢の一つとして登録する。
図19に、高精度化の基本概念を示す。同図に示すように、高精度化の基本は、モデルを初期位置姿勢に配置し(同図(a))、モデルとシーンとで対応する頂点を決め(同図(b))、対応する頂点間距離の総和が最小となるようなモデルの座標変換式を算出し、モデルに座標変換を加え(同図(c))、その後、モデルとシーンの対応を新たに作成する(同図(d))、という処理を、終了条件を満たすまで繰り返し実施するものである。
高精度化における主要なパラメータを以下に述べる。
(1)対応点間距離のしきい値:モデルとシーンの対応点ペアを作成する際、極端に大きくはなれた頂点同士を対応点ペアとして結び付けてしまうと、正しい変換式が得られない。よって、しきい値以上離れた頂点同士は対応しないものとする。
通常の高精度化に対して、以下の改良を行った。
(1)データの表面を表す三角メッシュにおいて、表面の輪郭部分を成す頂点に関する対応は、最小化処理の対象としない。これにより、誤対応を減らし、精度を向上させる。
図20に、輪郭部分を使用しない処理のイメージを示す。
図21に、双方向対応点ペア決定のイメージを示す。
33 外部記憶装置
34 内部記憶装置
35 中央処理装置
40 物体認識装置
41 3Dセンサ
42 物体認識処理部
43 モデルデータベース部
45 ロボット制御部
46 ロボット
Claims (7)
- 物体の位置姿勢を認識する物体認識装置であって、
頂点の三次元位置と頂点間を結び物体の表面を表す情報からなる三次元形状データを読み込み、モデルの頂点に対して物体の局所的な表面形状を表す特徴量を作成するモデル入力手段と、
実際の環境をセンサで計測して距離データを取得し、物体の表面情報を作成するシーン計測手段と、
シーン頂点に対して物体の局所的な表面形状を表す特徴量を作成し、シーン頂点の特徴量とモデル頂点の特徴量の類似度を算出し、類似度がしきい値よりも高いペアが存在したら、前記シーン頂点と前記モデル頂点を対応点ペアCiとする対応点ペア作成手段と、
前記対応点ペアCiを含むグループGiを作成し、前記グループGiに含まれている全ての対応点ペアとの関係で幾何学的一貫性を有する他の対応点ペアを前記グループGiに追加する処理を繰り返し、全ての対応点ペアを基準にグループを作成するグループ化手段と、
前記グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にする座標変換式Tiを算出し、座標変換式Tiにしたがってモデルを移動させた結果を前記グループGiが示す物体の初期位置姿勢とし、前記グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点を見つけ、そのモデル頂点とシーン頂点の間の距離が第1しきい値以下ならば、その対応点ペアを前記グループGiに追加する処理を繰り返し、繰り返した後にグループ内の対応点ペアの数が第2しきい値よりも多ければ前記グループGiから得られる位置姿勢に物体が存在すると判定し、この処理を全てのグループGiに対して実行して計測データ内に存在する0個以上の物体の位置姿勢を決定する一致度検証手段と、
前記一致度検証手段により検出したモデルの位置姿勢を初期値として、モデル頂点とシーン頂点のうち距離が最小の頂点同士を対応付け、この頂点ペア間の評価値が最小となるようにモデルの位置姿勢を補正する処理を繰り返すことで高精度化し、最終的な位置姿勢を算出する高精度化手段を備えることを特徴とする物体認識装置。 - 前記特徴量がスピンイメージであることを特徴とする請求項1に記載の物体認識装置。
- 前記三次元形状データが3D−CADデータであることを特徴とする請求項1又は2に記載の物体認識装置。
- 前記高精度化手段が、データの表面の輪郭部分を成す頂点は最小化処理の対象としないことを特徴とする請求項1乃至3のいずれか一項に記載の物体認識装置。
- 前記高精度化手段が、モデルの各頂点から最小距離にあるシーン頂点を見つけ、対応点ペアとするだけでなく、シーンの各頂点から最小距離にあるモデル頂点を見つけて対応点ペアとすることを特徴とする請求項1乃至4のいずれか一項に記載の物体認識装置。
- 前記高精度化手段が、モデルの初期位置姿勢と、高精度化された位置姿勢を比較して、重心の移動距離を算出し、当該重心の移動距離が第3しきい値以内である場合は、当該位置姿勢を最終的な位置姿勢の一つとして登録し、当該重心の移動距離が第3しきい値よりも大きい場合は、当該位置姿勢を最終的な位置姿勢の一つとして登録しないことを特徴とする請求項1乃至5のいずれか一項に記載の物体認識装置。
- 請求項1記載の物体認識装置と、
前記物体認識装置から出力される前記位置姿勢情報に基づいてロボットの作業位置を制御する制御手段を備えることを特徴とするロボット装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007303502A JP5104248B2 (ja) | 2007-11-22 | 2007-11-22 | 物体認識装置およびロボット装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007303502A JP5104248B2 (ja) | 2007-11-22 | 2007-11-22 | 物体認識装置およびロボット装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009128192A JP2009128192A (ja) | 2009-06-11 |
JP5104248B2 true JP5104248B2 (ja) | 2012-12-19 |
Family
ID=40819271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007303502A Expired - Fee Related JP5104248B2 (ja) | 2007-11-22 | 2007-11-22 | 物体認識装置およびロボット装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5104248B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5380792B2 (ja) * | 2007-06-15 | 2014-01-08 | 株式会社Ihi | 物体認識方法および装置 |
JP5548482B2 (ja) * | 2010-02-26 | 2014-07-16 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体 |
JP5787642B2 (ja) * | 2011-06-28 | 2015-09-30 | キヤノン株式会社 | 対象物保持装置、対象物保持装置の制御方法、およびプログラム |
JP5907336B2 (ja) * | 2011-12-14 | 2016-04-26 | 株式会社Ihi | 溶接ビード位置検出方法及び溶接ビード位置検出装置 |
JP6640060B2 (ja) * | 2016-09-27 | 2020-02-05 | 株式会社日立製作所 | ロボットシステム |
WO2018131163A1 (ja) | 2017-01-16 | 2018-07-19 | 富士通株式会社 | 情報処理装置、データベース生成装置、方法、プログラム、及び記憶媒体 |
JP6438512B2 (ja) | 2017-03-13 | 2018-12-12 | ファナック株式会社 | 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5715166A (en) * | 1992-03-02 | 1998-02-03 | General Motors Corporation | Apparatus for the registration of three-dimensional shapes |
JPH09277184A (ja) * | 1996-04-15 | 1997-10-28 | Ricoh Co Ltd | 画像処理方法 |
JPH11134518A (ja) * | 1997-11-04 | 1999-05-21 | Minolta Co Ltd | 3次元形状データ処理装置 |
JP2000337831A (ja) * | 1999-05-28 | 2000-12-08 | Minolta Co Ltd | 3次元データの位置合わせ方法 |
SE529377C2 (sv) * | 2005-10-18 | 2007-07-24 | Morphic Technologies Ab Publ | Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare |
JP4780198B2 (ja) * | 2006-11-10 | 2011-09-28 | コニカミノルタホールディングス株式会社 | 認証システム及び認証方法 |
JP5092711B2 (ja) * | 2007-11-22 | 2012-12-05 | 株式会社Ihi | 物体認識装置およびロボット装置 |
-
2007
- 2007-11-22 JP JP2007303502A patent/JP5104248B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009128192A (ja) | 2009-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5251080B2 (ja) | 物体認識方法 | |
JP5092711B2 (ja) | 物体認識装置およびロボット装置 | |
JP4900204B2 (ja) | 物体認識方法 | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
US10684116B2 (en) | Position and orientation measuring apparatus, information processing apparatus and information processing method | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
JP5104248B2 (ja) | 物体認識装置およびロボット装置 | |
US9467682B2 (en) | Information processing apparatus and method | |
JP5627325B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP6004809B2 (ja) | 位置姿勢推定装置、情報処理装置、情報処理方法 | |
JP6323993B2 (ja) | 情報処理装置、情報処理方法、及びコンピュータプログラム | |
JP5380792B2 (ja) | 物体認識方法および装置 | |
JP4766269B2 (ja) | 物体検出方法、物体検出装置、及びそれを備えたロボット | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
JP2021086432A (ja) | 情報処理装置、情報処理方法、コンピュータプログラム、計測装置、システムおよび物品の製造方法 | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
WO2008032375A1 (fr) | Dispositif et procédé de correction d'image, et programme informatique | |
JP5083715B2 (ja) | 三次元位置姿勢計測方法および装置 | |
JP5462662B2 (ja) | 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム | |
JP3516668B2 (ja) | 3次元形状認識方法、装置およびプログラム | |
JPH10124677A (ja) | 物体の姿勢推定方法および物体の姿勢推定装置 | |
JP7533265B2 (ja) | 支援システム、画像処理装置、支援方法およびプログラム | |
Viswanath et al. | A simplified error model for height estimation using a single camera | |
CN116524011B (zh) | 一种居家环境下机器人对目标位姿的精化方法 | |
JP5938201B2 (ja) | 位置姿勢計測装置、その処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120917 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5104248 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151012 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |