JP5346863B2 - 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム - Google Patents
3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム Download PDFInfo
- Publication number
- JP5346863B2 JP5346863B2 JP2010077213A JP2010077213A JP5346863B2 JP 5346863 B2 JP5346863 B2 JP 5346863B2 JP 2010077213 A JP2010077213 A JP 2010077213A JP 2010077213 A JP2010077213 A JP 2010077213A JP 5346863 B2 JP5346863 B2 JP 5346863B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- point group
- model
- dimensional position
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
請求項2の発明は、対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する装置であって、対象体の3次元計測によって得られた計測点群の各点の3次元位置情報と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報とを取得する取得手段と、前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うマッチング手段と、前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識する認識手段と、前記計測点群全体の空間位置を代表する計測代表点と、前記モデル点群全体の空間位置を代表するモデル代表点とのそれぞれの空間位置を一致させるように、前記計測点群と前記モデル点群との相対的な空間位置関係を調整する代表点一致化手段とを備え、前記マッチング手段は、前記計測点群と前記モデル点群との各点の3次元位置情報として、前記代表点一致化手段によって相対的な空間位置関係が調整された後の、各点の3次元位置情報を用いることを特徴とする。
請求項3の発明は、対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する装置であって、対象体の3次元計測によって得られた計測点群の各点の3次元位置情報と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報とを取得する取得手段と、前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うマッチング手段と、前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識する認識手段とを備え、前記マッチング手段は、前記逆マッチング処理に際して、前記計測点群中の前記対応点を中心として所定範囲内に存在する前記計測点群中の各点の空間位置を平均した点を、前記モデル点群中の前記注目点に対する対応点として採用することを特徴とする。
特に明示しない限り、この明細書における「対象体の3次元位置・姿勢」とは、対象体の空間位置および空間姿勢の少なくとも一方を含む座標値の組として定義される。空間姿勢は、対象体が1軸回転完全対称性を有する場合(例:円柱)には2自由度であり、1軸回転完全対称性を持たない場合には3自由度となる。
<B−1.システムの概要>
図1は、本発明の第1実施形態にかかる3次元位置・姿勢認識システムSYS1の構成を示す概念図である。図1に示すように3次元位置・姿勢認識システムSYS1は、当該システムSYS1外の対象体3(物品など)を異なる方向から撮影する複数の撮影手段であるカメラ4、5と、カメラ4、5の撮影結果に基づいて、対象体3の3次元位置・姿勢を認識する3次元位置・姿勢認識装置100Aとを備える。
このシステムSYS1では、対象体に設定された計測点群の各点の3次元位置を実測し、ICPアルゴリズムを用いて当該対象体の3次元モデルの3次元位置・姿勢とマッチングさせることによって対象体の3次元位置・姿勢を認識する。
図2および図3は、順マッチング処理を説明するフローチャートとその概念図である。ICPマッチングに用いるICPアルゴリズムでは、まず、計測点群2とモデル点群1との各点のうち、ICPマッチングに用いる範囲を決める。このとき全ての点群についてICPマッチングに用いてもよい(図2ステップS1−1)。
ここで、順マッチング処理が大きな誤差を含むかあるいはマッチング処理そのものが失敗する、すなわち図3の計測点群2が対象体3の本来の3次元位置・姿勢を示す座標に収束しない原因のひとつとして、既述したように計測点群2に含まれるノイズの影響がある。ここでノイズとは、複数の画像をステレオ処理した際に計測点群2中に生じる、実際の対象体の3次元形状に対応する3次元位置・姿勢情報を示すものではない点をいう。例えば図4に示すように、計測点群2(黒丸)には、モデル点群1(白丸)中には対応する点がないノイズが含まれる。
※ 順マッチング処理:D1→M1,D2→M2,D3→M3,…;
※ 逆マッチング処理:M1→D1,M2→D2,M3→D3,…;
のように、双方は実質的に同じ結果を与える。
※ 順マッチング:D1→M1,D2→M2,DP→M3,D3→M3、…;
※ 逆マッチング:M1→D1,M2→D2,M3→D3,…;
のように、双方の結果は異なるものとなる。
この逆マッチング処理によれば、注目点となるモデル点群1の各点は、その全てが対象体3の3次元形状を示す有効な点であるので、前述の順マッチング処理のようなノイズの影響を抑制することができる。よって、その結果に基づいた3次元位置・姿勢認識の精度を向上させることができる。
<C−1.代表点の一致化>
図8に示すのは、第2実施形態にかかる3次元位置・姿勢認識システムSYS2である。図1に示すシステムSYS1と比較して、システムSYS2の3次元位置・姿勢認識装置100Bでは、取得手段8とマッチング手段9との間に、代表点一致化手段11が介在しているところが異なる。その他の構成については図1に示す場合と同様であるので、詳細な説明は省略する。
Xav=<Xi>, Yav=<Yi>, Zav=<Zi>,
で規定される3次元座標値(Xav,Yav,Zav)を持つ点を指す。ただし、記号<…>は平均値を示す。
Xmid=(Xmax−Xmin)/2,
Ymid=(Ymax−Ymin)/2,
Zmid=(Zmax−Zmin)/2,
を3次元座標値(Xmid,Ymid,Zmid)として持つ点を指す。
生成手段6において、ステレオ法を用いて3次元位置情報を生成する場合、いわゆるブロックマッチング(例えば5×5画素や7×7画素といった小領域でのマッチング)を利用しているため、左右画像に存在する対象体のエッジをマッチングして3次元形状を生成すると、そのエッジを示す点群には所定の太さが生じる。このとき、この所定の太さを持った計測点群のエッジと、理想的に太さのほとんどないモデル点群のエッジとで逆マッチング処理すると、計測点群のエッジの太さの分だけ逆マッチング処理に誤差が生じ、逆マッチング処理の失敗を招くことがある。
第2実施形態によれば、代表点一致化手段11によって相対的な空間位置関係が調整された後の、各点の3次元位置情報を用いることで、逆マッチング処理を行う前に、計測点群2とモデル点群1との相対的な空間位置関係が調整されるので、双方の初期位置が大きく異なることによるICPマッチングの失敗を抑制し、対象体3の3次元位置・姿勢認識の精度を向上させることができる。
<D−1.構成>
カメラ等による撮影結果に基づいて生成される計測点群は、カメラ等の観測方向により計測可能な面が限定され、対象体の全周形状の一部分の形状を表すものとなる。図11に示すように、この部分形状に対応する計測点群2(黒丸)と、対象体の全周形状に対応するモデル点群1(白丸)とを逆マッチング処理させると、計測点群2(黒丸)とは対応しないモデル点群1(白丸)中の部分と逆マッチング処理されてしまう可能性が高まる。よって3次元位置・姿勢認識の精度が低下することになる。
上記のような、計測点群2とは対応しないモデル点群1中の部分と逆マッチング処理されてしまうことを防ぐため、記憶手段7において記憶するモデル点群として、第1実施形態において示したような対象体3の全周形状に対応するモデル点群1ではなく、部分モデル点群101を採用する(図13参照)。部分モデル点群101は、対象体3のさまざまな部分的な形状に対応する複数の部分モデルから構成されており、対象体3の3次元モデルの観察方向に応じて、例えば各面の形状に対応する点群で構成される「点群の集合」である。
このように、第3実施形態のシステムSYS3の3次元位置・姿勢認識装置100Cは、3次元モデルの観察方向に応じて予め準備された複数の部分モデル点群101から1つの点群の各点の3次元位置情報を抽出し、当該1つの部分モデル点群101をモデル点群として採用させる抽出手段12を備える。
<E−1.構成>
図15に示すのは、第4実施形態にかかる3次元位置・姿勢認識システムSYS4の構成を示す概念図である。第1実施形態の図1に示すシステムSYS1と比較して、システムSYS4の3次元位置・姿勢認識装置100Dは、マッチング手段9内に、取得手段8と接続される順マッチング手段13と、順マッチング手段13と接続される逆マッチング手段14とが備えられていることが異なる。その他の構成については第1実施形態の図1に示すシステムSYS1と同様であるので、詳細な説明は省略する。なお、図15においては、図8に示した代表点一致化手段11は記載されていないが、図8に示す場合と同様に備えることも可能である。また、図12に示した抽出手段12も記載されていないが、図12に示す場合と同様にシステムSYS4が抽出手段12を備えることも可能である。
第4実施形態では、逆マッチング手段14において逆マッチング処理を行う前に、順マッチング手段13において順マッチング処理を行い、順マッチング手段13によって順マッチング処理された後の計測点群2とモデル点群1とに基づいて、逆マッチング処理を行う。
・ICPアルゴリズムにおける繰返し回数の上限閾値を定めておき、繰返し回数(収束パラメータ)が当該閾値に至ると順マッチングを終了する、
・収束パラメータとして上記の平均二乗誤差を採用してその閾値を定めておき、収束パラメータが当該閾値以下になると順マッチングを終了する、
・収束パラメータとして上記の平均二乗誤差を採用し、その時点での収束パラメータが収束パラメータ自身の初期値の所定の%(閾値割合)以下になると順マッチングを終了する、
などを採用することができる。
このように、第4実施形態によれば、順マッチング処理の後に逆マッチング処理を行うことにより、それらの固有の利点を相乗的に組み合わせて、3次元位置・姿勢認識の精度を高めることができる。
図18に示すのは、本発明の実施形態にかかる3次元位置・姿勢認識システムを搭載した産業用ロボットである。具体的には産業用ロボットに備えられたコンピュータにインストールされて実行されることにより、3次元位置・姿勢認識装置としての機能を産業用ロボットに果たさせている。図に示すようにロボット200は、回転自在のロボット本体201と、ロボット本体に装着されたアーム202とを備える。
※ 対象物の3次元モデルを表現するモデル点群の位置情報は、データベースとして3次元位置・姿勢認識装置100A〜100Dの外部にあってもよい。この場合にはネットワーク経由で必要なモデル点群の位置情報を取得できる。また、比較的長期間にわたって同一種類の対象物の認識を行うシステムの場合には、モデル点群の位置情報は、オフラインでシステムにロードされてもよい。さらに、カメラ4,5からの画像情報に基づいて計測点群の位置情報を得るまでの段階は、別体のコンピュータで行ってもよい。すなわち、3次元位置・姿勢認識装置100A〜100Dのうち、この発明の特徴に相当する本質部分としては、取得手段8から認識手段10までの機能手段である。
2 計測点群
3 対象体
100A〜100D 3次元位置・姿勢認識装置
101 部分モデル点群
200 ロボット
300,301 エッジ
302 注目点
304 擬似最近傍点
305 探索領域
SYS1〜SYS4 3次元位置・姿勢認識システム
Claims (12)
- 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する装置であって、
対象体の3次元計測によって得られた計測点群の各点の3次元位置情報と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報とを取得する取得手段と、
前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うマッチング手段と、
前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識する認識手段とを備え、
前記マッチング手段は、
前記計測点群の各点を注目点とし、当該各注目点を前記モデル点群中の対応点に近づけていくICPアルゴリズムを実行する順マッチング処理を行う順マッチング手段と、
前記順マッチング手段によって前記順マッチング処理された後の前記計測点群と前記モデル点群とに基づいて、前記逆マッチング処理を行う逆マッチング手段とを含むことを特徴とする、
3次元位置・姿勢認識装置。 - 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する装置であって、
対象体の3次元計測によって得られた計測点群の各点の3次元位置情報と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報とを取得する取得手段と、
前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うマッチング手段と、
前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識する認識手段と、
前記計測点群全体の空間位置を代表する計測代表点と、前記モデル点群全体の空間位置を代表するモデル代表点とのそれぞれの空間位置を一致させるように、前記計測点群と前記モデル点群との相対的な空間位置関係を調整する代表点一致化手段とを備え、
前記マッチング手段は、前記計測点群と前記モデル点群との各点の3次元位置情報として、前記代表点一致化手段によって相対的な空間位置関係が調整された後の、各点の3次元位置情報を用いることを特徴とする、
3次元位置・姿勢認識装置。 - 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する装置であって、
対象体の3次元計測によって得られた計測点群の各点の3次元位置情報と、前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報とを取得する取得手段と、
前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うマッチング手段と、
前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識する認識手段とを備え、
前記マッチング手段は、前記逆マッチング処理に際して、前記計測点群中の前記対応点を中心として所定範囲内に存在する前記計測点群中の各点の空間位置を平均した点を、前記モデル点群中の前記注目点に対する対応点として採用することを特徴とする、
3次元位置・姿勢認識装置。 - 請求項1〜3のいずれかに記載の3次元位置・姿勢認識装置であって、
前記モデル点群は、前記3次元モデルの全周形状のうち一部分についての3次元形状を表現した点群であることを特徴とする、
3次元位置・姿勢認識装置。 - 請求項4に記載の3次元位置・姿勢認識装置であって、
前記取得手段は、
前記3次元モデルの観察方向に応じて予め準備された複数のモデル点群から1つの点群の各点の3次元位置情報を抽出し、当該1つの点群を前記モデル点群として採用させる抽出手段を含むことを特徴とする、
3次元位置・姿勢認識装置。 - 対象体を異なる方向から撮影する複数の撮影手段と、
前記複数の撮影手段による撮影結果に基づいて、前記対象体の計測点群の各点の3次元位置情報を生成する生成手段と、
前記対象体の3次元モデル上に規定されたモデル点群の各点の3次元位置情報を記憶する記憶手段と、
前記計測点群と前記モデル点群との各点の3次元位置情報に基づいて、前記対象体の3次元位置・姿勢を認識する請求項1〜5のいずれかに記載の3次元位置・姿勢認識装置と、
を備えることを特徴とする、
3次元位置・姿勢認識システム。 - 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する方法であって、
(a)対象体の3次元モデルを表現するモデル点群の各点の3次元位置情報を記憶手段に記憶させるステップと、
(b)前記対象体の3次元計測によって、計測点群の各点の3次元位置情報を生成するステップと、
(c)前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うステップと、
(d)前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識するステップとを備え、
前記工程(c)は、
前記計測点群の各点を注目点とし、当該各注目点を前記モデル点群中の対応点に近づけていくICPアルゴリズムを実行する順マッチング処理を行うステップと、
前記順マッチング処理された後の前記計測点群と前記モデル点群とに基づいて、前記逆マッチング処理を行うステップとを含むことを特徴とする、
3次元位置・姿勢認識方法。 - 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する方法であって、
(a)対象体の3次元モデルを表現するモデル点群の各点の3次元位置情報を記憶手段に記憶させるステップと、
(b)前記対象体の3次元計測によって、計測点群の各点の3次元位置情報を生成するステップと、
(c)前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うステップと、
(d)前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識するステップと、
(e)前記工程(b)の後前記工程(c)の前に、前記計測点群全体の空間位置を代表する計測代表点と、前記モデル点群全体の空間位置を代表するモデル代表点とのそれぞれの空間位置を一致させるように、前記計測点群と前記モデル点群との相対的な空間位置関係を調整するステップとを備え、
前記工程(c)は、前記計測点群と前記モデル点群との各点の3次元位置情報として、前記工程(e)において相対的な空間位置関係が調整された後の、各点の3次元位置情報を用いて前記逆マッチング処理を行うステップであることを特徴とする、
3次元位置・姿勢認識方法。 - 対象体の空間位置と空間姿勢との組み合わせを3次元位置・姿勢として認識する方法であって、
(a)対象体の3次元モデルを表現するモデル点群の各点の3次元位置情報を記憶手段に記憶させるステップと、
(b)前記対象体の3次元計測によって、計測点群の各点の3次元位置情報を生成するステップと、
(c)前記モデル点群の各点を注目点として、当該各注目点を前記計測点群中の対応点に近づけてゆくICPアルゴリズムを実行する逆マッチング処理を行うステップと、
(d)前記逆マッチング処理の結果に基づいて、前記対象体の3次元位置・姿勢を認識するステップとを備え、
前記工程(c)は、前記逆マッチング処理に際して、前記計測点群中の前記対応点を中心として所定範囲内に存在する前記計測点群中の各点の空間位置を平均した点を、前記モデル点群中の前記注目点に対する対応点として採用するステップであることを特徴とする、
3次元位置・姿勢認識方法。 - 請求項7〜9のいずれかに記載の3次元位置・姿勢認識方法であって、
前記モデル点群は、前記3次元モデルの全周形状のうち一部分についての3次元形状を表現した点群であることを特徴とする、
3次元位置・姿勢認識方法。 - 請求項10に記載の3次元位置・姿勢認識方法であって、
前記工程(b)は、
前記3次元モデルの観察方向に応じて予め準備された複数のモデル点群から1つの点群の各点の3次元位置情報を抽出し、当該1つの点群を前記モデル点群として、当該モデル点群の各点の3次元位置情報を記憶手段に記憶させるステップを含むことを特徴とする、
3次元位置・姿勢認識方法。 - コンピュータにインストールされて実行されることにより、前記コンピュータを、請求項1〜5のいずれかに記載の3次元位置・姿勢認識装置として機能させることを特徴とする、
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010077213A JP5346863B2 (ja) | 2010-03-30 | 2010-03-30 | 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010077213A JP5346863B2 (ja) | 2010-03-30 | 2010-03-30 | 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011209116A JP2011209116A (ja) | 2011-10-20 |
JP5346863B2 true JP5346863B2 (ja) | 2013-11-20 |
Family
ID=44940338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010077213A Expired - Fee Related JP5346863B2 (ja) | 2010-03-30 | 2010-03-30 | 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5346863B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11828603B2 (en) * | 2017-05-19 | 2023-11-28 | Pioneer Corporation | Measurement device, measurement method and program |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013137760A (ja) * | 2011-12-16 | 2013-07-11 | Cognex Corp | 複数のカメラに対する複数部品コレスポンダ |
JP5867787B2 (ja) * | 2012-03-23 | 2016-02-24 | アイシン精機株式会社 | 欠陥抽出装置および欠陥抽出方法 |
CN102679871B (zh) * | 2012-05-07 | 2015-03-11 | 上海交通大学 | 亚像素精度工业物体快速检测方法 |
CN104395929B (zh) * | 2012-06-21 | 2017-10-03 | 微软技术许可有限责任公司 | 使用深度相机的化身构造 |
CN104462163B (zh) * | 2014-03-06 | 2018-01-16 | 北京工商大学 | 一种三维模型表征方法、检索方法及检索系统 |
US9916495B2 (en) | 2014-03-28 | 2018-03-13 | Nec Corporation | Face comparison device, method, and recording medium |
JP6528723B2 (ja) | 2016-05-25 | 2019-06-12 | トヨタ自動車株式会社 | 物体認識装置、物体認識方法及びプログラム |
JP6874772B2 (ja) | 2016-11-25 | 2021-05-19 | 日本電気株式会社 | 画像生成装置、画像生成方法、およびプログラム |
JP7111297B2 (ja) * | 2018-11-26 | 2022-08-02 | 株式会社豊田中央研究所 | 位置ずれ補正装置及びプログラム |
CN113065546B (zh) * | 2021-02-25 | 2022-08-12 | 湖南大学 | 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统 |
JP2022184429A (ja) * | 2021-06-01 | 2022-12-13 | 村田機械株式会社 | 物品種類判定方法、および物品種類判定システム |
JP2022184425A (ja) * | 2021-06-01 | 2022-12-13 | 村田機械株式会社 | エッジ位置検出方法、移載位置決定方法、および物品移載システム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4383230B2 (ja) * | 2004-04-01 | 2009-12-16 | 三菱電機株式会社 | 3次元物体照合装置 |
JP2008014691A (ja) * | 2006-07-04 | 2008-01-24 | Japan Aerospace Exploration Agency | ステレオ画像計測方法とそれを実施する装置 |
US7865316B2 (en) * | 2008-03-28 | 2011-01-04 | Lockheed Martin Corporation | System, program product, and related methods for registering three-dimensional models to point data representing the pose of a part |
-
2010
- 2010-03-30 JP JP2010077213A patent/JP5346863B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11828603B2 (en) * | 2017-05-19 | 2023-11-28 | Pioneer Corporation | Measurement device, measurement method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2011209116A (ja) | 2011-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5346863B2 (ja) | 3次元位置・姿勢認識装置およびそれを用いたシステム、方法、プログラム | |
JP6426968B2 (ja) | 情報処理装置およびその方法 | |
JP5393318B2 (ja) | 位置姿勢計測方法及び装置 | |
JP6525459B2 (ja) | 3d画像データにおける3dポーズの改良されたスコアリング及び偽ポイント除去のためのシステム及び方法 | |
JP5430456B2 (ja) | 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置 | |
US9384585B2 (en) | 3-dimensional shape reconstruction device using depth image and color image and the method | |
JP5863440B2 (ja) | 情報処理装置および方法 | |
CN112001926B (zh) | 基于多维语义映射rgbd多相机标定方法、系统及应用 | |
US20120316820A1 (en) | Information processing apparatus and information processing method | |
JP2014169990A (ja) | 位置姿勢計測装置及び方法 | |
JP6282098B2 (ja) | キャリブレーション装置及び方法 | |
JP2014002033A (ja) | 画像処理装置、画像処理方法 | |
JP6097903B2 (ja) | 3次元形状の取得装置、処理方法およびプログラム | |
Shin et al. | A multi-camera calibration method using a 3-axis frame and wand | |
CN113160335A (zh) | 一种基于双目视觉的模型点云及三维表面重建方法 | |
Siddique et al. | 3d object localization using 2d estimates for computer vision applications | |
JP5018282B2 (ja) | 製品の3次元形状モデルデータ作成方法 | |
Cui et al. | ACLC: Automatic Calibration for non-repetitive scanning LiDAR-Camera system based on point cloud noise optimization | |
Cociaş et al. | Multiple-superquadrics based object surface estimation for grasping in service robotics | |
JP5462662B2 (ja) | 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム | |
JP2013072857A (ja) | 3次元位置・姿勢認識装置およびその方法、プログラム | |
JP5030183B2 (ja) | 3次元物体位置姿勢計測方法 | |
JP6890422B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
Gong et al. | Feature-based three-dimensional registration for repetitive geometry in machine vision | |
Hong et al. | Surface reconstruction of 3D objects using local moving least squares and KD trees |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130813 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5346863 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |