JP2013221797A - 計測装置、計測方法及びプログラム - Google Patents

計測装置、計測方法及びプログラム Download PDF

Info

Publication number
JP2013221797A
JP2013221797A JP2012092168A JP2012092168A JP2013221797A JP 2013221797 A JP2013221797 A JP 2013221797A JP 2012092168 A JP2012092168 A JP 2012092168A JP 2012092168 A JP2012092168 A JP 2012092168A JP 2013221797 A JP2013221797 A JP 2013221797A
Authority
JP
Japan
Prior art keywords
edge
orientation
model
edge region
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012092168A
Other languages
English (en)
Other versions
JP6045178B2 (ja
Inventor
Kazuhiko Kobayashi
一彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012092168A priority Critical patent/JP6045178B2/ja
Publication of JP2013221797A publication Critical patent/JP2013221797A/ja
Application granted granted Critical
Publication of JP6045178B2 publication Critical patent/JP6045178B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】フィレット部や面取り部等のエッジ幅のある形状を有する物体の位置及び姿勢のうちの少なくとも何れか一方を精度よく推定する。
【解決手段】モデルエッジ抽出部210は、物体の形状を示す形状情報からエッジ領域と当該エッジ領域の幅とを抽出する。モデルエッジ投影部220は、物体の位置及び姿勢のうちの少なくとも何れか一方のパラメータに基づいて、物体が撮像された画像データに対してエッジ領域を投影する。エッジ検出部230は、エッジ領域の幅に基づいて、画像データからエッジを検出する。位置姿勢更新部240は、投影したエッジ領域と検出したエッジとの距離を小さくするように上記パラメータを更新する。
【選択図】図1

Description

本発明は、物体の位置及び姿勢のうちの少なくとも何れか一方を計測する技術に関するものである。
物体の位置及び姿勢を計測する技術は、マシンビジョンの技術の一つとして物体のハンドリングで利用される。物体の幾何学的な形状は、画像データ上ではエッジとして検出される。非特許文献1には、物体の幾何学的な形状を示す情報(以下、モデルと称す)を用いて当該物体の位置及び姿勢を推定する技術が開示されている。非特許文献1に開示される技術は、先ず、推定されている位置及び姿勢のパラメータを用いて、撮像された物体の画像データ上にモデルが投影される。次に、投影されたモデルとエッジとの対応付けが画像データ上において行われ、対応付けられたモデルとエッジとの距離を小さくするように位置及び姿勢のパラメータが更新される。以上の処理が繰り返されることにより、物体の位置及び姿勢が推定される。
Tom Drummond, Roberto Cipolla, "Real-Time Visual Tracking of Complex Structures", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.24, No.7, pp.932-946, 2002.
非特許文献1において開示されている物体のモデルは、面の輪郭をエッジの線分として表現している。そのエッジには幅がなく、エッジの位置は固定されている。物体がモールド部品や組み付け部品である場合、面と面との稜線部の角を削り取った面取り部や、小さい曲率の曲面で構成されているフィレット部を有するものが多い。これら面取り部やフィレット部のエッジは、数画素の幅として画像データから検出される。
撮影距離が短い場合、面取り部やフィレット部は、画像データ上では幅のある濃度勾配となり、その濃度勾配により検出されるエッジの位置が変化する。また、フィレット部のような曲面で構成されている部分は、光源の位置により光沢反射のパターンが変化し、同じく検出されるエッジの位置が変化する。照明を工夫したとしても、山積み部品のように物体が様々な姿勢をとる場合、やはり検出されるエッジの位置が変化する。このように検出されるエッジの位置が変化すると、モデルとエッジとの距離を評価関数として位置及び姿勢のパラメータを算出する方法においては誤差要因となり、精度が低下するという問題があった。
そこで、本発明の目的は、フィレット部や面取り部等のエッジ幅のある形状を有する物体の位置及び姿勢のうちの少なくとも何れか一方を精度よく推定することにある。
本発明の計測装置は、物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測装置であって、前記物体の形状を示す形状情報からエッジ領域と当該エッジ領域の幅とを抽出する抽出手段と、前記物体の位置及び姿勢のうちの少なくとも何れか一方のパラメータに基づいて、前記物体が撮像された画像データに対して前記エッジ領域を投影する投影手段と、前記エッジ領域の幅に基づいて前記画像データからエッジを検出する検出手段と、前記投影したエッジ領域と前記検出したエッジとの距離を小さくするように前記パラメータを更新する更新手段とを有することを特徴とする。
本発明によれば、フィレット部や面取り部等のエッジ幅のある形状を有する物体の位置及び姿勢のうちの少なくとも何れか一方を精度よく推定することができる。
本発明の実施形態に係る位置姿勢計測装置の構成を示す図である。 本発明の実施形態に係る位置姿勢計測装置の処理を示すフローチャートである。 モデルエッジの幅と検出フィルタとの関係を示す図である。
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。
先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る位置姿勢計測装置200の構成を示す図である。図1に示すように、位置姿勢計測装置200は、物体の概略的な位置及び姿勢を示す概略位置姿勢情報110と、物体の幾何学的な形状を示す情報であるモデル120と、撮像装置によって撮像された物体の画像データ130とを入力する。そして、位置姿勢計測装置200は、物体の位置及び姿勢の推定結果(以下、位置姿勢推定結果と称す)140を出力する。
モデルエッジ抽出部210は、モデル120からエッジに相当する領域(以下、モデルエッジと称す)と当該モデルエッジの幅とを抽出する。モデルエッジ投影部220は、推定中の物体の位置及び姿勢のパラメータと、画像データ130の撮影時のパラメータとを用いて、モデルエッジ抽出部210により抽出されたモデルエッジを画像データ130に投影する。エッジ検出部230は、上記モデルエッジの幅に対応する検出フィルタを用いて、画像データ130から物体のエッジを検出する。
位置姿勢更新部240は、モデルエッジ抽出部210により抽出されたモデルエッジと、エッジ検出部230により検出された物体のエッジとの距離を小さくするように位置及び姿勢のパラメータの更新量を算出する。そして、位置姿勢更新部240は、算出した更新量で位置及び姿勢のパラメータを更新する。ここで、位置及び姿勢のパラメータの更新量が所定の値(規定値)以下である場合、位置姿勢更新部240は、そのときの位置及び姿勢のパラメータ(又は、位置及び姿勢のパラメータに基づく位置情報及び姿勢情報)を位置姿勢推定結果140として出力する。一方、位置及び姿勢のパラメータの更新量が所定の値(既定値)より大きい場合、モデルエッジ抽出部210からの処理に戻って、物体の位置及び姿勢の推定を繰り返す。なお、本実施形態では、物体の位置及び姿勢の双方について推定を行うが、本発明は、物体の位置及び姿勢のうちの何れか一方を推定する場合にも適用することができる。
以下、図2を参照しながら、本実施形態に係る位置姿勢計測装置200の処理について説明する。図2は、本実施形態に係る位置姿勢計測装置200の処理を示すフローチャートである。なお、図2に示す処理は、位置姿勢計測装置200内における、不図示のCPUがROM等の記録媒体から必要なデータ及びプログラムを読み込み、実行することによって実現する処理である。
ステップS201において、モデルエッジ抽出部210は、物体の幾何学的な形状を示す情報であるモデル120から、モデルエッジと当該モデルエッジの幅とを抽出する。なお、モデルエッジ抽出部210に対して入力されるモデル120は、設計時の3DCADモデルでもよいし、リバースエンジニアリングにより再構成されたポリゴンモデルでもよい。フィレット部や面取り部を示す情報は、設計時に設定されているものがあれば、それを利用してもよい。また、面と面との交線から或る距離の稜線範囲を面取り部として抽出してもよい。モデルエッジの幅を抽出することができれば、何れの方法を使用しても構わない。例えば、実測により物体のモデルエッジの幅を測定してもよい。
また、モデルエッジの幅の表現方法としては、面取り部のエッジを円筒の円弧として近似したときの当該円筒の半径の値によってモデルエッジの幅を表現してもよい。或いは、面取り部を平面として近似したときの当該平面の法線と当該平面上のエッジ領域の長さとによりモデルエッジの幅を表現してもよい。また、面取り部の境界部の座標値でモデルエッジの幅を表現してもよい。即ち、実際の物体の物理的な長さに変換できるように表現できれば、何れも方法を用いてもよい。
なお、モデルエッジのうち、視線の反対側に位置するモデルエッジは観察されない。そこで、観察されるモデルエッジを視線に応じて選択しなければならない。具体的には、モデル120の対応する面に異なる描画色を設定し、グラフィックスプロセッサでモデル120を描画したときの描画色からモデルエッジを抽出することができる。また、モデル120を複数の視線から観測したときのモデルエッジを視線毎に事前に保持しておき、該当するモデルエッジを読み出すようにしてもよい。
ステップS202において、モデルエッジ投影部220は、推定中の物体の位置及び姿勢のパラメータと、画像データ130の撮影時のパラメータとを用いて、モデルエッジ抽出部210により抽出されたモデルエッジを画像データ130の座標系に対応付ける。これにより、モデルエッジが画像データ130に対して投影される。ここで、モデルエッジ上の1つのサンプル点に対応するモデルエッジの幅の投影方法について説明する。
モデルエッジ上のサンプル点は、モデル120の幾何学的な形状を定義する座標系上での値としてM(X,Y,Z)と表現される。このサンプル点は、式1に示すように、画像データ130の座標系上におけるモデル120の位置及び姿勢のパラメータである回転R及び並進tにより、M´(X´,Y´,Z´)に剛体変換される。
Figure 2013221797
画像データ130の撮影時のパラメータとして、画像データ130の撮影時の焦点距離をfとし、主点位置を(cx,cy)とすると、M´(X´,Y´,Z´)は、画像データ130上の投影位置(u,v)として、式2のように表すことができる。
Figure 2013221797
ここで、モデルエッジのサンプル点に対応するモデルエッジの幅の表現方法として、(1)1つの幅で表現する方法、(2)平面として表現する方法、(3)3次元のモデルとして表現する方法、がある。
(1)1つの幅で表現する方法では、モデルエッジの幅を円筒の一部として考えた場合で、その値をe0とすると、式3に示すように、投影されたモデルエッジの幅e0´は、サンプル点の奥行きZ´に依存する。
Figure 2013221797
ここでは、Z´は各モデルエッジの奥行き値を用いているが、撮影距離に対してモデルエッジの奥行きが小さい場合、モデル120の平均奥行き値を各モデルエッジの奥行き値としても構わない。モデルエッジのエッジ方向と直交するエッジ探索方向のベクトルを(nex,ney,nez)とし、画像データ130の撮影時のパラメータを使用して、画像データ130にモデルエッジを投影すると、画像データ130上のエッジ投影方向は、式4のように(nex´,ney´)で表される。
Figure 2013221797
また、モデルエッジの幅を含むエッジ位置(u´,v´)は、式5のように表すことができる。
Figure 2013221797
(2)平面として表現する方法では、面取り部を平面で近似したときの当該平面の法線(pnx,pny,pnz)から、エッジ探索方向のベクトル(nex,ney,nez)が求められる。その際、エッジ方向を(ex,ey,ez)とすると、エッジ探索方向のベクトルは、外積から式6のように表される。
Figure 2013221797
式6から式4及び式5を用いてエッジの範囲を決めることができる。エッジの面と視軸との関係から、傾いているときのエッジの範囲が調整される。
(3)3次元モデルエッジとして表現する方法では、面取り部と隣接する面との境界部の座標値をエッジの(X,Y,Z)との差分として保持しておき、式4を用いて投影計算することにより、より正確な投影計算をすることができる。
何れのエッジ幅の情報も、カメラ座標系におけるモデル120の奥行き方向の値に応じて、観察されるモデルエッジの幅が調整されればよいため、上述した方法以外の方法で定式化してもよい。
また、(1)〜(3)のうちから使用する表現方法を選択する方法としては、それぞれの表現方法によって表現されたモデルエッジの幅を保持しておき、位置及び姿勢の推定誤差が少ないものを選択してもよい。或いは、ユーザが事前に選択できるように設定する方法でもよい。なお、その設定方法についてはファイルで記述する方法でもよいし、GUIにより指示する方法でもよい。また、選択された表現方法による結果を画面に表示すれば、表現方法の選択の際における有用な情報を提供することができる。
ステップS203において、エッジ検出部230は、モデルエッジ投影部220において算出された各モデルエッジのエッジ探索方向から、モデルエッジの幅に対応する特徴(エッジ)を画像データ130から検出する。図3は、モデルエッジの幅と検出フィルタとの関係を示す図である。図3(a)は、モデルエッジの幅を示している。図3(b)は、モデルエッジの幅に対応する検出フィルタとして、モデルエッジがある範囲を1とし、それ以外を−1とした単純なフィルタを示している。図3(c)は、モデルエッジの幅に対応する広がりが設定されたGabor特徴のフィルタを示している。本実施形態においては、投影されたモデルエッジの幅に対応するエッジを検出することができるように検出フィルタを構成することができればよいため、他の検出フィルタを用いてもよい。
画像データ130上のエッジモデルの投影位置(u,v)周りを、エッジ探索方向(nex´,ney´)に検出フィルタで検出したときの画素値は、相互相関係数を計算することで求めることができる。相互相関係数の値をGとして、検出フィルタのエッジ探索方向の1次元の移動量をΦとし、フィルタ係数をhとすると、相互相関係数Gは、式7のように表すことができる。
Figure 2013221797
ここで、I(u,v)は画像データ130の輝度値である。Φをモデルエッジの投影位置(u,v)から左右にエッジ探索方向(nex´,ney´)に沿って移動することにより、G(Φ)のプロファイルが得られる。エッジ検出部230は、式8のように、G(Φ)の相関値が最大となるΦ´をエッジの位置として求める。
Figure 2013221797
ここでは、G(Φ)を1つ選ぶ方法として、最大の値をとる方法を選択するが、実際には、G(Φ)が既定値より大きい複数の候補から、モデルエッジの投影位置(u,v)との距離が小さいものを選択してもよい。ここでは、幅のあるエッジを、投影されたモデルエッジの幅に応じて検出し、そのときのモデルエッジからの移動量であるΦ´の値が求められればよい。そのため、他の相関の式を用いても同様の移動量が求めることができれば、本質的には問題なく実施することができる。
ステップS204において、位置姿勢更新部240は、モデルエッジの投影位置(u,v)と、モデルエッジの幅に対応する検出フィルタを用いたエッジの位置(上述のΦ´)との距離を小さくする位置及び姿勢のパラメータを算出する。
位置及び姿勢のパラメータの算出方法は、非特許文献1において開示されている姿勢成分と並進成分とのヤコビアンを用いて算出する方法でも構わない。姿勢成分は非線形関数であるため、繰り返し最適化方法が用いる方法が一般的であるが、繰り返さない解法としては、モデルの点群から重心成分を引いて、姿勢成分を、特異値分解を用いて求める方法でも構わない。さらに、拡張カルマンフィルタを用いて更新量を推定しても構わない。ここでは、画像データ130のエッジと投影されたモデルエッジとの距離が小さくなるように位置姿勢を更新する方法であればよい。
ステップS205において、位置姿勢更新部240は、位置及び姿勢のパラメータの更新量が既定値以下であるか否かを判定する。位置及び姿勢のパラメータの更新量が規定値以下である場合、処理はステップS206に移行する。ステップS206において、位置姿勢更新部240は、そのときの位置及び姿勢のパラメータを位置姿勢推定結果140として出力する。なお、計算途中の残差や繰り返し回数等の精度に関係する情報も含めて出力することは、本処理における精度を定量的に判断する上で有用である。一方、位置及び姿勢のパラメータの更新量が規定値より大きい場合、処理はステップS201に戻る。概略位置姿勢情報110が実際の位置及び姿勢と異なっている場合、一連の処理で十分に推定値を更新することができない。そこで、本実施形態においては、位置及び姿勢のパラメータの更新量が既定値より大きい場合、位置姿勢更新部240は位置及び姿勢のパラメータを更新し、その後、ステップS201からの処理を再度実行することにより、位置姿勢推定結果140の精度を向上させることができる。また、誤差が含まれている場合、更新量が減少しない場合もある。そのため、既定された回数の更新処理が実行された場合、モデルエッジ抽出部210からの処理を繰り返すことを中断してもよい。
本実施形態に係る位置姿勢計測装置200は、撮像装置によって撮像された計測対象となる物体の画像データ130を入力することにより、フィレット部や面取り部等のエッジ幅のある形状を有する当該物体の位置及び姿勢を精度よく推定することができる。
次に、本発明の第2の実施形態について説明する。第2の実施形態においては、エッジモデルの幅を抽出する方法として、エッジモデルの法線を利用してエッジの観察時のエッジモデルの傾きを計算する。エッジモデルの傾きは、エッジの特徴量の強度と相関がある。画像特徴としての検出の信頼性は、推定している位置及び姿勢のパラメータとエッジモデルの法線との関係として表現することができる。なお、第2の実施形態に係る位置姿勢計測装置の構成は、図1に示した第1の実施形態に係る位置姿勢計測装置200の構成と同様であるため、以下の説明においても、図1の符号を用いるものとする。
モデル座標系におけるエッジモデルの法線を(pnx,pny,pnz)とし、モデル座標系をカメラ座標系に変換する際の姿勢成分Rを用いると、カメラ座標系におけるエッジモデルの法線(pnx´,pny´,pnz´)は、式9のように表すことができる。
Figure 2013221797
カメラ座標系に変換されたエッジモデルの法線に対して重み係数wを計算する関数Wを規定すると、重み係数wは、式10のように表すことができる。
Figure 2013221797
ここで、関数Wは、視線と正対している場合にエッジが強く出現するとした場合、エッジモデルの法線と視線との内積を計算して求めることができる。また、エッジモデルの法線が視線に対して直交する場合、そのエッジは、ジャンプエッジとして背景との境界のエッジとなっているものとして、エッジが検出されやすい状態とするために重みを大きくしても構わない。関数Wは、エッジモデルの法線を引数としているが、エッジモデルの位置を引数として利用しても構わない。ここでは、エッジが画像特徴として検出される場合に重みが大きく、エッジが画像特徴として検出されにくい場合に重みが小さくなるように算出するものであれば、何れの方法でも構わない。
本実施形態における位置姿勢更新部240は、各モデルエッジの重み係数wをヤコビアンに乗じた重み係数行列として表現し、重み付き最適化計算による更新量の推定値を算出する。これにより、推定している位置及び姿勢におけるモデルエッジの画像特徴の検出の信頼性を考慮した重み付き推定を行うことができ、物体の位置及び姿勢の推定精度を向上させることができる。
以上説明した実施形態によれば、ロボットビジョンシステムによる部品組み立てにおいて、部品がフィレット部や面取り部等の形状を有している場合においても、当該部品の位置及び姿勢を高精度に推定することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
110:概略位置姿勢情報、120:モデル、130:画像データ、140:位置姿勢推定結果、200:位置姿勢計測装置、210:モデルエッジ抽出部、220:モデルエッジ投影部、230:エッジ検出部、240:位置姿勢更新部

Claims (4)

  1. 物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測装置であって、
    前記物体の形状を示す形状情報からエッジ領域と当該エッジ領域の幅とを抽出する抽出手段と、
    前記物体の位置及び姿勢のうちの少なくとも何れか一方のパラメータに基づいて、前記物体が撮像された画像データに対して前記エッジ領域を投影する投影手段と、
    前記エッジ領域の幅に基づいて前記画像データからエッジを検出する検出手段と、
    前記投影したエッジ領域と前記検出したエッジとの距離を小さくするように前記パラメータを更新する更新手段とを有することを特徴とする計測装置。
  2. 前記更新手段は、前記エッジ領域の法線又は位置に基づく重み係数を用いて、前記パラメータの更新量を算出することを特徴とする請求項1に記載の計測装置。
  3. 物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測装置によって実行される計測方法であって、
    前記物体の形状を示す形状情報からエッジ領域と当該エッジ領域の幅とを抽出する抽出ステップと、
    前記物体の位置及び姿勢のうちの少なくとも何れか一方のパラメータに基づいて、前記物体が撮像された画像データに対して前記エッジ領域を投影する投影ステップと、
    前記エッジ領域の幅に基づいて、前記画像データからエッジを検出する検出ステップと、
    前記投影したエッジ領域と前記検出したエッジとの距離を小さくするように前記パラメータを更新する更新ステップとを有することを特徴とする計測方法。
  4. 物体の位置及び姿勢のうちの少なくとも何れか一方を計測する計測装置によって実行される計測方法をコンピュータに実行させるためのプログラムであって、
    前記物体の形状を示す形状情報からエッジ領域と当該エッジ領域の幅とを抽出する抽出ステップと、
    前記物体の位置及び姿勢のうちの少なくとも何れか一方のパラメータに基づいて、前記物体が撮像された画像データに対して前記エッジ領域を投影する投影ステップと、
    前記エッジ領域の幅に基づいて、前記画像データからエッジを検出する検出ステップと、
    前記投影したエッジ領域と前記検出したエッジとの距離を小さくするように前記パラメータを更新する更新ステップとをコンピュータに実行させるためのプログラム。
JP2012092168A 2012-04-13 2012-04-13 計測装置、計測方法及びプログラム Active JP6045178B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012092168A JP6045178B2 (ja) 2012-04-13 2012-04-13 計測装置、計測方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012092168A JP6045178B2 (ja) 2012-04-13 2012-04-13 計測装置、計測方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2013221797A true JP2013221797A (ja) 2013-10-28
JP6045178B2 JP6045178B2 (ja) 2016-12-14

Family

ID=49592868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012092168A Active JP6045178B2 (ja) 2012-04-13 2012-04-13 計測装置、計測方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6045178B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005093678A (ja) * 2003-09-17 2005-04-07 Omron Corp 円形物におけるマーク検出方法、ノッチ検出方法、半導体ウェーハの向き検査方法、および半導体ウェーハの向き検査装置
JP2008309631A (ja) * 2007-06-14 2008-12-25 Canon Inc 情報処理方法及び情報処理装置
JP2011179908A (ja) * 2010-02-26 2011-09-15 Canon Inc 3次元計測装置、その処理方法及びプログラム
JP2012002761A (ja) * 2010-06-18 2012-01-05 Canon Inc 位置姿勢計測装置、その処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005093678A (ja) * 2003-09-17 2005-04-07 Omron Corp 円形物におけるマーク検出方法、ノッチ検出方法、半導体ウェーハの向き検査方法、および半導体ウェーハの向き検査装置
JP2008309631A (ja) * 2007-06-14 2008-12-25 Canon Inc 情報処理方法及び情報処理装置
JP2011179908A (ja) * 2010-02-26 2011-09-15 Canon Inc 3次元計測装置、その処理方法及びプログラム
JP2012002761A (ja) * 2010-06-18 2012-01-05 Canon Inc 位置姿勢計測装置、その処理方法及びプログラム

Also Published As

Publication number Publication date
JP6045178B2 (ja) 2016-12-14

Similar Documents

Publication Publication Date Title
JP6635690B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP6415066B2 (ja) 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
JP5618569B2 (ja) 位置姿勢推定装置及びその方法
Sohn et al. Monitoring crack changes in concrete structures
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP5548482B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体
TWI520078B (zh) Optical flow tracking method and device
CN109961506A (zh) 一种融合改进Census图的局部场景三维重建方法
JP2012098087A (ja) 測定装置及び測定方法
JP4810893B2 (ja) 距離計測装置
JP6817742B2 (ja) 情報処理装置およびその制御方法
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6573196B2 (ja) 距離情報補正装置、距離情報補正方法及び距離情報補正プログラム
JP4935769B2 (ja) 平面領域推定装置及びプログラム
JP5656018B2 (ja) 球体の検出方法
JP5620741B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6045178B2 (ja) 計測装置、計測方法及びプログラム
JP6682167B2 (ja) テンプレートマッチング装置、方法、及びプログラム
JP6584139B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6639369B2 (ja) テンプレートマッチング装置、方法、及びプログラム
JP6719925B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5359477B2 (ja) 道路領域推定装置及びプログラム
KR102204582B1 (ko) 피검체의 관절의 관절각을 측정하는 방법 및 이를 이용한 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160412

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161115

R151 Written notification of patent or utility model registration

Ref document number: 6045178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151