JP6370038B2 - 位置姿勢計測装置及び方法 - Google Patents
位置姿勢計測装置及び方法 Download PDFInfo
- Publication number
- JP6370038B2 JP6370038B2 JP2013222526A JP2013222526A JP6370038B2 JP 6370038 B2 JP6370038 B2 JP 6370038B2 JP 2013222526 A JP2013222526 A JP 2013222526A JP 2013222526 A JP2013222526 A JP 2013222526A JP 6370038 B2 JP6370038 B2 JP 6370038B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- target object
- distribution
- image
- approximate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
- G01S5/163—Determination of attitude
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
Description
本実施形態では、撮像装置と投影装置によって対象物体の輝度画像と距離画像を同時に取得し、3次元モデル情報を輝度画像に対して2次元の尺度で位置合わせし、距離画像に対して3次元の尺度で位置合わせを行い、2次元と3次元の尺度で同時に評価する際に、本発明を適用する方法を説明する。なお、ここでは2次元と3次元の尺度で同時に位置合わせをする例で説明するが、本発明は2次元の尺度のみであったり、3次元の尺度のみであっても全く同様に適用可能である。
投影装置102は、液晶プロジェクタでパターン光を投影する。プロジェクタの内部パラメータ(焦点距離、主点位置、レンズ歪みパラメータ)についてもカメラの校正と同様の原理で事前に校正しておく。投影装置102は、もちろん、液晶プロジェクタに限るものではなく、パターン光の投影ができれば他の方式のものでもよい。例えば、DMD(デジタルミラーデバイス)やLCOSを用いたプロジェクタであってもよい。
ステップS401では、撮像部103が作業スペースの計測対象物体101を撮影し、計測対象物体101の輝度画像及び距離画像を取得する。
ステップS402では、輝度画像を全探索して、計測対象物体101の位置姿勢の取り得る分布(複数の概略位置姿勢)を決定する。画像を全探索して、画像中の計測対象物体101の概略位置姿勢を算出することは広く行われており、例えば、以下の非特許文献では、パターンマッチングを用いて部品の3次元モデルの画像内における位置姿勢を算出する方法が開示されている。
ステップS403では、ステップS402で得られた概略位置姿勢の分布に基づいて所定の個数の位置姿勢候補を生成する。
ステップS404では、ステップS403で得られた複数の位置姿勢候補の中からスコア(3次元モデルと輝度画像及び距離画像の合致度を表す)の高い位置姿勢候補を一以上の所定の個数、選択する(初期位置姿勢選択)。具体的には後述する位置姿勢算出における位置姿勢更新処理、ステップS601〜S606を1回行い、その結果得られるスコアを比較して高いものから順に所定の個数、抽出する。
ステップS405では、ステップS404で選択された一以上の所定の個数の位置姿勢候補のそれぞれで、最終的な位置姿勢を決定する。ここでの位置姿勢算出処理の詳細については図6を用いて説明する。図6はステップS405で示した1つの初期位置姿勢に関する位置姿勢算出処理の詳細な手順を示したフローチャートである。
ステップS601では、初期化を行う。ここでは、ステップS404で選択された位置姿勢候補を、これ以降「現在の位置姿勢」として記載する位置姿勢の初期値として設定する。
ステップS602では、対応付けを行う。まず、現在の位置姿勢に基づいて、3次元モデルの各エッジの画像への投影及び各面の3次元計測装置の座標系への座標変換を行う。その後エッジ及び点群データの対応付けを行う。
ステップS603では、線形連立方程式を解くための係数行列と誤差ベクトルの算出を行う。ここで係数行列の各要素は、位置姿勢の微小変化に対する一次の偏微分係数である。エッジについては、画像座標の偏微分係数を算出し、点群については3次元座標の偏微分係数を算出する。誤差ベクトルは、エッジについては投影されたエッジと検出されたエッジの画像上での距離、点群データについてはモデルの面と点の3次元空間中での距離である。
(ステップS604)
ステップS604では、数7をもとに、行列Jの一般化逆行列(JT・J)−1・JTを用いてΔsを求める。しかしながら、エッジや点群データには誤検出などによる外れ値が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジ(点群データ)では、誤差d−r(e−q)が大きくなる。そのため、数6、数7の連立方程式に対する寄与度が大きくなり、その結果得られるΔsの精度が低下してしまう。
ステップS605では、ステップS604において算出された位置姿勢の補正値Δsにより、位置姿勢を更新する。
ステップS606では、位置姿勢が収束したか否かの判定を行い、収束したと判定された場合はその時の位置姿勢をフィッティング結果として処理を終了する。収束していないと判定された場合は、収束するまでステップS602〜S605を繰り返し行う。収束判定は、ステップS605の補正量が所定の値以下でほぼ変化がないと判定された場合に収束したと判定する。なお、収束判定の方法はこの方法に限定されるものではなく、例えば、所定の回数、反復したら収束したものとして次のステップに進むことにしてもよい。
ステップS406では、ステップS405で求められた一以上の所定の個数の位置姿勢算出結果のスコアを比較して、高いスコアを示す一以上の位置姿勢を最終的なフィッティング結果として出力する。ここにおけるスコアも、ステップS404で説明したものと同様の指標である。
第1の実施形態では、計測対象物体の概略位置姿勢の分布から、多次元ガウス分布を適用し、その分布に従って位置姿勢候補を生成した。しかし、ガウス分布のような確率密度モデルを適用しないで位置姿勢候補を生成する方法も考えられる。
第1および第2の実施形態では、計測対象物体が取り得る複数の概略位置姿勢の分布が得られるものとして、概略位置姿勢の分布に基づいて、位置姿勢候補の生成を行う方法について述べた。しかし、位置姿勢候補の生成は,概略位置姿勢の分布に基づく方式に限るものではない。例えば、テンプレートマッチングなどにより概略位置姿勢を推定する場合には、マッチングするテンプレートの数や探索するステップ幅に応じて、推定される位置姿勢の分解能が決定される。このような場合、実際の位置姿勢に対して、概略位置姿勢の分解能の範囲内で、推定される位置姿勢に曖昧性が発生することになる。第3の実施形態では、この点を鑑み、概略位置姿勢推定における分解能に基づいて位置姿勢候補の生成を行う方法について説明する。以下は、これまでに説明した第1の実施形態の説明における位置姿勢候補の生成工程であるステップS403に置き換わる処理である。
また、設定パラメータとしてあらかじめ人が設定してもよい。概略位置姿勢の取りうる最小ステップ幅としての分解能を決定できる限り、いかなる決定方法を用いても良く、その決定方法によって本発明の本質が損なわれることはない。
第1の実施形態では、計測対象物体が取り得る概略位置姿勢分布を全探索によって取得した。しかし、実際にロボットが計測対象物体を把持して組み付ける現場では、部品はあらかじめ整列されており、全探索するまでもなく、配置された部品の位置姿勢がほぼ一定であるとみなせる場合がある。
第4の実施形態では、計測対象物体の概略位置姿勢と3次元モデルとから仮想環境上で、計測対象物体が取り得る位置姿勢分布を求めた。そして、計測対象物体の概略位置姿勢の3次元モデルと撮像画像の対応点を生成する際に、部品に内在する別のエッジに誤対応してしまう問題に対応した。
図13(a)は、輝度画像上で3次元モデル上の制御点を起点としてエッジを探索する方法を示す図である。
第4〜第5の実施形態では、位置姿勢分布をフィッティングする先の形状情報として画像を対象に、該画像の上に投影された3次元モデルの位置姿勢を求めた。しかし、各実施形態において補足したように、本発明は形状情報の一方が画像でなくてはならないという制約はなく、二つの形状情報の間に対応が取れる領域があれば、任意の形態の形状情報のフィッティングにおいて本発明は適用可能である。
第1〜第6の実施形態ではそれぞれ異なる方法で位置姿勢分布を生成した。実際にはこれらを独立に実施するのではなく、これらの一部または全部の和の分布を位置姿勢分布として用いてS403にて複数の初期位置姿勢を生成(初期位置姿勢生成)することでよりロバストな位置姿勢計測を実現できる。
本発明に係る情報処理装置の好適な適用事例としては、産業用ロボットアームで部品の把持、移動、解放といった動作を行うシステムにおいて対象部品の位置姿勢計測に利用することが挙げられる。以下、図15を用いて、本発明に係る情報処理装置の適用例を説明する。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
以上説明したように、対象物体の概略位置姿勢を取得し、取得した概略位置姿勢に基づいて、新たに初期位置姿勢の候補を生成し、それらに基づいて位置姿勢を導出することで、ロバストな位置姿勢計測を可能にしている。
本発明の説明では、フィッティングする形状情報の組み合わせとして第1〜第5の実施形態においては3次元モデル情報とカメラで撮影された計測対象物体を含む画像の組み合わせを、第6の実施形態においてはおよび三次元メッシュモデル同士の組み合わせを例に説明した。しかし、必ずしもこの組み合わせでなくてもよく、形状情報間で対応を取って位置合わせ(フィッティング)可能な情報であればなんでもよい。物体の形状情報の例としては3次元モデル情報、画像のほかに、レーザーレンジセンサーなどで計測して得られた3次元点群情報なども考えられる。
Claims (19)
- 対象物体が含まれる画像から、前記対象物体の複数の概略位置姿勢を取得する取得手段と、
前記取得した概略位置姿勢の分布に基づいて、前記対象物体の位置姿勢の導出のための初期値として、少なくとも1つの位置姿勢候補を新たに生成する生成手段と、
前記対象物体のモデル情報と、前記初期値として生成された位置姿勢候補とに基づいて、前記画像中における対象物体の位置姿勢を導出する導出手段とを備える位置姿勢計測装置。 - 前記取得手段は、前記画像にパターンマッチングを行うことにより、前記画像中の前記対象物体の概略位置姿勢を取得することを特徴とする請求項1に記載の位置姿勢計測装置。
- 前記取得手段は、前記対象物体のモデル情報を使って前記画像内を探索することによりパターンマッチングを行うことを特徴とする請求項1または2に記載の位置姿勢計測装置。
- 前記生成手段は、前記取得した複数の概略位置姿勢の分布を所定の分布関数で近似し、該近似された分布内で、少なくとも1つの位置姿勢候補を新たに生成することを特徴とする請求項1乃至3のいずれか1項に記載の位置姿勢計測装置。
- 前記生成手段は、前記取得した概略位置姿勢の分布を複数の領域に分割し、該分割された領域に基づいて、少なくとも1つの位置姿勢候補を新たに生成することを特徴とする請求項1乃至3のいずれか1項に記載の位置姿勢計測装置。
- 前記取得手段によって取得される概略位置姿勢は、所定の分解能に基づいて生成され、前記生成手段は、前記取得される概略位置姿勢と、該概略位置姿勢が生成される際の分解能に基づき、少なくとも1つの位置姿勢候補を新たに生成することを特徴とする請求項1乃至3のいずれか1項に記載の位置姿勢計測装置。
- 前記生成手段は、前記取得した概略位置姿勢に対して、少なくとも位置または姿勢のうちいずれか一方を前記所定の分解能の範囲内で変化させることにより、少なくとも1つの位置姿勢候補を新たに生成することを特徴とする請求項6に記載の位置姿勢計測装置。
- 前記分解能は、前記概略位置姿勢の位置と姿勢を表現する最小ステップ幅であることを特徴とする請求項6に記載の位置姿勢計測装置。
- 前記生成手段は、前記取得した概略位置姿勢と、前記対象物体のテクスチャ情報と、前記画像とに基づいて、少なくとも1つの位置姿勢候補を新たに生成することを特徴とする請求項1乃至3の何れか1項に記載の位置姿勢計測装置。
- 前記生成手段は、前記取得した概略位置姿勢と、前記対象物体の形状情報とに基づいて、少なくとも1つの位置姿勢候補を新たに生成することを特徴とする請求項1乃至3のいずれか1項に記載の位置姿勢計測装置。
- 前記生成手段は、前記取得した概略位置姿勢と、前記対象物体の形状情報と、前記画像とに基づいて、少なくとも1つの位置姿勢候補を新たに生成することを特徴とする請求項1乃至3のいずれか1項に記載の位置姿勢計測装置。
- 前記導出手段は、更に、
前記生成された位置姿勢候補から、所定の個数の位置姿勢候補を選択する選択手段を備え、
前記選択された位置姿勢候補を前記画像中における対象物体に対応づけることによって、前記画像中における対象物体の位置姿勢を導出することを特徴とする請求項1乃至11のいずれか1項に記載の位置姿勢計測装置。 - 前記選択手段は、前記生成された複数の位置姿勢候補を前記モデル情報を使って前記画像中における対象物体に対応づけた時のずれ量に基づいて選択することを特徴とする請求項12に記載の位置姿勢計測装置。
- 前記導出手段は、前記生成された位置姿勢候補からエッジを抽出し、該抽出されたエッジと、前記対象物体の形状情報から抽出されたエッジとを比較することで、前記画像中における対象物体の位置姿勢を導出することを特徴とする請求項1乃至13のいずれか1項に記載の位置姿勢計測装置。
- 請求項1乃至14のいずれか1項に記載された位置姿勢計測装置と、
前記対象物体を把持するための把持手段と、
前記位置姿勢計測装置によって計測される前記対象物体の位置姿勢に基づいて、前記把持手段を制御する制御手段とを備えることを特徴とする情報処理装置。 - 対象物体が含まれる画像から、前記対象物体の複数の概略位置姿勢を取得する取得工程と、
前記取得した概略位置姿勢の分布に基づいて、前記対象物体の位置姿勢の導出のための初期値として、少なくとも1つの位置姿勢候補を新たに生成する生成工程と、
前記対象物体のモデル情報と、前記初期値として生成された位置姿勢候補とに基づいて、前記画像中における対象物体の位置姿勢を導出する導出工程とを備える位置姿勢計測方法。 - 対象物体に関する第1の形状情報と、該第1の形状情報と少なくとも1部の領域が重複する第2の形状情報とをフィッティングする情報処理装置であって、
前記第1の形状情報の位置姿勢の存在し得る分布を取得する取得手段と、
前記取得された分布に基づいて、前記第1の形状情報の初期位置姿勢を生成する初期位置姿勢生成手段と、
前記生成された複数の初期位置姿勢の中から、少なくとも1つの初期位置姿勢を選択する初期位置姿勢選択手段と、
前記選択された初期位置姿勢に基づいて、前記第2の形状情報にフィッティングするための前記第1の形状情報の位置姿勢を決定する決定手段とを備えることを特徴とする情報処理装置。 - 対象物体に関する第1の形状情報と、該第1の形状情報と少なくとも1部の領域が重複する第2の形状情報とをフィッティングする情報処理方法であって、
前記第1の形状情報の位置姿勢の存在し得る分布を取得する取得工程と、
前記取得された分布に基づいて、前記第1の形状情報の初期位置姿勢を生成する初期位置姿勢生成工程と、
前記生成された複数の初期位置姿勢の中から、少なくとも1つの初期位置姿勢を選択する初期位置姿勢選択工程と、
前記選択された初期位置姿勢に基づいて、前記第2の形状情報にフィッティングするための前記第1の形状情報の位置姿勢を決定する決定工程とを備えることを特徴とする情報処理方法。 - 請求項16に記載の位置姿勢計測方法、または、請求項18に記載の情報処理方法をコンピュータに実行させるためのコンピュータプログラム。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013222526A JP6370038B2 (ja) | 2013-02-07 | 2013-10-25 | 位置姿勢計測装置及び方法 |
DE102014000982.3A DE102014000982A1 (de) | 2013-02-07 | 2014-01-24 | Positions- und Orientierungsmessvorrichtung, Informationsverarbeitungsvorrichtung und Informationsverarbeitungsverfahren |
CN201410042860.1A CN103984362B (zh) | 2013-02-07 | 2014-01-27 | 位置和姿势测量装置、信息处理装置以及信息处理方法 |
US14/173,741 US9704248B2 (en) | 2013-02-07 | 2014-02-05 | Position and orientation measuring apparatus, information processing apparatus and information processing method |
GB1402011.9A GB2512460B (en) | 2013-02-07 | 2014-02-06 | Position and orientation measuring apparatus, information processing apparatus and information processing method |
US15/644,546 US10684116B2 (en) | 2013-02-07 | 2017-07-07 | Position and orientation measuring apparatus, information processing apparatus and information processing method |
US16/882,282 US20200284573A1 (en) | 2013-02-07 | 2020-05-22 | Position and orientation measuring apparatus, information processing apparatus and information processing method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013022372 | 2013-02-07 | ||
JP2013022372 | 2013-02-07 | ||
JP2013222526A JP6370038B2 (ja) | 2013-02-07 | 2013-10-25 | 位置姿勢計測装置及び方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018132597A Division JP6548789B2 (ja) | 2013-02-07 | 2018-07-12 | 位置姿勢計測装置及び方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014169990A JP2014169990A (ja) | 2014-09-18 |
JP2014169990A5 JP2014169990A5 (ja) | 2016-12-08 |
JP6370038B2 true JP6370038B2 (ja) | 2018-08-08 |
Family
ID=50390522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013222526A Active JP6370038B2 (ja) | 2013-02-07 | 2013-10-25 | 位置姿勢計測装置及び方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US9704248B2 (ja) |
JP (1) | JP6370038B2 (ja) |
CN (1) | CN103984362B (ja) |
DE (1) | DE102014000982A1 (ja) |
GB (1) | GB2512460B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112066879A (zh) * | 2020-09-11 | 2020-12-11 | 哈尔滨工业大学 | 基于计算机视觉的气浮运动模拟器位姿测量装置及方法 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NO336680B1 (no) * | 2013-12-04 | 2015-10-19 | Global Maritime As | Fremgangsmåte for estimering av risiko for minst én utilsiktet sluppet last fra minst én kran på en plattform eller et fartøy på undersjøiske rørledninger og annet undersjøisk utstyr, samt anvendelser av fremgangsmåten |
US9710706B2 (en) * | 2014-09-23 | 2017-07-18 | GM Global Technology Operations LLC | Method for classifying a known object in a field of view of a camera |
JP6573354B2 (ja) * | 2014-11-28 | 2019-09-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6635690B2 (ja) * | 2015-06-23 | 2020-01-29 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10260862B2 (en) * | 2015-11-02 | 2019-04-16 | Mitsubishi Electric Research Laboratories, Inc. | Pose estimation using sensors |
CN108431629B (zh) * | 2015-12-21 | 2022-07-08 | 株式会社小糸制作所 | 车辆用图像获取装置、控制装置、包括了车辆用图像获取装置或控制装置的车辆和车辆用图像获取方法 |
JP6677522B2 (ja) * | 2016-02-15 | 2020-04-08 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP6523196B2 (ja) * | 2016-03-17 | 2019-05-29 | 株式会社東芝 | 推定装置、方法及びプログラム |
WO2017163537A1 (ja) * | 2016-03-22 | 2017-09-28 | 三菱電機株式会社 | 距離計測装置及び距離計測方法 |
CN107466404B (zh) * | 2017-05-11 | 2023-01-31 | 达闼机器人股份有限公司 | 物品搜索方法、装置及机器人 |
WO2020047575A1 (en) * | 2018-09-04 | 2020-03-12 | Fastbrick Ip Pty Ltd | Vision system for a robotic machine |
JP7275759B2 (ja) * | 2019-03-28 | 2023-05-18 | セイコーエプソン株式会社 | 物体検出方法、物体検出装置およびロボットシステム |
EP4040104A4 (en) * | 2019-10-02 | 2022-11-02 | Fujitsu Limited | GENERATION METHOD, GENERATION PROGRAM, AND INFORMATION PROCESSING DEVICE |
US10855303B1 (en) | 2020-03-16 | 2020-12-01 | Semiconductor Components Industries, Llc | Propagation delay compensation and interpolation filter |
CN111666876B (zh) * | 2020-06-05 | 2023-06-09 | 阿波罗智联(北京)科技有限公司 | 用于检测障碍物的方法、装置、电子设备和路侧设备 |
US11906294B2 (en) | 2020-07-28 | 2024-02-20 | Ricoh Company, Ltd. | Alignment apparatus, alignment system, alignment method, and recording medium |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5471541A (en) * | 1993-11-16 | 1995-11-28 | National Research Council Of Canada | System for determining the pose of an object which utilizes range profiles and synethic profiles derived from a model |
AU2001250802A1 (en) * | 2000-03-07 | 2001-09-17 | Sarnoff Corporation | Camera pose estimation |
US7889905B2 (en) * | 2005-05-23 | 2011-02-15 | The Penn State Research Foundation | Fast 3D-2D image registration method with application to continuously guided endoscopy |
US7756563B2 (en) * | 2005-05-23 | 2010-07-13 | The Penn State Research Foundation | Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy |
US8457390B1 (en) * | 2008-10-10 | 2013-06-04 | Cognex Corporation | Method and apparatus for training a probe model based machine vision system |
JP2010097438A (ja) * | 2008-10-16 | 2010-04-30 | Keyence Corp | 画像処理を用いた輪郭情報抽出方法、画像処理におけるパターンモデルの作成方法、画像処理におけるパターンモデルの位置決め方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体 |
US8442304B2 (en) * | 2008-12-29 | 2013-05-14 | Cognex Corporation | System and method for three-dimensional alignment of objects using machine vision |
US9111347B2 (en) * | 2009-07-29 | 2015-08-18 | Metaio Gmbh | Method for determining the pose of a camera with respect to at least one real object |
JP2011133273A (ja) * | 2009-12-22 | 2011-07-07 | Canon Inc | 推定装置及びその制御方法、プログラム |
JP5548482B2 (ja) * | 2010-02-26 | 2014-07-16 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体 |
JP5624394B2 (ja) * | 2010-07-16 | 2014-11-12 | キヤノン株式会社 | 位置姿勢計測装置、その計測処理方法及びプログラム |
JP4940461B2 (ja) | 2010-07-27 | 2012-05-30 | 株式会社三次元メディア | 3次元物体認識装置及び3次元物体認識方法 |
JP5759133B2 (ja) * | 2010-09-24 | 2015-08-05 | Juki株式会社 | 形状ベースマッチングパラメータの調整装置および部品実装装置 |
JP5839929B2 (ja) | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
US11488322B2 (en) * | 2010-12-08 | 2022-11-01 | Cognex Corporation | System and method for training a model in a plurality of non-perspective cameras and determining 3D pose of an object at runtime with the same |
US8600192B2 (en) * | 2010-12-08 | 2013-12-03 | Cognex Corporation | System and method for finding correspondence between cameras in a three-dimensional vision system |
US9124873B2 (en) * | 2010-12-08 | 2015-09-01 | Cognex Corporation | System and method for finding correspondence between cameras in a three-dimensional vision system |
JP5767464B2 (ja) * | 2010-12-15 | 2015-08-19 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP5716433B2 (ja) * | 2011-02-07 | 2015-05-13 | 株式会社Ihi | 形状認識装置、形状認識方法、および、そのプログラム |
US8908913B2 (en) * | 2011-12-19 | 2014-12-09 | Mitsubishi Electric Research Laboratories, Inc. | Voting-based pose estimation for 3D sensors |
-
2013
- 2013-10-25 JP JP2013222526A patent/JP6370038B2/ja active Active
-
2014
- 2014-01-24 DE DE102014000982.3A patent/DE102014000982A1/de not_active Withdrawn
- 2014-01-27 CN CN201410042860.1A patent/CN103984362B/zh active Active
- 2014-02-05 US US14/173,741 patent/US9704248B2/en active Active
- 2014-02-06 GB GB1402011.9A patent/GB2512460B/en active Active
-
2017
- 2017-07-07 US US15/644,546 patent/US10684116B2/en active Active
-
2020
- 2020-05-22 US US16/882,282 patent/US20200284573A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112066879A (zh) * | 2020-09-11 | 2020-12-11 | 哈尔滨工业大学 | 基于计算机视觉的气浮运动模拟器位姿测量装置及方法 |
CN112066879B (zh) * | 2020-09-11 | 2021-11-19 | 哈尔滨工业大学 | 基于计算机视觉的气浮运动模拟器位姿测量装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
GB201402011D0 (en) | 2014-03-26 |
US9704248B2 (en) | 2017-07-11 |
US10684116B2 (en) | 2020-06-16 |
US20200284573A1 (en) | 2020-09-10 |
GB2512460B (en) | 2015-07-29 |
JP2014169990A (ja) | 2014-09-18 |
US20170307354A1 (en) | 2017-10-26 |
CN103984362B (zh) | 2018-02-02 |
DE102014000982A1 (de) | 2014-08-07 |
CN103984362A (zh) | 2014-08-13 |
GB2512460A (en) | 2014-10-01 |
US20140219502A1 (en) | 2014-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6370038B2 (ja) | 位置姿勢計測装置及び方法 | |
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
JP5393318B2 (ja) | 位置姿勢計測方法及び装置 | |
JP5567908B2 (ja) | 3次元計測装置、その計測方法及びプログラム | |
JP5624394B2 (ja) | 位置姿勢計測装置、その計測処理方法及びプログラム | |
JP6092530B2 (ja) | 画像処理装置、画像処理方法 | |
JP5839971B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
US9841271B2 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
JP2016103230A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2013217893A (ja) | モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法 | |
JP2014063475A (ja) | 情報処理装置、情報処理方法、及びコンピュータプログラム | |
JP6282098B2 (ja) | キャリブレーション装置及び方法 | |
JP2015114722A (ja) | 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
JP5698815B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP2015135333A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP5462662B2 (ja) | 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム | |
JP6890422B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP6766229B2 (ja) | 位置姿勢計測装置及び方法 | |
JP5938201B2 (ja) | 位置姿勢計測装置、その処理方法及びプログラム | |
JP6285765B2 (ja) | 情報処理装置、情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161020 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170711 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170712 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180612 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180710 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6370038 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |