JP2019211981A - 情報処理装置、情報処理装置の制御方法およびプログラム - Google Patents
情報処理装置、情報処理装置の制御方法およびプログラム Download PDFInfo
- Publication number
- JP2019211981A JP2019211981A JP2018107154A JP2018107154A JP2019211981A JP 2019211981 A JP2019211981 A JP 2019211981A JP 2018107154 A JP2018107154 A JP 2018107154A JP 2018107154 A JP2018107154 A JP 2018107154A JP 2019211981 A JP2019211981 A JP 2019211981A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- model
- edges
- positional relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
対象物体が撮影された撮影画像から検出される複数の近接する画像エッジを画像エッジグループとして抽出する抽出手段と、
前記画像エッジグループに含まれる画像エッジ相互の位置関係を判定する判定手段と、
前記対象物体の三次元モデルを構成するモデルエッジ相互の位置関係を保持する保持手段と、
前記画像エッジの位置関係と、前記モデルエッジの位置関係との整合性に基づいて、対応する画像エッジとモデルエッジとの組み合わせを選択する選択手段と、
前記組み合わせに基づいて、前記対象物体の位置姿勢を推定する推定手段と、
を備えることを特徴とする。
<概要>
本実施形態では、対象物体が撮影された撮影画像から検出される複数の画像エッジのうち、近接する複数の画像エッジを画像エッジグループとして抽出する。例えば、近接して検出される略平行な複数の画像エッジを画像エッジグループとして抽出する。一方、対象物体の三次元モデルを構成するモデルエッジ(設計データに含まれるモデルエッジ)については、ユーザからの指示に基づいて複数のモデルエッジがモデルエッジグループとして事前に抽出されており、モデルエッジ相互の位置関係が保持されている。
図1は、本実施形態に係る情報処理装置の全体構成を示す図である。図1における矩形枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。図1において、情報処理装置200は、撮影部101と接続されている。情報処理装置200は、撮影画像処理部201、三次元モデル入力部202、エッジグループ抽出部203、エッジ位置関係判定部204、モデルエッジ位置関係保持部205、エッジ対応選択部206、及び推定部207を備えている。情報処理装置200が備える各処理部の機能は、不図示のCPUが不図示のメモリからプログラムを読み出して実行することにより制御される。なお、図1の構成は一例であり図示されるものに限定されない。
続いて、図4のフローチャートを参照して、本実施形態に係る情報処理装置200が実施する処理の手順を説明する。
ステップS1000において、モデルエッジ位置関係保持部205は、あらかじめ用意された視点別モデルエッジリスト45を読み込み、不図示の記憶領域に保持する。
ステップS1010において、撮影画像処理部201は、撮影部101により撮影された、対象物体301を含むシーンの撮影画像10、11を取得する。本実施形態では、撮影部101は2つ設けられており、それぞれ視点位置の異なる撮影部101から撮影画像10、11がそれぞれ撮影される。
ステップS1020において、エッジグループ抽出部203は、検出された画像エッジをグループ化し、画像エッジグループIDを付与する。以下、エッジグループ抽出部203が行うグループ化の処理について説明する。
ステップS1030において、エッジ位置関係判定部204は、同一の画像エッジグループIDを構成するエッジ間の相対位置関係を判定し、ラベル付けを行う。
ステップS1040において、エッジ対応選択部206は、エッジ位置関係判定部204により更新された画像エッジリスト50と、モデルエッジ位置関係保持部205が保持している視点別モデルエッジリスト45とを参照する。そして、参照により、撮影画像10から検出された画像エッジと、三次元モデル303を構成するモデルエッジとの対応づけを行う。
ステップS1050において、推定部207は、撮影画像10と対象物体301との照合を行い、対象物体301の三次元位置姿勢を推定する。推定部207は、エッジ対応選択部206によって生成されたエッジ対応リスト60を参照する。そして、エッジ対応リスト60中で対をなすモデルエッジと画像エッジとのすべての組み合わせについて、二次元画像(撮影画像)上に投影されたモデルエッジの座標と、画像エッジの座標との距離の総和を最小化する位置姿勢を最適化により算出する。これにより、対象物体301の三次元位置姿勢を推定する。
撮影部101を2つ設ける代わりに、別途三次元計測装置を設け、画像エッジの三次元座標に基づいて画像エッジ相互の位置関係を判定し、画像エッジ位置関係ラベルを付与するように構成してもよい。その場合、ステップS1030において、エッジ位置関係判定部204は、得られた画像エッジの三次元座標に基づいて、視点と画像エッジとの距離を算出して並び換えを行い、画像エッジ位置関係ラベルを付与する。
撮影部101を2つ設ける代わりに、1つの撮影部101を移動可能な構成とし、異なる時刻に異なる視点から撮影された複数の画像に基づき、画像エッジ相互の位置関係を判定し、画像エッジ位置関係ラベルを付与するように構成してもよい。その場合、ステップS1030において、エッジ位置関係判定部204は、撮影部101に別途備えられた位置姿勢センサあるいは画像中の特徴点に基づいて、画像撮影時の撮影部101の位置姿勢を推定する。そして、エッジ位置関係判定部204は、2枚の画像で観測される画像エッジの座標と、撮影部101の位置姿勢とから、画像エッジの三次元座標を算出する。エッジ位置関係判定部204は、得られた三次元座標に基づいて、視点と画像エッジとの距離を算出して並び換えを行い、画像エッジ位置関係ラベルを付与する。
ステップS1050において、推定部207は、算出した対象物体301の最終的な位置姿勢を外部に出力する代わりに、予め入力された対象物体301の位置姿勢と、算出された位置姿勢とが略一致するかを検査し、その成否を出力するように構成してもよい。あるいは、三次元モデル303が複数存在する場合には、対象物体301に最も類似する三次元モデル303の種別を出力するように構成してもよい。
ステップS1050において、推定部207は、算出された対象物体301の位置姿勢を外部に出力する代わりに、位置姿勢の算出が正常終了するか否かを判定することで、対象物体301の存在判定を行い、その結果を出力するように構成してもよい。位置姿勢算出の演算が収束しない、あるいは残差が所定値以上である場合には、対象物体301が存在しないと判定してもよい。
<概要>
本実施形態では、画像から検出される画像エッジについて、近接して検出される略平行な画像エッジをグループ化する。設計データに含まれるモデルエッジについても、対象物体を観測する複数視点からの幾何関係に基づいてグループ化する。そして、モデルエッジと画像エッジとのそれぞれについて、グループ内でのエッジの三次元的な幾何関係に基づいて順序づけを行う。各グループに対してモデルエッジ及び画像エッジの順序を比較し、これらが整合する組み合わせを選択する。
図7は、本実施形態に係る情報処理装置200の全体構成を示す図である。図1に示した第1実施形態の構成と比較すると、概略位置姿勢推定部208が追加されている。以降、第1実施形態との差異を主に説明し、同じ部分については説明を省略する。
続いて、図8のフローチャートを参照して、本実施形態に係る情報処理装置200が実施する処理の手順を説明する。図8(a)は処理全体の流れを示し、図8(b)は図8(a)のステップS1005の処理の詳細を示している。
ステップS1100において、三次元モデル入力部202は、対象物体301と同一形状の三次元モデル303を読み込む。本実施形態に係る三次元モデル303は、対象物体301の設計に用いられたCADデータから生成される。図3(a)を参照して前述したように、三次元モデル303にはモデルエッジリスト40が含まれる。また、ステップS1100において、三次元モデル入力部202は、対象物体301が実際に取り得る概略の姿勢を複数設定する。
ステップS1110において、エッジグループ抽出部203は、モデルエッジをグループ化し、モデルエッジグループIDを付与する。エッジグループ抽出部203は、ステップS1100で設定された視点から、モデルエッジリスト40に記述されているモデルエッジを二次元画像上に投影し、二次元画像上に投影されたモデルエッジの投影座標と方向とを算出する。エッジグループ抽出部203は、モデルエッジリスト40に含まれており当該二次元画像上で観測可能なすべてのエッジに対して投影座標と方向とを算出する。
ステップS1120において、エッジ位置関係判定部204は、同一のモデルエッジグループを構成するモデルエッジ間の相対位置関係を判定し、ラベル付けを行う。
ステップS1130において、三次元モデル入力部202は、ステップS1100で設定された視点がすべて処理されたか否かを判定する。視点がすべて処理された場合、すなわち全ての姿勢が処理された場合には、ステップS1140に進む。そうでない場合には、ステップS1110に戻り、未処理の視点(未処理の姿勢)に対してステップS1110からS1130の処理を実行する。
ステップS1140において、モデルエッジ位置関係保持部205は、生成された視点別モデルエッジリスト45を不図示の外部記憶領域に出力する。
撮影部101や対象物体301が静止している場合においても、画像ノイズ等の影響でモデルエッジと画像エッジとの対応関係が時刻によって一貫せず、異なる場合が生じる。結果として、シーンが静的であるにも関わらず、対象物体301の位置姿勢が時間ごとに変動し、微動しているように観測される。エッジ対応選択部206は、これを回避するために前回の対応づけ結果を優先するようにしてもよい。具体的には、ステップS1015における概略位置姿勢推定結果が前フレームと概ね同一であれば、前回の対応づけ結果をそのまま適用してもよい。すなわち、概略位置姿勢推定結果が前フレームより一定以上異なっている場合にのみ、本実施形態におけるステップS1020−S1040の処理を行ってもよい。
ステップS1120において、エッジ位置関係判定部204がモデルエッジ位置関係ラベルを視点別モデルエッジリスト45に書き込む際に、当該モデルエッジの可視性に関する情報を付加するようにしてもよい。視点位置や姿勢によっては、特定のモデルエッジは隠れによって観測できず、画像から消失する場合がある。モデルエッジが画像エッジとして観測されず消失してしまうと、ステップS1040の処理時にモデルエッジと画像エッジとの位置関係ラベルに不整合が生じる可能性がある。そのため、ステップS1120において、視点位置姿勢のわずかな変化によって、当該モデルエッジが観測されない可能性が高くなるような場合には、モデルエッジに消失可能性に関する情報を付加する。そして、ステップS1040において、モデルエッジと画像エッジとの位置関係ラベルが整合せず、さらに、モデルエッジの可視性に関する情報としてモデルエッジに消失可能性に関する情報が付与されている場合には、エッジ対応選択部206は、当該モデルエッジは消失したものと判定し、対応づけを行わない。
本実施形態において、ステップS1005の処理は情報処理装置の起動前の事前準備として実行したが、情報処理装置の起動後にオンラインで実行するようにしてもよい。この場合、ステップS1100において三次元モデル入力部202が複数の視点を設定する代わりに、ステップS1040の時点で、モデルエッジ位置関係保持部205が概略位置姿勢から視点別モデルエッジリスト45を生成してもよい。すなわち、想定される複数の視点における視点別モデルエッジリスト45を事前に生成するのに代えて、現在の概略位置姿勢からその都度視点別モデルエッジリスト45を生成するようにしてもよい。
ステップS1110において、エッジグループ抽出部203が同一クラスタと判定するための距離の閾値を設定する代わりに、ユーザから値を入力させるようにしてもよい。
<概要>
本実施形態では、1つの撮影装置で対象物体を撮影する例を説明する。本実施形態では、設計データ中のモデルエッジと、画像から検出される画像エッジについて、近接して検出される略平行なエッジをグループ化する。そして、モデルエッジと画像エッジとのそれぞれについて、グループ内でのエッジの二次元画像内における配置関係に基づいて順序づけを行う。各グループに対してモデルエッジと画像エッジの順序を比較し、これらが整合する組み合わせを選択する。
本実施形態に係る情報処理装置200の構成は、第1の実施形態と同様であるため、説明を省略する。なお、第1実施形態では、2つの撮影部101を備えていたが、本実施形態では、撮影部101は1つである。撮影画像処理部201は、撮影部101から撮影画像10を入力し、撮影画像11は入力されない。撮影画像の平行化も行われない。
本実施形態に係る処理は、第2の実施形態と同様であるが、一部の処理が異なっており、差異点を主に説明する。。
図8(b)のステップS1120において、エッジ位置関係判定部204は、同一のモデルエッジグループ内のモデルエッジに対して、モデルエッジ位置関係ラベルを付与する。本実施形態では、第2の実施形態とは異なり、視点からの距離ではなく、画像面上での位置に基づいてモデルエッジ位置関係ラベルを付与する。以下、図10(a)を参照して詳細を説明する。
図8(a)のステップS1030において、エッジ位置関係判定部204は、同一の画像エッジグループIDを構成する画像エッジ間の相対位置関係を判定し、ラベル付けを行う。前述の実施形態とは異なり、エッジ位置関係判定部204は、撮影画像10のみを用いて、画像面上での距離に基づいて相対位置関係の判定およびラベル付けを行う。図10(b)を参照して、詳細を説明する。
ステップS1040において、エッジ対応選択部206は、第1の実施形態で説明した処理と同様の処理を行う。
<概略>
本実施形態では、設計データ中のモデルエッジと、画像から検出される画像エッジとについて、近接して検出される略平行なエッジをグループ化する。そして、モデルエッジと画像エッジとのそれぞれについて、グループ内でのエッジの二次元画像内における配置関係に基づいて順序づけを行う。2つの撮影装置から得られる2枚の画像について、各グループに対してモデルエッジ及び画像エッジの順序を比較し、これらが整合する組み合わせを選択する。視点の異なる2つの画像の両方で整合性を判定することにより、画像面上での二次元的な位置関係と、奥行き情報を含む三次元的な位置関係との両方の情報に基づいて対応づけが行われることになる。そのため、複数の候補が存在する中でより適切な対応づけが行われ、対象物体の位置姿勢を高精度に推定することが可能となる。
本実施形態に係る情報処理装置200の構成は、第2の実施形態と同様であるため、説明を省略する。本実施形態では、第1実施形態と同様に、撮影部101が2つ設けられている。撮影画像処理部201は撮影画像10および11をそれぞれ入力する。
本実施形態に係る処理は、第2の実施形態と同様であるが、一部の処理が異なっており、差異点を主に説明する。
ステップS1015において、撮影画像処理部201は、撮影画像10および11中の対象物体301の概略位置姿勢を推定する。本実施形態では、撮影画像10に対する概略位置姿勢を推定した後で、校正済みの撮影画像10及び撮影画像11の外部パラメータを用いて、撮影画像11に対する概略位置姿勢を算出する。すなわち、本実施形態では、ステップS1015の処理により、撮影画像10と撮影画像11とに対応する2種類の概略位置姿勢が得られることになる。
ステップS1030において、エッジ位置関係判定部204は、同一の画像エッジグループIDを構成する画像エッジに対して、画像面上での距離に基づいて相対位置関係を判定し、ラベル付けを行う。この処理は、第2の実施形態で説明した処理と同様であるが、第2の実施形態では撮影画像10は1つのみであったのに対し、本実施形態では2つの撮影画像10、11に対して処理を行う点が異なっている。本実施形態では、画像エッジリスト50は、各撮影画像10、11に対して生成される。すなわち、第1の実施形態と同様に、2つの画像エッジリスト50が生成される。
ステップS1040において、エッジ対応選択部206は、エッジ位置関係判定部204により更新された画像エッジリスト50と、モデルエッジ位置関係保持部205が保持している視点別モデルエッジリスト45とを参照する。そして、参照により、撮影画像10、11から検出された2つの画像エッジについて、モデルエッジ位置関係ラベルと画像エッジ位置関係ラベルとを照合する。本実施形態では、撮影画像10、11にそれぞれ対応する形で、2つの視点別モデルエッジリスト45と、2つの画像エッジリスト50とが存在する。エッジ対応選択部206は、それぞれについてモデルエッジ位置関係ラベルと画像エッジ位置関係ラベルとを照合する。
ステップS1030においてエッジ位置関係判定部204がラベル付けを行う際、画像面上での距離だけでなく、第1の実施形態で説明したように、2枚の画像から検出された画像エッジの座標の差をさらに用いるようにしてもよい。これにより、二次元的な情報と三次元的な情報との両方を利用することで、より正しい対応づけが行われるようになる。
<概略>
本実施形態では、ユーザが指示入力部を操作することによって、複数のエッジを選択する。情報処理装置は、ユーザの選択に基づいて、領域内に含まれる複数の略平行なエッジをグループ化する。
図11は、本実施形態に係る情報処理装置200の全体構成を示す図である。本実施形態に係る情報処理装置200は、第2の実施形態で参照した図7の構成に加えて、情報処理装置に接続する操作入力部102が追加されている。以降、第2の実施形態との差異を主に説明し、同じ部分については説明を省略する。
本実施形態に係る処理は、第2の実施形態と同様であるが、一部の処理が異なっており、差異点を主に説明する。
ステップS1020において、エッジグループ抽出部203は、ステップS1010で検出された画像エッジをユーザからの指示操作に基づいてグループ化し、画像エッジグループIDを付与する。ここで、画像エッジグループIDを付与する手順について、図12を参照して説明する。
エッジグループ抽出部203は、ステップS1020で説明した処理によって自動的に画像エッジグループIDを割り当てておき、ユーザが操作を行わない場合には、既に割り当てられた画像エッジグループIDを用いるようにしてもよい。ユーザはすべての画像エッジに対して操作を行う必要はなく、自動的に割り当てられた画像エッジグループIDを変更したい場合にのみ、操作を受け付けるように構成してもよい。これにより、ユーザの作業を軽減することができる。
エッジグループ抽出部203は、ステップS1110において、ユーザからの操作指示の入力を受け付けて、各視点に対してモデルエッジグループIDを付与するようにしてもよい。
エッジグループ抽出部203は、ステップS1110において画像エッジグループIDあるいはモデルエッジグループIDごとに異なる表示方法でユーザにエッジを提示するようにしてもよい。例えば、同一の画像エッジグループIDに属する画像エッジを同一の色で表示することで、ユーザはエッジの対応関係を容易に確認することができる。
<概略>
本実施形態では、対象物体の三次元位置姿勢の推定結果を用いて、ロボット等の把持部が対象物体を把持する例を説明する。
本実施形態では、情報処理装置200の外部に不図示の把持部を駆動する駆動部を備えており、推定部207により推定された対象物体301の位置姿勢に基づいて、把持部に対する最終目的位置姿勢を算出する。最終目的位置姿勢は、把持部が備えるエンドエフェクタ(不図示)が対象物体301を把持可能な位置姿勢である。
第1の実施形態によれば、対象物体の設計データを用いて、設計データ中のモデルエッジと、画像から検出される画像エッジについて、近接して検出される略平行エッジをグループ化する。モデルエッジのグループ化はユーザからの指示に基づいて行われる。モデルエッジと画像エッジのそれぞれについて、グループ内でのエッジの三次元的な幾何関係に基づいて順序づけを行う。各グループに対してモデルエッジと画像エッジの順序を比較し、これらが整合する組み合わせを選択する。これにより、複数の類似した組み合わせが存在する中で三次元的な情報を利用して正しい対応づけが行われるため、対象物体の位置姿勢を高精度に推定することが可能となる。
本発明における撮影画像処理部は、撮影部が撮影した画像を装置に入力できるものであれば、いかなるものでもよい。また、入力する画像においても、RGBカラー画像、グレイスケール画像、白黒画像など、いかなる種類の画像でもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (13)
- 対象物体が撮影された撮影画像から検出される複数の近接する画像エッジを画像エッジグループとして抽出する抽出手段と、
前記画像エッジグループに含まれる画像エッジ相互の位置関係を判定する判定手段と、
前記対象物体の三次元モデルを構成するモデルエッジ相互の位置関係を保持する保持手段と、
前記画像エッジの位置関係と、前記モデルエッジの位置関係との整合性に基づいて、対応する画像エッジとモデルエッジとの組み合わせを選択する選択手段と、
前記組み合わせに基づいて、前記対象物体の位置姿勢を推定する推定手段と、
を備えることを特徴とする情報処理装置。 - 前記選択手段は、前記画像エッジの位置関係と、前記撮影画像の視点と略同一の視点に対応する前記モデルエッジの位置関係との整合性に基づいて、対応する画像エッジとモデルエッジとの組み合わせを選択することを特徴とする請求項1に記載の情報処理装置。
- 前記判定手段は、前記画像エッジグループに含まれる画像エッジの位置に基づいて前記画像エッジグループ内の画像エッジを順序づけし、
前記選択手段は、前記画像エッジの順序と、前記モデルエッジの順序とが一致するように、前記組み合わせを選択することを特徴とする請求項1に記載の情報処理装置。 - 前記判定手段は、前記画像エッジの奥行き情報に基づいて前記画像エッジグループ内の画像エッジを順序づけすることを特徴とする請求項3に記載の情報処理装置。
- 前記判定手段は、視点の異なる複数の撮影画像からそれぞれ検出された画像エッジ上の座標の差に基づいて前記奥行き情報を判定し、当該奥行き情報に基づいて前記画像エッジグループ内の画像エッジを順序づけすることを特徴とする請求項4に記載の情報処理装置。
- 前記判定手段は、前記画像エッジと交差する方向の画像エッジの配置順に基づいて画像エッジを順序づけすることを特徴とする請求項3に記載の情報処理装置。
- 前記交差する方向は、前記画像エッジと略垂直な方向であることを特徴とする請求項6に記載の情報処理装置。
- 前記判定手段は、前記画像エッジの奥行き情報と、前記画像エッジと交差する方向の画像エッジの配置順とに基づいて画像エッジを順序づけすることを特徴とする請求項3に記載の情報処理装置。
- 前記抽出手段は、視点の異なる第1の撮影画像及び第2の撮影画像のそれぞれについて画像エッジグループを抽出し、
前記判定手段は、前記第1の撮影画像及び前記第2の撮影画像のそれぞれについて、前記画像エッジグループに含まれる画像エッジの位置に基づいて前記画像エッジグループ内の画像エッジを順序づけし、
前記選択手段は、前記第1の撮影画像における前記画像エッジの順序と前記モデルエッジの順序とが一致し、且つ、前記第2の撮影画像における前記画像エッジの順序と前記モデルエッジの順序とが一致するように、前記組み合わせを選択することを特徴とする請求項1に記載の情報処理装置。 - ユーザからの操作指示の入力を受け付ける操作入力手段をさらに備え、
前記抽出手段は、前記操作指示に基づいて、前記複数の近接する画像エッジを前記画像エッジグループとして抽出することを特徴とする請求項1に記載の情報処理装置。 - 前記推定手段は、推定された前記対象物体の位置姿勢に基づいて、前記対象物体を把持する把持部が前記対象物体を把持可能な位置姿勢を算出することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
- 対象物体の三次元モデルを構成するモデルエッジ相互の位置関係を保持する保持手段を備える情報処理装置の制御方法であって、
前記対象物体が撮影された撮影画像から検出される複数の近接する画像エッジを画像エッジグループとして抽出する抽出工程と、
前記画像エッジグループに含まれる画像エッジ相互の位置関係を判定する判定工程と、
前記画像エッジの位置関係と、前記モデルエッジの位置関係との整合性に基づいて、対応する画像エッジとモデルエッジとの組み合わせを選択する選択工程と、
前記組み合わせに基づいて、前記対象物体の位置姿勢を推定する推定工程と、
を有することを特徴とする情報処理装置の制御方法。 - コンピュータを、請求項1乃至11の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018107154A JP7178803B2 (ja) | 2018-06-04 | 2018-06-04 | 情報処理装置、情報処理装置の制御方法およびプログラム |
US16/420,856 US11189053B2 (en) | 2018-06-04 | 2019-05-23 | Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018107154A JP7178803B2 (ja) | 2018-06-04 | 2018-06-04 | 情報処理装置、情報処理装置の制御方法およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019211981A true JP2019211981A (ja) | 2019-12-12 |
JP2019211981A5 JP2019211981A5 (ja) | 2021-07-26 |
JP7178803B2 JP7178803B2 (ja) | 2022-11-28 |
Family
ID=68694162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018107154A Active JP7178803B2 (ja) | 2018-06-04 | 2018-06-04 | 情報処理装置、情報処理装置の制御方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11189053B2 (ja) |
JP (1) | JP7178803B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022054497A1 (ja) * | 2020-09-08 | 2022-03-17 | パナソニックIpマネジメント株式会社 | 充填率計測方法、情報処理装置およびプログラム |
JP7394347B2 (ja) | 2020-02-14 | 2023-12-08 | 株式会社Mujin | 候補エッジを処理するための方法及び計算システム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11003939B2 (en) | 2018-07-06 | 2021-05-11 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017091202A (ja) * | 2015-11-10 | 2017-05-25 | 国立大学法人静岡大学 | 物体認識方法及び物体認識装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5129051A (en) * | 1990-03-16 | 1992-07-07 | Hewlett-Packard Company | Decomposition of arbitrary polygons into trapezoids |
JP4649559B2 (ja) | 2009-03-05 | 2011-03-09 | 株式会社三次元メディア | 3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体 |
JP6320051B2 (ja) | 2014-01-17 | 2018-05-09 | キヤノン株式会社 | 三次元形状計測装置、三次元形状計測方法 |
JP6363863B2 (ja) | 2014-04-15 | 2018-07-25 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP6335011B2 (ja) | 2014-04-25 | 2018-05-30 | キヤノン株式会社 | 計測装置およびその方法 |
JP6420572B2 (ja) | 2014-06-13 | 2018-11-07 | キヤノン株式会社 | 計測装置およびその方法 |
JP6418884B2 (ja) | 2014-10-10 | 2018-11-07 | キヤノン株式会社 | 三次元計測装置、三次元計測方法及びプログラム |
JP6573354B2 (ja) | 2014-11-28 | 2019-09-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US10281264B2 (en) | 2014-12-01 | 2019-05-07 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus and control method for the same |
JP6117853B2 (ja) * | 2015-05-13 | 2017-04-19 | ファナック株式会社 | バラ積みされた物品を取り出すための物品取出システム、および方法 |
US10171730B2 (en) | 2016-02-15 | 2019-01-01 | Canon Kabushiki Kaisha | Information processing apparatus, method of controlling information processing apparatus, and storage medium |
JP6740033B2 (ja) | 2016-06-28 | 2020-08-12 | キヤノン株式会社 | 情報処理装置、計測システム、情報処理方法及びプログラム |
US10430994B1 (en) * | 2016-11-07 | 2019-10-01 | Henry Harlyn Baker | Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats |
US10572716B2 (en) * | 2017-10-20 | 2020-02-25 | Ptc Inc. | Processing uncertain content in a computer graphics system |
-
2018
- 2018-06-04 JP JP2018107154A patent/JP7178803B2/ja active Active
-
2019
- 2019-05-23 US US16/420,856 patent/US11189053B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017091202A (ja) * | 2015-11-10 | 2017-05-25 | 国立大学法人静岡大学 | 物体認識方法及び物体認識装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7394347B2 (ja) | 2020-02-14 | 2023-12-08 | 株式会社Mujin | 候補エッジを処理するための方法及び計算システム |
WO2022054497A1 (ja) * | 2020-09-08 | 2022-03-17 | パナソニックIpマネジメント株式会社 | 充填率計測方法、情報処理装置およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11189053B2 (en) | 2021-11-30 |
US20190371001A1 (en) | 2019-12-05 |
JP7178803B2 (ja) | 2022-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
US11400598B2 (en) | Information processing apparatus, method, and robot system | |
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
US20150317821A1 (en) | Geodesic Distance Based Primitive Segmentation and Fitting for 3D Modeling of Non-Rigid Objects from 2D Images | |
JP6912215B2 (ja) | 対象物の姿勢等を検出する検出方法、検出プログラム | |
CN110176075B (zh) | 通过视觉系统同时考虑图像特征中边缘和法线的系统和方法 | |
JP2014035702A (ja) | 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム | |
JP2018091656A (ja) | 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法 | |
US11189053B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium | |
JP2016179534A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2019114103A (ja) | 物体認識処理装置、物体認識処理方法及びプログラム | |
CN111598946A (zh) | 一种物体位姿测量方法、装置及存储介质 | |
JP6860620B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6817742B2 (ja) | 情報処理装置およびその制御方法 | |
CN110832542A (zh) | 识别处理设备、识别处理方法和程序 | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP2015184054A (ja) | 同定装置、方法及びプログラム | |
CN111127556A (zh) | 基于3d视觉的目标物体识别和位姿估算方法以及装置 | |
JP2018195070A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5762099B2 (ja) | 姿勢認識装置、作業ロボット、姿勢認識方法、プログラム及び記録媒体 | |
KR20230049969A (ko) | 글로벌 측위 장치 및 방법 | |
JP2006113832A (ja) | ステレオ画像処理装置およびプログラム | |
CN116921932A (zh) | 焊接轨迹识别方法、装置、设备及存储介质 | |
JP2009216480A (ja) | 三次元位置姿勢計測方法および装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210603 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210603 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220603 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221115 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7178803 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |