JP2019211981A - 情報処理装置、情報処理装置の制御方法およびプログラム - Google Patents

情報処理装置、情報処理装置の制御方法およびプログラム Download PDF

Info

Publication number
JP2019211981A
JP2019211981A JP2018107154A JP2018107154A JP2019211981A JP 2019211981 A JP2019211981 A JP 2019211981A JP 2018107154 A JP2018107154 A JP 2018107154A JP 2018107154 A JP2018107154 A JP 2018107154A JP 2019211981 A JP2019211981 A JP 2019211981A
Authority
JP
Japan
Prior art keywords
image
edge
model
edges
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018107154A
Other languages
English (en)
Other versions
JP2019211981A5 (ja
JP7178803B2 (ja
Inventor
小林 俊広
Toshihiro Kobayashi
俊広 小林
達矢 鈴木
Tatsuya Suzuki
達矢 鈴木
藤木 真和
Masakazu Fujiki
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018107154A priority Critical patent/JP7178803B2/ja
Priority to US16/420,856 priority patent/US11189053B2/en
Publication of JP2019211981A publication Critical patent/JP2019211981A/ja
Publication of JP2019211981A5 publication Critical patent/JP2019211981A5/ja
Application granted granted Critical
Publication of JP7178803B2 publication Critical patent/JP7178803B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像から類似したエッジが局所的に複数検出される場合においても、高精度に対象物体の位置姿勢を推定する技術を提供する。【解決手段】情報処理装置であって、対象物体が撮影された撮影画像から検出される複数の近接する画像エッジを画像エッジグループとして抽出する抽出部と、画像エッジグループに含まれる画像エッジ相互の位置関係を判定する判定部と、対象物体の三次元モデルを構成するモデルエッジ相互の位置関係を保持する保持部と、画像エッジの位置関係と、モデルエッジの位置関係との整合性に基づいて、対応する画像エッジとモデルエッジとの組み合わせを選択する選択部と、組み合わせに基づいて対象物体の位置姿勢を推定する推定部とを備える。【選択図】 図1

Description

本発明は、情報処理装置、情報処理装置の制御方法およびプログラムに関し、特に、撮影装置によって取得された撮影画像を用いて対象物体の三次元の位置姿勢を推定する技術に関する。
近年、ロボットアームを用いて、無作為に配置された部品等の対象物体の把持や操作を行うため、撮影装置によってこれらの対象物体を撮影し、三次元位置姿勢を推定する装置が提案されている。そのような装置では、CAD(computer−aided design)等で作成した対象物体の設計データを用い、特定の視点から観測される設計データの像と、実際に観察される対象物体の像とを比較照合する。これにより、対象物体の三次元位置姿勢を推定している。
特許文献1では、カメラで対象物体を撮影して得られた二次元画像から得られるエッジに対して、対象物体の設計データを二次元画像に投影した際に得られるエッジを対応づけ、これらが一致する対象物体の位置姿勢を推定する方法が開示されている。
特許第4649559号
S. Hinterstoisser et al, Gradient Response Maps for Real−Time Detection of Texture−Less Objects, TPAMI 2012
しかしながら、特許文献1の技術では、二次元画像から得られるエッジと、設計データから得られるエッジとの対応づけに誤りが生じることがある。特に、工業部品においては、面取りなどの加工に伴い、狭い範囲に複数の平行するエッジが二次元画像から検出されやすいため、その傾向が顕著となる。そのため、類似したエッジが局所的に複数検出される場合、対象物体の位置姿勢の推定精度が低下することがあるという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、画像から類似したエッジが局所的に複数検出される場合においても、高精度に対象物体の位置姿勢を推定する技術を提供することを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
対象物体が撮影された撮影画像から検出される複数の近接する画像エッジを画像エッジグループとして抽出する抽出手段と、
前記画像エッジグループに含まれる画像エッジ相互の位置関係を判定する判定手段と、
前記対象物体の三次元モデルを構成するモデルエッジ相互の位置関係を保持する保持手段と、
前記画像エッジの位置関係と、前記モデルエッジの位置関係との整合性に基づいて、対応する画像エッジとモデルエッジとの組み合わせを選択する選択手段と、
前記組み合わせに基づいて、前記対象物体の位置姿勢を推定する推定手段と、
を備えることを特徴とする。
本発明によれば、画像から類似したエッジが局所的に複数検出される場合においても、高精度に対象物体の位置姿勢を推定することが可能となる。
第1実施形態に係る情報処理装置の構成例を模式的に示す図である。 第1実施形態に係る撮影部101と対象物体301との関係を示す図である。 第1実施形態に係るデータ構造の例を示す図である。 第1実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。 第1実施形態に係る、画像エッジの視差を算出する例を示す図である。 第1実施形態に係る、対応づけを行うシーンの例を示す図である。 第2実施形態に係る情報処理装置の全体構成を模式的に示す図である。 第2実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。 第2実施形態において対象物体301を観察する仮想的な視点を設定する様子を示す図である。 第3実施形態に係るエッジ位置関係判定部204が行う処理の例を示す図である。 第5実施形態に係る情報処理装置の全体構成を模式的に示す図である。 第5実施形態に係る操作ウィンドウ70の例を示す図である。
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(第1実施形態)
<概要>
本実施形態では、対象物体が撮影された撮影画像から検出される複数の画像エッジのうち、近接する複数の画像エッジを画像エッジグループとして抽出する。例えば、近接して検出される略平行な複数の画像エッジを画像エッジグループとして抽出する。一方、対象物体の三次元モデルを構成するモデルエッジ(設計データに含まれるモデルエッジ)については、ユーザからの指示に基づいて複数のモデルエッジがモデルエッジグループとして事前に抽出されており、モデルエッジ相互の位置関係が保持されている。
そして、画像エッジグループに含まれる画像エッジ相互の位置関係と、保持されているモデルエッジ相互の位置関係との整合性に基づいて、対応する画像エッジとモデルエッジとの組み合わせを選択し、その組み合わせに基づいて対象物体の位置姿勢を推定する。
より具体的には、モデルエッジと画像エッジとのそれぞれについて、グループ内でのエッジの三次元的な幾何関係に基づいて順序づけを行う。各グループに対してモデルエッジ及び画像エッジの順序を比較し、これらが整合する組み合わせを選択する。
このように、エッジ相互の位置関係の情報を利用することで、複数の類似したエッジの組み合わせが存在する中で、適切な対応づけが行われるため、対象物体の位置姿勢を高精度に推定することが可能となる。
<構成>
図1は、本実施形態に係る情報処理装置の全体構成を示す図である。図1における矩形枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。図1において、情報処理装置200は、撮影部101と接続されている。情報処理装置200は、撮影画像処理部201、三次元モデル入力部202、エッジグループ抽出部203、エッジ位置関係判定部204、モデルエッジ位置関係保持部205、エッジ対応選択部206、及び推定部207を備えている。情報処理装置200が備える各処理部の機能は、不図示のCPUが不図示のメモリからプログラムを読み出して実行することにより制御される。なお、図1の構成は一例であり図示されるものに限定されない。
撮影部101は、三次元位置姿勢を推定すべき対象物体301(図2参照)を含むシーンを撮影した撮影画像を取得する。撮影部101により取得された撮影画像は、撮影画像処理部201に入力される。
ここで、図2は、本実施形態に係る撮影部101と対象物体301との関係を示している。平面302上に対象物体301が配置されており、2つの撮影部101は、対象物体301の上方から全体を俯瞰して撮影した撮影画像10、11(不図示)を取得する。対象物体301は様々な位置姿勢を取りうる。
図3(a)に示すように、対象物体301については、設計データ(例えばCADデータ)等から、対象物体301の三次元形状やサイズを規定する三次元モデル303が定義されている。三次元モデル303は、頂点リスト20、面リスト30、モデルエッジリスト40、及び視点別モデルエッジリスト45を含んで構成されている。
頂点リスト20は、三次元モデル303を構成する頂点の三次元座標のリストを含む。面リスト30は、対象物体301の面を構成する頂点番号のリストを含む。モデルエッジリスト40は、三次元モデル303を構成するモデルエッジに関する情報を複数保持するリストである。視点別モデルエッジリスト45は、三次元モデル303を構成するモデルエッジに対して、所定の位置姿勢から観察された場合の幾何的な位置関係の情報を保持するリストである。
なお、撮影部101は校正済みであり、焦点距離、画像中心、歪み係数などの内部パラメータは既知であるものとする。また、2つの撮影部101に対する外部パラメータも既知であるものとする。
続いて、図3(b)は、モデルエッジリスト40のデータ構造の例を示している。モデルエッジリスト40は、三次元モデル303を構成するモデルエッジに関する情報を複数保持するリストである。個々のモデルエッジに関する情報は、モデルエッジIDと、頂点IDリストとを含んで構成される。
また、図3(c)は、視点別モデルエッジリスト45のデータ構造の例を示している。視点別モデルエッジリスト45は、三次元モデル303を構成するモデルエッジに対して、所定の位置姿勢から観察された場合の幾何的な位置関係の情報を保持するリストである。各要素は、三次元モデル303を観測すると想定される各視点に対して設定される。視点別モデルエッジリスト45は、視点ID、モデルエッジグループID、モデルエッジIDリスト、及びモデルエッジ位置関係ラベルを含んで構成される。
本実施形態では、モデルエッジグループに関しては、ある視点において三次元モデル303を観測した二次元画像上でエッジの方向と距離とが共に近いモデルエッジ群が、同一のモデルエッジグループとなるように構成される。モデルエッジグループIDは、モデルエッジグループを一意に特定するためのIDである。モデルエッジIDリストは、モデルエッジグループIDで特定されるモデルエッジグループに含まれるモデルエッジIDのリストである。
モデルエッジ位置関係ラベルは、モデルエッジグループ内に属しているモデルエッジに対して、三次元的な奥行き情報に基づいて付与されたラベルである。モデルエッジ位置関係ラベルは、視点から当該エッジまでの三次元距離の順序に従って設定される。例えば、同一のモデルエッジグループを構成するモデルエッジに対して、最も視点に近いモデルエッジにラベル1を付与し、2番目に視点に近いモデルエッジにラベル2を付与する。なお、孤立したモデルエッジに対しては、モデルエッジを1つだけ含むモデルエッジグループが設定されることになる。
本実施形態では、対象物体301の概略位置姿勢は既知であると仮定できるものとし、当該概略位置姿勢に対応する単一視点における視点別モデルエッジリスト45をユーザが事前に生成して用意する。
撮影画像処理部201は、撮影部101が撮影した撮影画像10、11を情報処理装置200の内部に取り込む。このとき、校正パラメータを用いて、撮影画像10、11の平行化を行う。また、撮影画像処理部201は、撮影画像10、11に対してエッジ検出を行い、図3(d)を参照して後述する画像エッジリスト50を生成する。撮影画像処理部201は、生成された画像エッジリスト50と、既知の概略位置姿勢とを、エッジグループ抽出部203に送出する。
画像エッジリスト50は、撮影画像10、11から検出される画像エッジ情報を保持するデータである。図3(d)は、画像エッジリスト50のデータ構造の例を示す。画像エッジリスト50は、画像エッジID、画像エッジ座標、画像エッジ方向、画像エッジグループID、及び画像エッジ位置関係ラベルを含んで構成される複数の画像エッジ情報をリスト構造として保持する。画像エッジID、画像エッジ座標、画像エッジ方向については、撮影画像処理部201によって設定される。画像エッジグループID、画像エッジ位置関係ラベルについては、エッジグループ抽出部203、エッジ位置関係判定部204によってそれぞれ設定される。なお、画像エッジリスト50は1つの撮影画像に対して1つ設けられる。すなわち、撮影画像10、11に対して、それぞれ画像エッジリスト50が設定される。
三次元モデル入力部202は、対象物体301と同一形状の三次元モデル303を構成するデータのうち、モデルエッジリスト40を情報処理装置200内部に取り込み、エッジグループ抽出部203に送出する。
エッジグループ抽出部203は、撮影画像処理部201から入力された画像エッジリスト50と対象物体301の概略位置姿勢とを参照し、画像エッジグループを抽出する。エッジグループ抽出部203は、各画像エッジに対して、近接しているものに同一のグループIDを付与することでグループ化を行い、画像エッジグループを抽出する。エッジグループ抽出部203は、付与した画像エッジグループIDを画像エッジリスト50中に書き込み、画像エッジリスト50をエッジ位置関係判定部204に送出する。
エッジ位置関係判定部204は、エッジグループ抽出部203から入力された画像エッジリスト50を参照し、同一の画像エッジグループを構成する個々の画像エッジの相対位置関係に基づいてラベル付けを行う。エッジ位置関係判定部204は、画像エッジ位置関係ラベルを画像エッジリスト50にそれぞれ書き込み、その結果をエッジ対応選択部206に送出する。
モデルエッジ位置関係保持部205は、あらかじめユーザによって作成された視点別モデルエッジリスト45を読み込み、不図示の記憶領域に保持する。モデルエッジ位置関係保持部205が保持している視点別モデルエッジリスト45は、エッジ対応選択部206により随時読み出される。
エッジ対応選択部206は、モデルエッジ位置関係保持部205が保持している視点別モデルエッジリスト45と、エッジ位置関係判定部204から入力された画像エッジリスト50とを参照する。そして、参照により、撮影画像10から検出された画像エッジと、三次元モデル303を構成するモデルエッジとの組み合わせを選択し、対応づけを行う。対応づけの結果はエッジ対応リスト60に書き込まれる。エッジ対応選択部206は、エッジ対応リスト60を推定部207に送出する。ここで、図3(e)は、エッジ対応リスト60のデータ構造の例を示す。エッジ対応リスト60は、モデルエッジIDと画像エッジIDとの対をリスト構造として保持する。
推定部207は、撮影画像10と対象物体301とを照合して対象物体301の三次元位置姿勢を推定する。本実施形態では、エッジ対応選択部206により生成されたエッジ対応リスト60を参照して、対象物体301の三次元位置姿勢を推定する。具体的には、三次元モデル303を構成するモデルエッジを撮影画像10上に投影した場合のモデルエッジと、撮影画像10から検出された画像エッジとの差を画像面上で最小化するように最適化を行うことによって、対象物体301の三次元位置姿勢を推定する。このとき、エッジ対応リスト60に記述されたIDに対応するモデルエッジと画像エッジとが対応づけられる。なお、最適化における残差が大きい場合には、推定部207は、対象物体301と三次元モデル303とが整合しないとして、エラーを出力する。
<処理>
続いて、図4のフローチャートを参照して、本実施形態に係る情報処理装置200が実施する処理の手順を説明する。
(ステップS1000)
ステップS1000において、モデルエッジ位置関係保持部205は、あらかじめ用意された視点別モデルエッジリスト45を読み込み、不図示の記憶領域に保持する。
(ステップS1010)
ステップS1010において、撮影画像処理部201は、撮影部101により撮影された、対象物体301を含むシーンの撮影画像10、11を取得する。本実施形態では、撮影部101は2つ設けられており、それぞれ視点位置の異なる撮影部101から撮影画像10、11がそれぞれ撮影される。
撮影画像処理部201は、撮影画像10、11に対してソーベルフィルタを適用し、エッジ検出処理を行う。以降の説明では、撮影画像10、11から検出されたエッジを画像エッジと呼ぶ。撮影画像処理部201は、画像エッジを構成する各画素に対して、画像エッジ座標と画像エッジ方向とを画像エッジリスト50に書き込む。
(ステップS1020)
ステップS1020において、エッジグループ抽出部203は、検出された画像エッジをグループ化し、画像エッジグループIDを付与する。以下、エッジグループ抽出部203が行うグループ化の処理について説明する。
まず、エッジグループ抽出部203は、画像エッジリスト50を参照し、各画像エッジに対して、直線へのあてはめを行い、画像エッジに対する近似線分を推定する。線分の推定手法は数多く存在するが、RANSAC(Random Sampling Consensus)やハフ変換などの手法を用いればよい。エッジグループ抽出部203は、すべての近似線分の組み合わせに対して、近似線分i−近似線分j間の距離dijに関する距離テーブルを生成する。この距離テーブルに対してクラスタリングを適用し、同一クラスタに属する近似線分を1つの画像エッジグループとし、画像エッジグループIDを付与する。
エッジグループ抽出部203は、上記の処理によって求めた画像エッジグループIDを画像エッジリスト50に書き込む。
(ステップS1030)
ステップS1030において、エッジ位置関係判定部204は、同一の画像エッジグループIDを構成するエッジ間の相対位置関係を判定し、ラベル付けを行う。
まず、エッジ位置関係判定部204は、撮影画像10及び撮影画像11に対してステレオマッチングを行い、画像エッジごとに視差量を算出する。ここで、図5は、本実施形態に係る画像エッジの視差量を算出する例を示している。エッジ位置関係判定部204は、撮影画像10において検出された画像エッジ410aおよび410bと、撮影画像11において対応する画像エッジ411aおよび411bとの視差量を算出する。本実施形態では、撮影画像10および撮影画像11のエピポーラ線はx軸に平行となるように平行化がなされている。そのため、エッジ位置関係判定部204は、画像エッジ410aおよび410bにおける撮影画像10と撮影画像11とのx座標の差を視差量として算出する。図5に示されるように、画像エッジ410aと画像エッジ411aとの視差量は、d=||xa2−xa1||である。また、画像エッジ410bと画像エッジ411bとの視差量は、d=||xb2−xb1||である。このように、視点の異なる複数の撮影画像からそれぞれ検出された画像エッジ上の座標の差に基づいて視差量を算出する。
次に、エッジ位置関係判定部204は、撮影画像10に対応する画像エッジリスト50から、同一の画像エッジグループIDである画像エッジIDのリストを抽出する。エッジ位置関係判定部204は、先のステレオマッチングの結果を参照して、撮影画像11中の対応画像エッジとの視差量を取得し、視差量が大きい(すなわち、視点から近い)順に画像エッジをソートする。画像エッジの視差量と視点から画像エッジまでの奥行きとは反比例の関係にあるので、この処理により、画像エッジは視点からの距離(奥行き情報)に基づいて並び換えられることになる。
このようにして、視点の異なる複数の撮影画像からそれぞれ検出された画像エッジ上の座標の差に基づいて奥行き情報を判定することができる。
続いて、エッジ位置関係判定部204は、同一の画像エッジグループ内の画像エッジに対して、ソート結果に基づいて画像エッジ位置関係ラベルを付与する。本実施形態では、画像エッジ位置関係ラベルは、ソート後の順序とする。すなわち、視差量が最も大きい(すなわち、視点から最も近い)画像エッジに対して、画像エッジ位置関係ラベルとして1を付与する。そして、視差量が2番目に大きい画像エッジに対して、画像エッジ位置関係ラベルとして2を付与する。
エッジ位置関係判定部204は、上記の処理によって求めた位置関係のラベルを画像エッジリスト50に書き込む。
(ステップS1040)
ステップS1040において、エッジ対応選択部206は、エッジ位置関係判定部204により更新された画像エッジリスト50と、モデルエッジ位置関係保持部205が保持している視点別モデルエッジリスト45とを参照する。そして、参照により、撮影画像10から検出された画像エッジと、三次元モデル303を構成するモデルエッジとの対応づけを行う。
まず、エッジ対応選択部206は、概略位置姿勢を用いて、視点別モデルエッジリスト45から、撮影画像10の視点と略同一の視点IDの要素を取り出す。次に、エッジ対応選択部206は、モデルエッジリスト40と概略位置姿勢とを用いて、撮影画像10上にモデルエッジを投影し、撮影画像10上に投影されたモデルエッジの画像座標と、撮影画像10上でのモデルエッジの方向とを算出する。
ここで、図6(a)は、対応づけを行うシーンの例を示す図である。撮影画像10中の対象物体301について検出された画像エッジと、対象物体301に対応する三次元モデル303を撮影画像10上に投影した像とが示されている。以降の説明では、エッジ対応選択部206は、二次元画像上で対応づけ処理を行う。すなわち、モデルエッジは三次元空間上で定義されるものであるが、以降の処理では二次元画像平面上に投影されたものとして取り扱う。
図6(b)は、図6(a)の一部を拡大した図である。実線は撮影画像10から検出された画像エッジを示しており、破線は三次元モデル303のモデルエッジが撮影画像10上に投影された状態を示している。モデルエッジ403は、現在処理対象となっているモデルエッジである。エッジ対応選択部206は、モデルエッジ403に対して、最も適切な画像エッジを対応づけるが、その候補として画像エッジ413、414が検出されている。なお、モデルエッジ403、404、画像エッジ413、414の矢印はエッジの方向を示している。
図6(c)は、視点別モデルエッジリスト45、画像エッジリスト50、エッジ対応リスト60のうち、説明に関係するデータを抜粋して示した図である。これまでに説明した処理により、視点別モデルエッジリスト45、画像エッジリスト50のそれぞれについて、モデルエッジグループID、モデルエッジ位置関係ラベル、画像エッジグループID、画像エッジ位置関係ラベルが付与されている。
エッジ対応選択部206は、現在の処理対象であるモデルエッジ403ついて、二次元画像上に投影されたモデルエッジの略垂直方向に画像エッジを探索し、適切な対応関係を満たす画像エッジを選択する。このとき、モデルエッジと画像エッジとの距離が閾値以下であり、かつ、画像エッジの方向がモデルエッジ403と略平行である画像エッジを選択候補とする。図6(b)においては、画像エッジ413、414がモデルエッジ403の選択候補として検出される。
次に、エッジ対応選択部206は、検出された画像エッジの選択候補の中で、モデルエッジ403からの距離が近い順に対応の整合性を確認する。図6(b)において、モデルエッジ403からの距離が最も近い画像エッジは414である。エッジ対応選択部206は、画像エッジ414の画像エッジ位置関係ラベルを参照し、モデルエッジ403のモデルエッジ位置関係ラベルと一致するかどうかを確認する。この例の場合、図6(c)に示されるように、画像エッジ414の画像エッジ位置関係ラベルは1であり、モデルエッジ403のモデルエッジ位置関係ラベルは2であるので、両者は整合しない。そのため、エッジ対応選択部206は、画像エッジ414をモデルエッジ403とは「対応しない」と判定して選択しない。
エッジ対応選択部206は、次に距離の近い画像エッジ413に対して同様の処理を行う。画像エッジ413の画像エッジ位置関係ラベルは2であり、モデルエッジ403のモデルエッジ位置関係ラベルは2であるので、両者は整合する。そのため、エッジ対応選択部206は、画像エッジ413をモデルエッジ403と「対応する」と判定して選択する。このとき、エッジ対応選択部206は、エッジ対応リスト60に画像エッジ413のIDを書き込む。
すなわち、エッジ対応選択部206は、視点からの距離に基づいて設定されたモデルエッジ位置関係ラベルと画像エッジ位置関係ラベルとを比較し、整合する場合に対応づけを行って選択する。これにより、画像上での距離が近い場合であっても、画像エッジ相互の三次元的な位置関係がモデルエッジ相互の三次元的な位置関係と整合しない場合に、誤って対応づけられることを防止することができる。
(ステップS1050)
ステップS1050において、推定部207は、撮影画像10と対象物体301との照合を行い、対象物体301の三次元位置姿勢を推定する。推定部207は、エッジ対応選択部206によって生成されたエッジ対応リスト60を参照する。そして、エッジ対応リスト60中で対をなすモデルエッジと画像エッジとのすべての組み合わせについて、二次元画像(撮影画像)上に投影されたモデルエッジの座標と、画像エッジの座標との距離の総和を最小化する位置姿勢を最適化により算出する。これにより、対象物体301の三次元位置姿勢を推定する。
そして、推定部207は、推定された対象物体301の位置姿勢を外部に出力する。なお、三次元位置姿勢の推定時の最適化処理における残差が所定値以上である場合には、推定部207は、対象物体301と三次元モデル303とが整合しないとして、エラーを出力する。以上で図4の一連の処理が終了する。
なお、ステップS1010において、撮影画像処理部201が撮影画像10、11に対してエッジ検出を行う処理としてソーベルフィルタを用いる例を説明したが、ソーベルフィルタに限られない。キャニーフィルタ、ラプラシアンフィルタなど、他のフィルタを用いた検出処理を行ってもよい。
また、ステップS1020において、エッジグループ抽出部203は、各画像エッジを代表する近似線分相互の距離に基づいて、近接する画像エッジ群をグループ化する例を説明した。ここで算出される距離に関して、2つのエッジの相対的な角度を用いて重みづけを行うようにしてもよい。例えば、2つの近似線分が垂直に近い場合には、同一グループに属さないようにすべく、距離の値が大きくなるように重みづけを行うようにしてもよい。
また、ステップS1030において、エッジ位置関係判定部204は、必ずしもラベル付けを行う必要はない。エッジ対応選択部206が対応づけ処理を行う際に、視点からの距離が近い順にモデルエッジを処理するものとし、画像エッジについても視差量が大きいものから順に探索を行うものとすれば、ラベル付け処理を省略することができる。このとき、対応づけられた画像エッジには処理済みフラグを付与し、次のモデルエッジとの対応づけを行う際には、処理済みフラグが付与されていない画像エッジに限定して処理を行ってもよい。
また、ステップS1030において、エッジ位置関係判定部204が行うステレオマッチングは、画像エッジリスト50中に含まれる画像エッジに対してのみ行えばよく、撮影画像10、11の全画素に対して行う必要はない。また、ステレオマッチングはブロックマッチング法やセミグローバルマッチング法など数多くの手法が知られているが、いずれの手法を用いてもよい。ステレオマッチングによって、画像エッジリスト50に含まれる画像エッジに対して、撮影画像10及び撮影画像11間の視差量を求めることができる。
[変形例1]
撮影部101を2つ設ける代わりに、別途三次元計測装置を設け、画像エッジの三次元座標に基づいて画像エッジ相互の位置関係を判定し、画像エッジ位置関係ラベルを付与するように構成してもよい。その場合、ステップS1030において、エッジ位置関係判定部204は、得られた画像エッジの三次元座標に基づいて、視点と画像エッジとの距離を算出して並び換えを行い、画像エッジ位置関係ラベルを付与する。
[変形例2]
撮影部101を2つ設ける代わりに、1つの撮影部101を移動可能な構成とし、異なる時刻に異なる視点から撮影された複数の画像に基づき、画像エッジ相互の位置関係を判定し、画像エッジ位置関係ラベルを付与するように構成してもよい。その場合、ステップS1030において、エッジ位置関係判定部204は、撮影部101に別途備えられた位置姿勢センサあるいは画像中の特徴点に基づいて、画像撮影時の撮影部101の位置姿勢を推定する。そして、エッジ位置関係判定部204は、2枚の画像で観測される画像エッジの座標と、撮影部101の位置姿勢とから、画像エッジの三次元座標を算出する。エッジ位置関係判定部204は、得られた三次元座標に基づいて、視点と画像エッジとの距離を算出して並び換えを行い、画像エッジ位置関係ラベルを付与する。
[変形例3]
ステップS1050において、推定部207は、算出した対象物体301の最終的な位置姿勢を外部に出力する代わりに、予め入力された対象物体301の位置姿勢と、算出された位置姿勢とが略一致するかを検査し、その成否を出力するように構成してもよい。あるいは、三次元モデル303が複数存在する場合には、対象物体301に最も類似する三次元モデル303の種別を出力するように構成してもよい。
[変形例4]
ステップS1050において、推定部207は、算出された対象物体301の位置姿勢を外部に出力する代わりに、位置姿勢の算出が正常終了するか否かを判定することで、対象物体301の存在判定を行い、その結果を出力するように構成してもよい。位置姿勢算出の演算が収束しない、あるいは残差が所定値以上である場合には、対象物体301が存在しないと判定してもよい。
以上述べたように、本実施形態によれば、撮影部から得られる複数の画像を用いて、近接する複数のエッジに対して三次元的な情報を利用して順序づけを行う。これにより、誤った対応づけを回避することができるため、対象物体の三次元位置姿勢を高精度に推定することが可能となる。
(第2の実施形態)
<概要>
本実施形態では、画像から検出される画像エッジについて、近接して検出される略平行な画像エッジをグループ化する。設計データに含まれるモデルエッジについても、対象物体を観測する複数視点からの幾何関係に基づいてグループ化する。そして、モデルエッジと画像エッジとのそれぞれについて、グループ内でのエッジの三次元的な幾何関係に基づいて順序づけを行う。各グループに対してモデルエッジ及び画像エッジの順序を比較し、これらが整合する組み合わせを選択する。
このように、三次元的な情報を利用することで、複数の類似したエッジの組み合わせが存在する中で、適切な対応づけが行われるため、対象物体の位置姿勢を高精度に推定することが可能となる。
第1の実施形態では、モデルエッジのグループ化はユーザからの指示に基づいて行われていたのに対して、本実施形態では、ユーザからの指示ではなく、対象物体を観測する複数視点からの幾何関係に基づいてモデルエッジのグループ化を行う点が異なっている。また、本実施形態では、対象物体の概略位置姿勢の推定を行う点も異なっている。
<構成>
図7は、本実施形態に係る情報処理装置200の全体構成を示す図である。図1に示した第1実施形態の構成と比較すると、概略位置姿勢推定部208が追加されている。以降、第1実施形態との差異を主に説明し、同じ部分については説明を省略する。
本実施形態に係るモデルエッジ位置関係保持部205は、三次元モデル入力部202から入力された三次元モデル303に基づいて、視点別モデルエッジリスト45を生成する。
概略位置姿勢推定部208は、撮影画像10又は11中に撮影されている対象物体301の概略位置姿勢を推定する。
<処理>
続いて、図8のフローチャートを参照して、本実施形態に係る情報処理装置200が実施する処理の手順を説明する。図8(a)は処理全体の流れを示し、図8(b)は図8(a)のステップS1005の処理の詳細を示している。
ステップS1005において、モデルエッジ位置関係保持部205は、仮想的に設定される視点位置と、三次元モデル303とから視点別モデルエッジリスト45を生成する。なお、ステップS1005の処理は、事前準備として以降の処理に先立ち一度だけ実施されればよい。
ここで、図8(b)を参照して、ステップS1005の処理の詳細について説明する。
(ステップS1100)
ステップS1100において、三次元モデル入力部202は、対象物体301と同一形状の三次元モデル303を読み込む。本実施形態に係る三次元モデル303は、対象物体301の設計に用いられたCADデータから生成される。図3(a)を参照して前述したように、三次元モデル303にはモデルエッジリスト40が含まれる。また、ステップS1100において、三次元モデル入力部202は、対象物体301が実際に取り得る概略の姿勢を複数設定する。
本実施形態では、対象物体301を外接球の中心に配置するような正多面体を仮定し、正多面体の頂点の位置に対象物体301を観察する仮想的な視点を設定する。複数設定された視点から位置姿勢が変化しない対象物体301を観察することと、固定的な視点から位置姿勢が変化する対象物体301を観察することとは等価であるので、これにより、対象物体301が実際に取り得る概略の姿勢が設定されることになる。図9は、複数設定された視点から対象物体301が観察される様子を示している。
以降、ステップS1110からステップS1140までの処理は、ステップS1100で設定された視点数に等しい回数実行される。すなわち、ステップS1110からステップS1140までの処理の実行に際し、ステップS1100で算出された視点が順に設定される。
(ステップS1110)
ステップS1110において、エッジグループ抽出部203は、モデルエッジをグループ化し、モデルエッジグループIDを付与する。エッジグループ抽出部203は、ステップS1100で設定された視点から、モデルエッジリスト40に記述されているモデルエッジを二次元画像上に投影し、二次元画像上に投影されたモデルエッジの投影座標と方向とを算出する。エッジグループ抽出部203は、モデルエッジリスト40に含まれており当該二次元画像上で観測可能なすべてのエッジに対して投影座標と方向とを算出する。
次に、エッジグループ抽出部203は、各モデルエッジの投影座標と方向とを参照し、三次元モデル303におけるすべてのモデルエッジの組み合わせに対して2つのモデルエッジ間の距離dを算出する。この距離dの算出方法について、以下説明する。
本実施形態では、モデルエッジは三次元で表される2つの頂点間の線分であるため三次元で定義されるが、距離dは投影した画像面上において二次元で算出される。2つのモデルエッジをそれぞれモデルエッジ1、モデルエッジ2とする。モデルエッジ1、2が投影された画像面上で交差している場合には距離dは0とする。交差しない場合には、モデルエッジ1を構成する2頂点について、それぞれモデルエッジ2までの距離を求め、小さい方を距離dとする。
エッジグループ抽出部203は、三次元モデル303を構成する全モデルエッジの組み合わせに対して、モデルエッジi−モデルエッジj間の距離dijに関する距離テーブルを生成する。この距離テーブルに対してクラスタリングを適用し、同一クラスタに属するモデルエッジに対して同一のモデルエッジグループIDを付与する。
このとき、エッジグループ抽出部203は、同一クラスタと判定するための距離の閾値を以下のように定める。エッジグループ抽出部203は、現在の視点がステップS1100で設定された隣接する視点(すなわち、視点を定義した多面体の隣接する頂点)に移動したときに、モデルエッジが二次元画像上に投影される座標の変化量を算出する。エッジグループ抽出部203は、最大の座標変化量を同一クラスタと判定するための距離の閾値とする。この閾値は、対象物体301の概略位置姿勢の変動に対するモデルエッジの変動量の範囲を示すものである。モデルエッジ相互の距離がこの閾値よりも小さくなると、モデルエッジと画像エッジとの対応の候補が複数発生し、誤った対応づけを発生させる確率が高くなる。これらを同一のモデルグループに所属させるべく、同一クラスタと判定するための距離の閾値を概略位置姿勢の変動に基づき設定することにより、より効果的に誤った対応づけを防止することが可能となる。
エッジグループ抽出部203は、上記の処理によって求めたモデルエッジグループIDを視点別モデルエッジリスト45に書き込む。
(ステップS1120)
ステップS1120において、エッジ位置関係判定部204は、同一のモデルエッジグループを構成するモデルエッジ間の相対位置関係を判定し、ラベル付けを行う。
エッジ位置関係判定部204は、視点別モデルエッジリスト45から、同一のモデルエッジグループIDに属するモデルエッジIDのリストを抽出する。エッジ位置関係判定部204は、抽出されたモデルエッジIDのリストに対応する各モデルエッジに対して、モデルエッジリスト40を参照して以下の処理を行う。
エッジ位置関係判定部204は、各モデルエッジに対して、ステップS1100で設定された視点からの距離を算出し、距離が小さい順にソートする。視点からモデルエッジまでの距離は、各モデルエッジを定義する2頂点の三次元座標と視点位置との距離のうち、小さい方を選択する。
次に、エッジ位置関係判定部204は、同一のモデルエッジグループ内のモデルエッジに対して、ソート結果に基づいてモデルエッジ位置関係ラベルを付与する。本実施形態では、モデルエッジ位置関係ラベルは、ソート結果の順序で付与される。すなわち、視点からの距離が最も小さいモデルエッジに対して、モデルエッジ位置関係ラベルとして1を付与する。2番目に距離が小さいモデルエッジに対しては、モデルエッジ位置関係ラベルとして2を付与する。
エッジ位置関係判定部204は、は、上記の処理によって求めたモデルエッジ位置関係ラベルを、視点別モデルエッジリスト45に書き込む。
(ステップS1130)
ステップS1130において、三次元モデル入力部202は、ステップS1100で設定された視点がすべて処理されたか否かを判定する。視点がすべて処理された場合、すなわち全ての姿勢が処理された場合には、ステップS1140に進む。そうでない場合には、ステップS1110に戻り、未処理の視点(未処理の姿勢)に対してステップS1110からS1130の処理を実行する。
(ステップS1140)
ステップS1140において、モデルエッジ位置関係保持部205は、生成された視点別モデルエッジリスト45を不図示の外部記憶領域に出力する。
以上が図8(b)の一連の処理である。
その後、図8(a)に戻り、ステップS1015において、概略位置姿勢推定部208は、撮影画像10あるいは11中の対象物体301の概略位置姿勢を推定する。本実施形態では2つの撮影部11の外部パラメータは既知であるため、概略位置姿勢は撮影画像10あるいは11のいずれか片方のみ推定すればよい。また、本ステップで算出する概略位置姿勢は、対象物体301を構成するエッジを撮影画像10あるいは11の視点から観測した場合、画像面上でエッジ相互の位置関係、配置順や構造を変化させない程度の精度があればよい。概略位置姿勢の推定には非特許文献1に記載の手法を用いることができる。その他の処理は、第1の実施形態で説明した通りであるため、説明を省略する。
ステップS1040において、エッジ対応選択部206は、モデルエッジリスト40と、ステップS1015で推定された概略位置姿勢とを用いて、撮影画像10上にモデルエッジを投影し、以降第1の実施形態と同様の処理を行う。すなわち、画像エッジの位置関係と、撮影画像10の視点と略同一の視点に対応するモデルエッジの位置関係との整合性に基づいて、対応する画像エッジとモデルエッジとの組み合わせを選択する。
なお、本実施形態のステップS1110において、エッジグループ抽出部203が行うクラスタリングに関しては、いずれの手法を用いてもよい。
[変形例5]
撮影部101や対象物体301が静止している場合においても、画像ノイズ等の影響でモデルエッジと画像エッジとの対応関係が時刻によって一貫せず、異なる場合が生じる。結果として、シーンが静的であるにも関わらず、対象物体301の位置姿勢が時間ごとに変動し、微動しているように観測される。エッジ対応選択部206は、これを回避するために前回の対応づけ結果を優先するようにしてもよい。具体的には、ステップS1015における概略位置姿勢推定結果が前フレームと概ね同一であれば、前回の対応づけ結果をそのまま適用してもよい。すなわち、概略位置姿勢推定結果が前フレームより一定以上異なっている場合にのみ、本実施形態におけるステップS1020−S1040の処理を行ってもよい。
[変形例6]
ステップS1120において、エッジ位置関係判定部204がモデルエッジ位置関係ラベルを視点別モデルエッジリスト45に書き込む際に、当該モデルエッジの可視性に関する情報を付加するようにしてもよい。視点位置や姿勢によっては、特定のモデルエッジは隠れによって観測できず、画像から消失する場合がある。モデルエッジが画像エッジとして観測されず消失してしまうと、ステップS1040の処理時にモデルエッジと画像エッジとの位置関係ラベルに不整合が生じる可能性がある。そのため、ステップS1120において、視点位置姿勢のわずかな変化によって、当該モデルエッジが観測されない可能性が高くなるような場合には、モデルエッジに消失可能性に関する情報を付加する。そして、ステップS1040において、モデルエッジと画像エッジとの位置関係ラベルが整合せず、さらに、モデルエッジの可視性に関する情報としてモデルエッジに消失可能性に関する情報が付与されている場合には、エッジ対応選択部206は、当該モデルエッジは消失したものと判定し、対応づけを行わない。
[変形例7]
本実施形態において、ステップS1005の処理は情報処理装置の起動前の事前準備として実行したが、情報処理装置の起動後にオンラインで実行するようにしてもよい。この場合、ステップS1100において三次元モデル入力部202が複数の視点を設定する代わりに、ステップS1040の時点で、モデルエッジ位置関係保持部205が概略位置姿勢から視点別モデルエッジリスト45を生成してもよい。すなわち、想定される複数の視点における視点別モデルエッジリスト45を事前に生成するのに代えて、現在の概略位置姿勢からその都度視点別モデルエッジリスト45を生成するようにしてもよい。
[変形例8]
ステップS1110において、エッジグループ抽出部203が同一クラスタと判定するための距離の閾値を設定する代わりに、ユーザから値を入力させるようにしてもよい。
以上述べたように、本実施形態によれば、設計データに含まれるモデルエッジが、対象物体を観測する複数視点からの幾何関係に基づきグループ化される。様々な位置姿勢を取り得る対象物体に対して適切な対応づけが行われるため、対象物体の位置姿勢を高精度に推定することが可能となる。
(第3の実施形態)
<概要>
本実施形態では、1つの撮影装置で対象物体を撮影する例を説明する。本実施形態では、設計データ中のモデルエッジと、画像から検出される画像エッジについて、近接して検出される略平行なエッジをグループ化する。そして、モデルエッジと画像エッジとのそれぞれについて、グループ内でのエッジの二次元画像内における配置関係に基づいて順序づけを行う。各グループに対してモデルエッジと画像エッジの順序を比較し、これらが整合する組み合わせを選択する。
これにより、複数の類似した組み合わせが存在する中でより適切な対応づけが行われるため、対象物体の位置姿勢を高精度に推定することが可能となる。
<構成>
本実施形態に係る情報処理装置200の構成は、第1の実施形態と同様であるため、説明を省略する。なお、第1実施形態では、2つの撮影部101を備えていたが、本実施形態では、撮影部101は1つである。撮影画像処理部201は、撮影部101から撮影画像10を入力し、撮影画像11は入力されない。撮影画像の平行化も行われない。
<処理>
本実施形態に係る処理は、第2の実施形態と同様であるが、一部の処理が異なっており、差異点を主に説明する。。
(ステップS1120)
図8(b)のステップS1120において、エッジ位置関係判定部204は、同一のモデルエッジグループ内のモデルエッジに対して、モデルエッジ位置関係ラベルを付与する。本実施形態では、第2の実施形態とは異なり、視点からの距離ではなく、画像面上での位置に基づいてモデルエッジ位置関係ラベルを付与する。以下、図10(a)を参照して詳細を説明する。
図10(a)には、ステップS1100で設定された視点から三次元モデル303が投影された仮想画像12中に観測されている2つのモデルエッジ405、406が示されている。これらのモデルエッジは、同一のモデルエッジグループを構成しており、モデルエッジグループIDはすべて同じである。エッジ位置関係判定部204は、この中からモデルエッジを1つ選択する。図10(a)ではモデルエッジ405が選択されるものとする。次に、エッジ位置関係判定部204は、選択されたモデルエッジ405の中心(エッジの両端点の中点)を通る垂線500および仮想画像12との交点501を算出する。交点501には、仮想画像12においてx=0あるいはy=0となる座標を設定する。
次に、エッジ位置関係判定部204は、モデルエッジ405、406について、交点501から各々のモデルエッジまでの距離を算出し、小さい順にソートする。エッジ位置関係判定部204は、同一のモデルエッジグループ内のモデルエッジに対して、ソート結果に基づいてモデルエッジ位置関係ラベルを付与する。本実施形態においては、モデルエッジ位置関係ラベルはソート結果の順序とする。すなわち、図10(a)の例では、交点501からの距離が最も小さいモデルエッジ405に対して、モデルエッジ位置関係ラベルとして1を付与する。そして、2番目に距離が小さいモデルエッジ406に対しては、モデルエッジ位置関係ラベルとして2を付与する。エッジ位置関係判定部204は、この処理を各モデルエッジグループに対して繰り返し行う。
エッジ位置関係判定部204は、上記の処理によって求めたモデルエッジ位置関係ラベルをモデルエッジリスト40に書き込む。
(ステップS1030)
図8(a)のステップS1030において、エッジ位置関係判定部204は、同一の画像エッジグループIDを構成する画像エッジ間の相対位置関係を判定し、ラベル付けを行う。前述の実施形態とは異なり、エッジ位置関係判定部204は、撮影画像10のみを用いて、画像面上での距離に基づいて相対位置関係の判定およびラベル付けを行う。図10(b)を参照して、詳細を説明する。
エッジ位置関係判定部204は、撮影画像10に対応する画像エッジリスト50から、同一の画像エッジグループIDである画像エッジIDのリストを抽出する。図10(b)の例では、同一の画像エッジグループに属する画像エッジとして、画像エッジ415、416の2つが割り当てられている。
エッジ位置関係判定部204は、同一の画像エッジグループに属する画像エッジのうち、1つを選択する。図10(b)の例では、画像エッジ415が選択されるものとする。次に、エッジ位置関係判定部204は、選択された画像エッジ415に対する中心座標を通る垂線510および撮影画像10との交点511を算出する。このとき、撮影画像10においてx=0あるいはy=0となる座標を交点511として設定するが、エッジ位置関係判定部204は、ステップS1120で算出した交点501と一貫させる。すなわち、交点501が仮想画像12におけるx=0となる点であれば、対応する交点511についても、撮影画像10におけるx=0となる点として算出する。
次に、エッジ位置関係判定部204は、画像エッジ415、416について、交点511から各々の画像エッジまでの距離を算出し、小さい順にソートする。エッジ位置関係判定部204は、同一の画像エッジグループ内の画像エッジに対して、ソート結果に基づいて画像エッジ位置関係ラベルを付与する。本実施形態においては、画像エッジ位置関係ラベルはソート結果の順序とする。すなわち、図10(b)の例では、交点511からの距離が最も小さい画像エッジ415に対して、画像エッジ位置関係ラベルとして1を付与する。そして、2番目に距離が小さい画像エッジ416に対しては、画像エッジ位置関係ラベルとして2を付与する。この処理により、画像エッジは撮影画像10内の配置関係に基づいて並び換えられることになる。
エッジ位置関係判定部204は、上記の処理によって求めた位置関係のラベルを画像エッジリスト50に書き込む。
(ステップS1040)
ステップS1040において、エッジ対応選択部206は、第1の実施形態で説明した処理と同様の処理を行う。
但し、エッジ対応選択部206は、画像内に設定された特定の点からの二次元的な距離に基づいて設定されたモデルエッジ位置ラベルと画像エッジ位置ラベルとを比較し、整合するもののみを対応づける。これにより、画像上での距離が近い場合であっても、画像エッジ相互の画像面内における位置関係がモデルエッジ相互の画像面内における位置関係と一貫しない場合に、誤って対応づけられることを防止することができる。
なお、本実施形態のステップS1120、S1030において、エッジ位置関係判定部204は、交点501および交点511を図10の例とは異なる点に設定してもよい。例えば、モデルエッジ又は画像エッジの1つの中点を交点501、511として設定してもよい。この場合、エッジ位置関係判定部204は、交点501から各モデルエッジまでの距離および交点511から各画像エッジまでの距離を算出する際に、距離の値だけでなく方向も同時に考慮して位置関係ラベルを付与する。この場合において、エッジ位置関係判定部204は、交点501および511から各エッジまでの符号つき距離を算出し、ソートを行う。
以上述べたように、本実施形態によれば、近接する複数のエッジに対して二次元的な情報を利用することで、誤った対応づけを防止することができるため、対象物体の位置姿勢を高精度に推定することが可能となる。
(第4の実施形態)
<概略>
本実施形態では、設計データ中のモデルエッジと、画像から検出される画像エッジとについて、近接して検出される略平行なエッジをグループ化する。そして、モデルエッジと画像エッジとのそれぞれについて、グループ内でのエッジの二次元画像内における配置関係に基づいて順序づけを行う。2つの撮影装置から得られる2枚の画像について、各グループに対してモデルエッジ及び画像エッジの順序を比較し、これらが整合する組み合わせを選択する。視点の異なる2つの画像の両方で整合性を判定することにより、画像面上での二次元的な位置関係と、奥行き情報を含む三次元的な位置関係との両方の情報に基づいて対応づけが行われることになる。そのため、複数の候補が存在する中でより適切な対応づけが行われ、対象物体の位置姿勢を高精度に推定することが可能となる。
<構成>
本実施形態に係る情報処理装置200の構成は、第2の実施形態と同様であるため、説明を省略する。本実施形態では、第1実施形態と同様に、撮影部101が2つ設けられている。撮影画像処理部201は撮影画像10および11をそれぞれ入力する。
<処理>
本実施形態に係る処理は、第2の実施形態と同様であるが、一部の処理が異なっており、差異点を主に説明する。
(ステップS1015)
ステップS1015において、撮影画像処理部201は、撮影画像10および11中の対象物体301の概略位置姿勢を推定する。本実施形態では、撮影画像10に対する概略位置姿勢を推定した後で、校正済みの撮影画像10及び撮影画像11の外部パラメータを用いて、撮影画像11に対する概略位置姿勢を算出する。すなわち、本実施形態では、ステップS1015の処理により、撮影画像10と撮影画像11とに対応する2種類の概略位置姿勢が得られることになる。
(ステップS1030)
ステップS1030において、エッジ位置関係判定部204は、同一の画像エッジグループIDを構成する画像エッジに対して、画像面上での距離に基づいて相対位置関係を判定し、ラベル付けを行う。この処理は、第2の実施形態で説明した処理と同様であるが、第2の実施形態では撮影画像10は1つのみであったのに対し、本実施形態では2つの撮影画像10、11に対して処理を行う点が異なっている。本実施形態では、画像エッジリスト50は、各撮影画像10、11に対して生成される。すなわち、第1の実施形態と同様に、2つの画像エッジリスト50が生成される。
(ステップS1040)
ステップS1040において、エッジ対応選択部206は、エッジ位置関係判定部204により更新された画像エッジリスト50と、モデルエッジ位置関係保持部205が保持している視点別モデルエッジリスト45とを参照する。そして、参照により、撮影画像10、11から検出された2つの画像エッジについて、モデルエッジ位置関係ラベルと画像エッジ位置関係ラベルとを照合する。本実施形態では、撮影画像10、11にそれぞれ対応する形で、2つの視点別モデルエッジリスト45と、2つの画像エッジリスト50とが存在する。エッジ対応選択部206は、それぞれについてモデルエッジ位置関係ラベルと画像エッジ位置関係ラベルとを照合する。
そして、エッジ対応選択部206は、同一のモデルエッジIDに対して、両方の撮影画像に対してモデルエッジ位置関係ラベルと画像エッジ位置関係ラベルとの整合性が満たされた場合に、モデルエッジと画像エッジとを対応づける。すなわち、1つのモデルエッジに対して、撮影画像10と11の2枚の画像から得られる画像エッジについてそれぞれ位置関係の整合性を照合する。それにより、画像面上での二次元的な位置関係と、奥行き情報を含む三次元的な位置関係との両方の情報に基づいて対応づけが行われることになる。
以上述べたように、本実施形態によれば、撮影部から得られる複数の画像を用いて、近接する複数のエッジに対して二次元的な情報と三次元的な情報との両方を利用する。これにより、誤った対応づけをより防止することができる。そのため、対象物体の位置姿勢をより高精度に推定することが可能となる。
[変形例9]
ステップS1030においてエッジ位置関係判定部204がラベル付けを行う際、画像面上での距離だけでなく、第1の実施形態で説明したように、2枚の画像から検出された画像エッジの座標の差をさらに用いるようにしてもよい。これにより、二次元的な情報と三次元的な情報との両方を利用することで、より正しい対応づけが行われるようになる。
(第5の実施形態)
<概略>
本実施形態では、ユーザが指示入力部を操作することによって、複数のエッジを選択する。情報処理装置は、ユーザの選択に基づいて、領域内に含まれる複数の略平行なエッジをグループ化する。
<構成>
図11は、本実施形態に係る情報処理装置200の全体構成を示す図である。本実施形態に係る情報処理装置200は、第2の実施形態で参照した図7の構成に加えて、情報処理装置に接続する操作入力部102が追加されている。以降、第2の実施形態との差異を主に説明し、同じ部分については説明を省略する。
操作入力部102は、情報処理装置200に接続して用いられ、ユーザからの指示操作の入力を受け付ける。入力された指示操作の内容の情報は、エッジグループ抽出部203およびモデルエッジ位置関係保持部205に送られる。
エッジグループ抽出部203は、各モデルエッジ、画像エッジのそれぞれに対して、操作入力部102から入力されたユーザからの指示操作に基づいて、同一のエッジグループIDを付与することでグループ化し、エッジグループを生成する。
<処理>
本実施形態に係る処理は、第2の実施形態と同様であるが、一部の処理が異なっており、差異点を主に説明する。
(ステップS1020)
ステップS1020において、エッジグループ抽出部203は、ステップS1010で検出された画像エッジをユーザからの指示操作に基づいてグループ化し、画像エッジグループIDを付与する。ここで、画像エッジグループIDを付与する手順について、図12を参照して説明する。
図12は、本実施形態に係る操作ウィンドウ70の一例を示している。操作ウィンドウ70には、撮影画像10に含まれる対象物体301の像に対して、ステップS1015で得られた概略位置姿勢で三次元モデル303を描画した像が重畳して表示されている。ユーザは、操作ウィンドウ70を参照しながら操作入力部102へ指示を行い、カーソル80を移動させて矩形領域90を設定する。操作ウィンドウ70中には視点別モデルエッジリスト45及び画像エッジリスト50の一部が表示されており、ユーザは各エッジに対して割り当てられたグループIDを参照できるようになっている。また、エッジ対応選択部206によって対応付けられたモデルエッジと画像エッジとが直線で結ばれた様子が描画されており、これにより、ユーザは両エッジの現時点の対応関係を確認することができる。
ユーザはスライダ85を移動させることによって、エッジグループ抽出部203が同一クラスタと判定するための閾値を変化させ、同一画像エッジグループに所属する画像エッジを調整することができる。
エッジグループ抽出部203は、ユーザによってID付与ボタン95が押された場合に、設定された矩形領域90の内部に含まれる画像エッジに対して、画像エッジグループIDを付与する。このとき、エッジグループ抽出部203は、略平行なエッジの組み合わせに対して、同一の画像エッジグループIDを付与する。図12の例では、エッジグループ抽出部203は、画像エッジ413と画像エッジ414とに対して画像エッジグループIDとして1を、画像エッジ417と画像エッジ418とに対して画像エッジグループIDとして2を付与する。
エッジグループ抽出部203は、モデルエッジに対して、ユーザからの指示に基づいてモデルエッジグループIDを付与する。但し、モデルエッジグループIDについては、ステップS1100で設定された各視点に対して、ステップS1110の時点で既に付与されている。従って、エッジグループ抽出部203は、ユーザによってID付与ボタン95が押された場合に、既に設定されているモデルエッジグループIDを、概略位置姿勢に対応する視点IDの要素についてのみ、矩形領域90に基づいて再設定する。
画像エッジグループIDと同様に、矩形領域90の内部に存在するモデルエッジに対して、略平行なモデルエッジの組み合わせに対して同一のモデルエッジグループIDを付与する。図12の例では、エッジグループ抽出部203は、モデルエッジ403とモデルエッジ404とに対してモデルエッジグループIDとして1を付与し、モデルエッジ407とモデルエッジ408とに対してモデルエッジグループIDとして2を付与する。
以上述べたように、本実施形態によれば、ユーザが指示入力部を用いて複数のエッジを選択する。これにより、近接する略平行なエッジが適切にグルーピングされ、より適切な対応づけが行われるため、対象物体の位置姿勢を高精度に推定することが可能となる。
[変形例10]
エッジグループ抽出部203は、ステップS1020で説明した処理によって自動的に画像エッジグループIDを割り当てておき、ユーザが操作を行わない場合には、既に割り当てられた画像エッジグループIDを用いるようにしてもよい。ユーザはすべての画像エッジに対して操作を行う必要はなく、自動的に割り当てられた画像エッジグループIDを変更したい場合にのみ、操作を受け付けるように構成してもよい。これにより、ユーザの作業を軽減することができる。
[変形例11]
エッジグループ抽出部203は、ステップS1110において、ユーザからの操作指示の入力を受け付けて、各視点に対してモデルエッジグループIDを付与するようにしてもよい。
[変形例12]
エッジグループ抽出部203は、ステップS1110において画像エッジグループIDあるいはモデルエッジグループIDごとに異なる表示方法でユーザにエッジを提示するようにしてもよい。例えば、同一の画像エッジグループIDに属する画像エッジを同一の色で表示することで、ユーザはエッジの対応関係を容易に確認することができる。
(第6の実施形態)
<概略>
本実施形態では、対象物体の三次元位置姿勢の推定結果を用いて、ロボット等の把持部が対象物体を把持する例を説明する。
<構成>
本実施形態では、情報処理装置200の外部に不図示の把持部を駆動する駆動部を備えており、推定部207により推定された対象物体301の位置姿勢に基づいて、把持部に対する最終目的位置姿勢を算出する。最終目的位置姿勢は、把持部が備えるエンドエフェクタ(不図示)が対象物体301を把持可能な位置姿勢である。
最終目的位置姿勢に関しては、推定部207により推定された位置姿勢に対して所定の三次元変換を適用することで算出される。所定の三次元変換は、対象物体301の形状とエンドエフェクタとの関係から定義され、該エンドエフェクタが該対象物体301を把持するのに最も適した駆動部の位置姿勢を、対象物体301の座標系において表したものである。所定の三次元変換は、本実施形態における処理の開始前に予め算出しておき、処理開始時にパラメータとして情報処理装置200に入力される。
以上述べたように、本実施形態によれば、対象物体の三次元位置姿勢の推定結果を用いて、ロボット等の駆動部が対象物体を把持することが可能となる。
<実施形態の効果>
第1の実施形態によれば、対象物体の設計データを用いて、設計データ中のモデルエッジと、画像から検出される画像エッジについて、近接して検出される略平行エッジをグループ化する。モデルエッジのグループ化はユーザからの指示に基づいて行われる。モデルエッジと画像エッジのそれぞれについて、グループ内でのエッジの三次元的な幾何関係に基づいて順序づけを行う。各グループに対してモデルエッジと画像エッジの順序を比較し、これらが整合する組み合わせを選択する。これにより、複数の類似した組み合わせが存在する中で三次元的な情報を利用して正しい対応づけが行われるため、対象物体の位置姿勢を高精度に推定することが可能となる。
第2の実施形態によれば、対象物体の設計データを用いて、設計データ中のモデルエッジと、画像から検出される画像エッジについて、近接して検出される略平行エッジをグループ化する。モデルエッジと画像エッジのそれぞれについて、グループ内でのエッジの三次元的な幾何関係に基づいて順序づけを行う。各グループに対してモデルエッジと画像エッジの順序を比較し、これらが整合する組み合わせを選択する。これにより、複数の類似した組み合わせが存在する中で三次元的な情報を利用して正しい対応づけが行われるため、対象物体の位置姿勢を高精度に推定することが可能となる。
第3の実施形態によれば、対象物体の設計データを用いて、設計データ中のモデルエッジと、画像から検出される画像エッジについて、近接して検出される略平行エッジをグループ化する。モデルエッジと画像エッジのそれぞれについて、グループ内でのエッジの二次元画像内における配置関係に基づいて順序づけを行う。各グループに対してモデルエッジと画像エッジの順序を比較し、これらが整合する組み合わせを選択する。これにより、複数の類似した組み合わせが存在する中で正しい対応づけが行われるため、対象物体の位置姿勢を高精度に推定することが可能となる。
第4の実施形態によれば、対象物体の設計データを用いて、設計データ中のモデルエッジと、画像から検出される画像エッジについて、近接して検出される略平行エッジをグループ化する。モデルエッジと画像エッジのそれぞれについて、グループ内でのエッジの二次元画像内における配置関係に基づいて順序づけを行う。2つの撮影装置から得られる2枚の画像について、各グループに対してモデルエッジと画像エッジの順序を比較し、これらが整合する組み合わせを選択する。視点の異なる2つの画像の両方で整合性を判定することにより、画像面上での二次元的な位置関係と、奥行き情報を含む三次元的な位置関係の両方の情報に基づいて対応づけが行われることになる。そのため、複数の候補が存在する中で正しい対応づけが行われ、対象物体の位置姿勢を高精度に推定することが可能となる。
第5の実施形態によれば、ユーザからの操作入力によって、局所的に複数検出される略平行エッジをグループ化する。複数の候補が存在する中で正しい対応づけが行われ、対象物体の位置姿勢を高精度に推定することが可能となる。
第6の実施形態によれば、対象物体の三次元位置姿勢の推定結果を用いて、ロボット等の駆動部が対象物体を把持することが可能となる。
<定義>
本発明における撮影画像処理部は、撮影部が撮影した画像を装置に入力できるものであれば、いかなるものでもよい。また、入力する画像においても、RGBカラー画像、グレイスケール画像、白黒画像など、いかなる種類の画像でもよい。
本発明における三次元モデルは、三次元空間中での頂点と稜線(エッジ)が定義されているものであればどのような形態、データ構造であってもよい。
本発明におけるエッジグループ抽出部は、撮影画像から検出される画像エッジのうち、二次元画像内で位置および方向が近接し、対応づけを誤る可能性が高いものをグループ化するが、この方法には様々なものを用いることができる。第1の実施形態では、ユーザが事前にグループ化しておく構成について説明した。第2の実施形態ではエッジグループ抽出部が自動的に判定を行い、グループ化する構成について説明した。第5の実施形態では、ユーザからの操作に基づきグループ化する構成について説明した。
本発明におけるエッジ位置関係判定部は、同一のグループに属するモデルエッジおよび画像エッジについて、その位置関係に基づいて順序を定義するものであるが、この方法には様々なものを用いることができる。第1の実施形態および第2の実施形態では、三次元的な位置関係に基づき画像エッジの順序を定義する方法について説明した。第3の実施形態では、二次元的な位置関係に基づき画像エッジの順序を定義する方法について説明した。また、変形例9では、二次元的な位置関係と三次元的な位置関係の両方を用いる方法について説明した。
本発明におけるエッジ対応選択部は、画像エッジおよびモデルエッジの位置関係に基づく順序の整合性を照合し、対応する組み合わせを選択するものであるが、この方法には様々なものを用いることができる。第1の実施形態では同一のグループに属するモデルエッジおよび画像エッジに対して、位置関係に基づいて付与されたラベルが一致するか否かで照合を行う方法について説明した。また、画像エッジと視点からの距離が近い順に処理を行うことで、ラベルを付与せずに照合を行う方法についても説明した。
本発明における推定部は対象物体301と撮影画像10とを照合するのであるが、この照合には様々なものを適用することができ、対象物体301の位置姿勢を詳細に算出するのに限られない。変形例3では、あらかじめ入力された対象物体の位置姿勢と、算出された位置姿勢とが略一致するかを照合し、その成否を出力する構成について説明した。また変形例4では、位置姿勢算出が正常終了するか否かを判定し、対象物体301の存在検査を行う構成について説明した。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
200:情報処理装置、201:撮影画像処理部、202:三次元モデル入力部、203:エッジグループ抽出部、204:エッジ位置関係判定部、205:モデルエッジ位置関係保持部、206:エッジ対応選択部、207:推定部

Claims (13)

  1. 対象物体が撮影された撮影画像から検出される複数の近接する画像エッジを画像エッジグループとして抽出する抽出手段と、
    前記画像エッジグループに含まれる画像エッジ相互の位置関係を判定する判定手段と、
    前記対象物体の三次元モデルを構成するモデルエッジ相互の位置関係を保持する保持手段と、
    前記画像エッジの位置関係と、前記モデルエッジの位置関係との整合性に基づいて、対応する画像エッジとモデルエッジとの組み合わせを選択する選択手段と、
    前記組み合わせに基づいて、前記対象物体の位置姿勢を推定する推定手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記選択手段は、前記画像エッジの位置関係と、前記撮影画像の視点と略同一の視点に対応する前記モデルエッジの位置関係との整合性に基づいて、対応する画像エッジとモデルエッジとの組み合わせを選択することを特徴とする請求項1に記載の情報処理装置。
  3. 前記判定手段は、前記画像エッジグループに含まれる画像エッジの位置に基づいて前記画像エッジグループ内の画像エッジを順序づけし、
    前記選択手段は、前記画像エッジの順序と、前記モデルエッジの順序とが一致するように、前記組み合わせを選択することを特徴とする請求項1に記載の情報処理装置。
  4. 前記判定手段は、前記画像エッジの奥行き情報に基づいて前記画像エッジグループ内の画像エッジを順序づけすることを特徴とする請求項3に記載の情報処理装置。
  5. 前記判定手段は、視点の異なる複数の撮影画像からそれぞれ検出された画像エッジ上の座標の差に基づいて前記奥行き情報を判定し、当該奥行き情報に基づいて前記画像エッジグループ内の画像エッジを順序づけすることを特徴とする請求項4に記載の情報処理装置。
  6. 前記判定手段は、前記画像エッジと交差する方向の画像エッジの配置順に基づいて画像エッジを順序づけすることを特徴とする請求項3に記載の情報処理装置。
  7. 前記交差する方向は、前記画像エッジと略垂直な方向であることを特徴とする請求項6に記載の情報処理装置。
  8. 前記判定手段は、前記画像エッジの奥行き情報と、前記画像エッジと交差する方向の画像エッジの配置順とに基づいて画像エッジを順序づけすることを特徴とする請求項3に記載の情報処理装置。
  9. 前記抽出手段は、視点の異なる第1の撮影画像及び第2の撮影画像のそれぞれについて画像エッジグループを抽出し、
    前記判定手段は、前記第1の撮影画像及び前記第2の撮影画像のそれぞれについて、前記画像エッジグループに含まれる画像エッジの位置に基づいて前記画像エッジグループ内の画像エッジを順序づけし、
    前記選択手段は、前記第1の撮影画像における前記画像エッジの順序と前記モデルエッジの順序とが一致し、且つ、前記第2の撮影画像における前記画像エッジの順序と前記モデルエッジの順序とが一致するように、前記組み合わせを選択することを特徴とする請求項1に記載の情報処理装置。
  10. ユーザからの操作指示の入力を受け付ける操作入力手段をさらに備え、
    前記抽出手段は、前記操作指示に基づいて、前記複数の近接する画像エッジを前記画像エッジグループとして抽出することを特徴とする請求項1に記載の情報処理装置。
  11. 前記推定手段は、推定された前記対象物体の位置姿勢に基づいて、前記対象物体を把持する把持部が前記対象物体を把持可能な位置姿勢を算出することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 対象物体の三次元モデルを構成するモデルエッジ相互の位置関係を保持する保持手段を備える情報処理装置の制御方法であって、
    前記対象物体が撮影された撮影画像から検出される複数の近接する画像エッジを画像エッジグループとして抽出する抽出工程と、
    前記画像エッジグループに含まれる画像エッジ相互の位置関係を判定する判定工程と、
    前記画像エッジの位置関係と、前記モデルエッジの位置関係との整合性に基づいて、対応する画像エッジとモデルエッジとの組み合わせを選択する選択工程と、
    前記組み合わせに基づいて、前記対象物体の位置姿勢を推定する推定工程と、
    を有することを特徴とする情報処理装置の制御方法。
  13. コンピュータを、請求項1乃至11の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2018107154A 2018-06-04 2018-06-04 情報処理装置、情報処理装置の制御方法およびプログラム Active JP7178803B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018107154A JP7178803B2 (ja) 2018-06-04 2018-06-04 情報処理装置、情報処理装置の制御方法およびプログラム
US16/420,856 US11189053B2 (en) 2018-06-04 2019-05-23 Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018107154A JP7178803B2 (ja) 2018-06-04 2018-06-04 情報処理装置、情報処理装置の制御方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2019211981A true JP2019211981A (ja) 2019-12-12
JP2019211981A5 JP2019211981A5 (ja) 2021-07-26
JP7178803B2 JP7178803B2 (ja) 2022-11-28

Family

ID=68694162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018107154A Active JP7178803B2 (ja) 2018-06-04 2018-06-04 情報処理装置、情報処理装置の制御方法およびプログラム

Country Status (2)

Country Link
US (1) US11189053B2 (ja)
JP (1) JP7178803B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022054497A1 (ja) * 2020-09-08 2022-03-17 パナソニックIpマネジメント株式会社 充填率計測方法、情報処理装置およびプログラム
JP7394347B2 (ja) 2020-02-14 2023-12-08 株式会社Mujin 候補エッジを処理するための方法及び計算システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003939B2 (en) 2018-07-06 2021-05-11 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091202A (ja) * 2015-11-10 2017-05-25 国立大学法人静岡大学 物体認識方法及び物体認識装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5129051A (en) * 1990-03-16 1992-07-07 Hewlett-Packard Company Decomposition of arbitrary polygons into trapezoids
JP4649559B2 (ja) 2009-03-05 2011-03-09 株式会社三次元メディア 3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体
JP6320051B2 (ja) 2014-01-17 2018-05-09 キヤノン株式会社 三次元形状計測装置、三次元形状計測方法
JP6363863B2 (ja) 2014-04-15 2018-07-25 キヤノン株式会社 情報処理装置および情報処理方法
JP6335011B2 (ja) 2014-04-25 2018-05-30 キヤノン株式会社 計測装置およびその方法
JP6420572B2 (ja) 2014-06-13 2018-11-07 キヤノン株式会社 計測装置およびその方法
JP6418884B2 (ja) 2014-10-10 2018-11-07 キヤノン株式会社 三次元計測装置、三次元計測方法及びプログラム
JP6573354B2 (ja) 2014-11-28 2019-09-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10281264B2 (en) 2014-12-01 2019-05-07 Canon Kabushiki Kaisha Three-dimensional measurement apparatus and control method for the same
JP6117853B2 (ja) * 2015-05-13 2017-04-19 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
US10171730B2 (en) 2016-02-15 2019-01-01 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP6740033B2 (ja) 2016-06-28 2020-08-12 キヤノン株式会社 情報処理装置、計測システム、情報処理方法及びプログラム
US10430994B1 (en) * 2016-11-07 2019-10-01 Henry Harlyn Baker Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats
US10572716B2 (en) * 2017-10-20 2020-02-25 Ptc Inc. Processing uncertain content in a computer graphics system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091202A (ja) * 2015-11-10 2017-05-25 国立大学法人静岡大学 物体認識方法及び物体認識装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7394347B2 (ja) 2020-02-14 2023-12-08 株式会社Mujin 候補エッジを処理するための方法及び計算システム
WO2022054497A1 (ja) * 2020-09-08 2022-03-17 パナソニックIpマネジメント株式会社 充填率計測方法、情報処理装置およびプログラム

Also Published As

Publication number Publication date
US11189053B2 (en) 2021-11-30
US20190371001A1 (en) 2019-12-05
JP7178803B2 (ja) 2022-11-28

Similar Documents

Publication Publication Date Title
CN110568447B (zh) 视觉定位的方法、装置及计算机可读介质
US11400598B2 (en) Information processing apparatus, method, and robot system
JP6430064B2 (ja) データを位置合わせする方法及びシステム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
US20150317821A1 (en) Geodesic Distance Based Primitive Segmentation and Fitting for 3D Modeling of Non-Rigid Objects from 2D Images
JP6912215B2 (ja) 対象物の姿勢等を検出する検出方法、検出プログラム
CN110176075B (zh) 通过视觉系统同时考虑图像特征中边缘和法线的系统和方法
JP2014035702A (ja) 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
JP2018091656A (ja) 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
US11189053B2 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JP2016179534A (ja) 情報処理装置、情報処理方法、プログラム
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
CN111598946A (zh) 一种物体位姿测量方法、装置及存储介质
JP6860620B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6817742B2 (ja) 情報処理装置およびその制御方法
CN110832542A (zh) 识别处理设备、识别处理方法和程序
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2015184054A (ja) 同定装置、方法及びプログラム
CN111127556A (zh) 基于3d视觉的目标物体识别和位姿估算方法以及装置
JP2018195070A (ja) 情報処理装置、情報処理方法、及びプログラム
JP5762099B2 (ja) 姿勢認識装置、作業ロボット、姿勢認識方法、プログラム及び記録媒体
KR20230049969A (ko) 글로벌 측위 장치 및 방법
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
CN116921932A (zh) 焊接轨迹识别方法、装置、设备及存储介质
JP2009216480A (ja) 三次元位置姿勢計測方法および装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221115

R151 Written notification of patent or utility model registration

Ref document number: 7178803

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151