JP6889865B2 - テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム - Google Patents

テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム Download PDF

Info

Publication number
JP6889865B2
JP6889865B2 JP2017182517A JP2017182517A JP6889865B2 JP 6889865 B2 JP6889865 B2 JP 6889865B2 JP 2017182517 A JP2017182517 A JP 2017182517A JP 2017182517 A JP2017182517 A JP 2017182517A JP 6889865 B2 JP6889865 B2 JP 6889865B2
Authority
JP
Japan
Prior art keywords
normal vector
reference region
template
unit
normal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017182517A
Other languages
English (en)
Other versions
JP2019057227A (ja
Inventor
嘉典 小西
嘉典 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2017182517A priority Critical patent/JP6889865B2/ja
Priority to CN201810759087.9A priority patent/CN109543705B/zh
Priority to EP18183172.8A priority patent/EP3460715B1/en
Priority to US16/034,450 priority patent/US10776657B2/en
Publication of JP2019057227A publication Critical patent/JP2019057227A/ja
Application granted granted Critical
Publication of JP6889865B2 publication Critical patent/JP6889865B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、テンプレートマッチングによる物体認識で用いられるテンプレートの作成技術に関する。
画像から対象物を認識する方法の一つにテンプレートマッチングと呼ばれる手法がある。テンプレートマッチングの基本処理は、認識対象となる物体のテンプレートを予め用意しておき、入力画像とテンプレートとの間の画像特徴の一致度を評価することで、画像中の物体の位置や姿勢を認識するというものである。テンプレートマッチングによる物体認識は、例えばFA(Factory Automation)における検査やピッキング、ロボットビジョン、監視カメラ等様々な分野で実用化されている。
従来、認識対象が3次元物体であるテンプレートマッチングにおいて、精度の高い認識結果を維持しながら計算量や計算時間の削減を図るために、物体が有する平面や、その法線情報を特徴量として利用することが行われている(例えば、特許文献1)。
また、テンプレートマッチングにおいてエッジ情報を特徴量として利用する際に、エッジ角度である0〜360度の値を45度単位で8分割した8ビットデータに変換した特徴量を使用することで、データ量の縮小及び処理速度の高速化を実現することが知られている(例えば、特許文献2)。
特開2015−079374号公報 特許第5271031号公報
図7に示されるように、従来は、法線情報を特徴量として用いるとき、法線ベクトルをxy2次元空間にマッピングしたベクトルとx軸との角度θを量子化して、法線ベクトルの特徴量を取得していた。例えば、図7の例では、図7(a)に示される単位球上の法線ベクトルを、当該球の中心を通るXY平面を8等分して得た8つのセグメントに対応する基準領域1〜8を有する、図7(b)に示される2次元空間上にマッピングして量子化することで、特徴量を取得していた。例えば、図7(b)の法線ベクトル1bが、図7(a)の法線ベクトル1aに対応し、同様に、法線ベクトル2bが、法線ベクトル2aに対応する。法線ベクトル1bの大きさは、法線ベクトル1aのsinΦに対応する。
ここで、z軸近傍は、基準領域1〜8の境界が集中することとなる。そのため、認識対象物を撮像した画像から抽出された法線ベクトルのうち、画像を取得したカメラのカメラ光軸(z軸)との角度Φが小さい法線ベクトル1aは、ノイズや計測誤差等の多少の影響により、認識対象物本来のあるべき法線ベクトルと異なる法線ベクトルと認識されることで、xy2次元空間にマッピングされるベクトルの属する基準領域が変化しやすく、その結果として、得られる量子化後の特徴量も変化しやすい。このため、テンプレートを登録する際の視点を通る軸と、認識対象物を撮像した入力画像を取得したカメラの光軸とが一致する場合に、カメラ光軸との角度Φが小さい法線ベクトルを有する特徴点において、テンプレートと認識対象物を撮像した入力画像との特徴量が一致しなくなり、認識精度の低下につながる。
そこで、本発明は、カメラ光軸との角度が小さい法線ベクトルのベクトル方向の変化による影響を受けにくいテンプレートを用いることにより認識精度の向上を可能としたテンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラムを提供することを目的とする。
本発明の一態様に係るテンプレート作成装置は、認識対象の物体の3次元形状を表す3次元データを取得する3次元データ取得部と、3次元データに基づいて、前記物体に対して設定された所定の視点から見た前記物体の特徴点における法線ベクトルを算出する法線ベクトル算出部と、算出した法線ベクトルを、視点を通る軸に直交する平面上の基準領域にマッピングすることによって量子化して、量子化法線方向特徴量を取得する法線ベクトル量子化部であって、基準領域は、軸近傍に対応する中心基準領域と、中心基準領域の周囲の基準領域とを含む、法線ベクトル量子化部と、取得した量子化法線方向特徴量に基づいて、テンプレートマッチングによる物体認識で用いられるテンプレートを視点毎に作成するテンプレート作成部と、作成したテンプレートを出力するテンプレート情報出力部とを備える。
この態様によれば、基準領域が軸近傍に対応する中心基準領域を含むことにより、ノイズや計測誤差等の影響で視点を通る軸との角度が小さい法線ベクトルの方向が変化する場合であっても、一定の量子化法線方向特徴量を取得することができる。ノイズや計測誤差等に起因する法線ベクトル方向の変化による影響を受けにくい特徴量を取得することにより、従来技術と比較して、認識精度を向上させることができる。
上記テンプレート作成装置において、周囲の基準領域は、3次元の単位球を均等に分割して得た複数のセグメントに対応する複数の基準領域を含んでもよい。この態様によれば、3次元の単位球を均等に分割して得たセグメントに基準領域を対応させるので、分散する法線ベクトルの特徴量を精度良く把握することができる。
上記テンプレート作成装置において、中心基準領域は、法線ベクトルと軸との角度Φに基づいて設定されてもよい。この態様によれば、ノイズや計測誤差による法線ベクトル方向の変化と角度Φとの関係に基づき、許容し得る所定の中心基準領域を容易に設定することができる。
上記テンプレート作成装置において、中心基準領域は、角度Φを所定の角度とした場合に求められる、sinΦを半径とする円であってもよい。この態様によれば、ノイズや計測誤差による法線ベクトル方向の変化とsinΦとの関係に基づき、許容し得る所定の中心基準領域を容易に設定することができる。
上記テンプレート作成装置において、法線ベクトル量子化部は、量子化対象の法線ベクトルが属する基準領域の周辺の基準領域も許容するように法線ベクトルを量子化してもよい。この態様によれば、ノイズや計測誤差によって、物体認識時に、入力画像中の特徴点の法線ベクトルが、本来想定される基準領域の周辺の基準領域にマッピングされる場合であっても、当該法線ベクトルが一致すると判定して、照合スコアを算出することができる。このような特徴量のロバスト化をテンプレート作成装置側で実装することで、物体認識時の処理負荷を増大させることなく、許容される周辺の基準領域を設定することができる。
本発明の他の態様に係る、上記テンプレート作成装置によって作成されたテンプレートを用いて物体の認識を行う物体認識処理装置は、入力画像を取得する画像取得部と、入力画像において、特徴点の法線ベクトルを算出する法線ベクトル算出部と、算出した法線ベクトルを、入力画像を取得したカメラの光軸に直交する平面上の基準領域にマッピングすることによって量子化して、量子化法線方向特徴量を取得する法線ベクトル量子化部であって、基準領域は、光軸近傍に対応する中心基準領域と、中心基準領域の周囲の基準領域とを含む、法線ベクトル量子化部と、テンプレートと、法線ベクトル量子化部が取得した量子化法線方向特徴量とに基づいて、入力画像における物体の位置を探索して、照合結果を得るテンプレートマッチング部と、照合結果に基づく認識結果を出力する認識結果出力部とを備える。
上記物体認識処理装置において、周囲の基準領域は、3次元の単位球を均等に分割して得た複数のセグメントに対応する複数の基準領域を含んでもよい。
上記物体認識処理装置において、中心基準領域は、法線ベクトルと軸との角度Φに基づいて設定されてもよい。
上記物体認識処理装置において、中心基準領域は、角度Φを所定の角度とした場合に求められる、sinΦを半径とする円であってもよい。
上記物体認識処理装置において、法線ベクトル量子化部は、量子化対象の法線ベクトルが属する基準領域の周辺の基準領域も許容するように法線ベクトルを量子化してもよい。この態様によれば、この態様によれば、ノイズや計測誤差によって、物体認識時に、入力画像中の特徴点の法線ベクトルが、本来想定される基準領域の周辺の基準領域にマッピングされる場合であっても、当該法線ベクトルが一致すると判定して、照合スコアを算出することができる。このような特徴量のロバスト化を物体認識処理装置側で実装することで、物体認識処理装置毎に固有の条件に基づいて、許容される周辺の基準領域を設定することができる。
本発明の他の態様に係る、コンピュータが実行するテンプレート作成方法は、認識対象の物体の3次元形状を表す3次元データを取得するステップと、3次元データに基づいて、物体に対して設定された所定の視点から見た物体の特徴点における法線ベクトルを算出するステップと、算出した法線ベクトルを、視点を通る軸に直交する平面上の基準領域にマッピングすることによって量子化して、量子化法線方向特徴量を取得するステップであって、基準領域は、軸近傍に対応する中心基準領域と、中心基準領域の周囲の基準領域とを含む、ステップと、取得した量子化法線方向特徴量に基づいて、テンプレートマッチングによる物体認識で用いられるテンプレートを視点毎に作成するステップと、作成したテンプレートを出力するステップとを含む。
本発明の他の態様に係るプログラムは、コンピュータに、認識対象の物体の3次元形状を表す3次元データを取得するステップと、3次元データに基づいて、物体に対して設定された所定の視点から見た物体の特徴点における法線ベクトルを算出するステップと、算出した法線ベクトルを、視点を通る軸に直交する平面上の基準領域にマッピングすることによって量子化して、量子化法線方向特徴量を取得するステップであって、基準領域は、軸近傍に対応する中心基準領域と、中心基準領域の周囲の基準領域とを含む、ステップと、取得した量子化法線方向特徴量に基づいて、テンプレートマッチングによる物体認識で用いられるテンプレートを視点毎に作成するステップと、作成したテンプレートを出力するステップとを実行させる。
本発明によれば、カメラ光軸との角度が小さい法線ベクトルのベクトル方向の変化による影響を受けにくいテンプレートを用いることにより認識精度の向上を可能としたテンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラムを提供することができる。
物体認識装置の全体構成を示す図である。 物体認識装置のハードウェア構成を示す図である。 画像処理装置のソフトウェア構成を示す図である。 法線ベクトルの量子化を説明する概念図である。 テンプレート作成装置によって実行されるテンプレート登録処理の流れを示すフローチャートである。 物体認識処理装置によって実行される物体認識処理の流れを示すフローチャートである。 従来の法線ベクトルの量子化を説明する概念図である。
添付図面を参照して、本発明の実施形態について説明する。なお、以下の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。また、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。さらに、当業者であれば、以下に述べる各要素を均等なものに置換した実施形態を採用することが可能であり、係る実施形態も本発明の範囲に含まれる。
(物体認識装置の全体構成)
本発明の所定の実施形態によれば、テンプレートマッチングにおけるテンプレートの登録処理及び物体認識処理等において、認識対象物体に対して設定された所定の視点から見たときの画像の特徴を表すデータであるテンプレートを登録する際の視点を通る軸近傍と、物体認識処理する際の認識対象物体の入力画像を取得するカメラ光軸近傍に属する法線情報を量子化するための領域を含む基準領域に、物体の法線情報をマッピングして、マッピングされた基準領域を識別し得る量子化法線方向特徴量を取得する。これにより、カメラ光軸近傍の法線情報の計測誤差やノイズに対してロバストな量子化法線方向特徴量を取得することができる。ここでは、図1を参照して、本発明の一実施形態に係る物体認識装置の全体構成及び適用場面について説明する。
物体認識装置1は、生産ライン等に設置され、カメラ11から取り込まれた画像を用いてトレイ3内の物体2の認識を行うシステムである。トレイ3には、認識対象の物体2がバラ積みされている。物体認識装置1は、カメラ11から所定の時間間隔で画像を取り込み、画像処理装置10によって画像に含まれる各物体2の位置及び姿勢を認識する処理を実行し、その結果をPLC(プログラマブルロジックコントローラ)4やディスプレイ12等に出力する。物体認識装置1の出力である認識結果は、例えば、ピッキングロボットの制御、加工装置や印字装置の制御、物体2の検査や計測等に利用される。
(ハードウェア構成)
図2を参照して、物体認識装置1のハードウェア構成を説明する。物体認識装置1は、概して、カメラ11と画像処理装置10から構成される。
カメラ11は、物体2のデジタル画像を画像処理装置10に取り込むための撮像デバイスであり、例えばCMOS(Complementary Metal-Oxide-Semiconductor)カメラやCCD(Charge-Coupled Device)カメラを好適に用いることができる。解像度、カラー/モノクロ、静止画像/動画、階調、データ形式等の入力画像の形式は任意であり、物体2の種類やセンシングの目的に合わせて適宜選択することができる。X線画像やサーモ画像等、可視光像以外の特殊な画像を物体認識や検査に利用する場合には、その画像に合わせたカメラを用いてもよい。
画像処理装置10は、ハードウェアプロセッサに相当するCPU110と、ワークメモリとして用いられるメインメモリ112と、固定記憶部であるハードディスク114と、カメラインターフェイス116と、入力インターフェイス118と、表示コントローラ120と、PLCインターフェイス122と、通信インターフェイス124と、データリーダ/ライタ126とを含む。これらの各部は、バス128を介して、互いにデータ通信可能に接続されている。
カメラインターフェイス116は、CPU110とカメラ11との間のデータ伝送を仲介する部分であり、カメラ11からの画像データを一時的に蓄積するための画像バッファ116aを有している。入力インターフェイス118は、CPU110と入力部との間のデータ伝送を仲介する。入力部には、マウス13、キーボード、タッチパネル、ジョグコントローラ等が含まれる。表示コントローラ120は、液晶モニタ等のディスプレイ12に接続され、当該ディスプレイでの表示を制御する。PLCインターフェイス122は、CPU110とPLC4との間のデータ伝送を仲介する。通信インターフェイス124は、CPU110とコンソール、あるいはパーソナルコンピュータやサーバ装置等との間のデータ伝送を仲介する。データリーダ/ライタ126は、CPU110と記録媒体であるメモリカード14との間のデータ伝送を仲介する。各インターフェイスは、ハードウェア構成としては、例えばUSB等のインターフェイスを介してCPU110へと接続される。
画像処理装置10は、汎用的なアーキテクチャを有するコンピュータで構成可能であり、CPU110が、ハードディスク114又はメモリカード14に格納されたプログラムを読み込み、実行することで、各種処理を実行する。このようなプログラムは、メモリカード14や光ディスク等のコンピュータ読取可能な記録媒体に格納された状態か、あるいはインターネット等を通じて提供される。なお、本実施形態に係るプログラムは単体のアプリケーションプログラムとして提供されてもよいし、他のプログラムの一部に組み込まれるモジュールとして提供されてもよい。また、その処理の一部又は全部がASIC等の専用回路で代替されてもよい。
(ソフトウェア構成)
図3に、画像処理装置10のソフトウェア構成を示す。画像処理装置10は、テンプレート作成装置20としての処理部と、物体認識処理装置30としての処理部と、記憶装置40とを備え、CPU110が、ハードディスク114又はメモリカード14に格納されたプログラムを読み込み、実行することで、テンプレート作成装置20、物体認識装置30として動作する。また、記憶装置40はハードディスク114で構成される。
テンプレート作成装置20は、物体認識処理で利用するテンプレートを作成する処理を行う。テンプレート作成装置20によって作成されたテンプレートは、記憶装置40のテンプレートデータベース(DB)401に登録される。物体認識処理装置30は、カメラ11から取り込まれた画像に対しテンプレートDB401に登録されたテンプレートを用いてテンプレートマッチングを実行することで、画像中の物体を認識する処理を行う。
ここで、本明細書に記載のテンプレートは、認識対象の物体2の画像特徴を表すデータである。テンプレートには任意の形式を用いることができ、例えば、画像中の複数の特徴点の特徴量を記述した配列形式を用いることができる。なお、特徴点とは、画像の中の物体の境界、物体の輪郭線の屈折部および屈曲部等、予め定められた特徴を示す画像座標上の位置である。
テンプレート作成装置20は、3次元データ取得部201、距離画像作成部202、法線ベクトル算出部203、法線ベクトル量子化部204、テンプレート作成部205及びテンプレート情報出力部206を備えている。前述したように、CPU110が、ハードディスク114又はメモリカード14に格納されたプログラムを読み込み、実行することで、各部の処理が実現される。
3次元データ取得部201は、認識対象の物体2の3次元形状を表す3次元データを取得する。3次元データ取得部201は、認識対象の物体2を立体図形として認識可能な任意の3次元データを取得することができ、本実施形態では、3次元CADデータを取得するものとする。3次元データ取得部201は、外部の3次元CADサーバ等から3次元CADデータを取得することもできるし、記憶装置40から3次元CADデータを取得することもできる。
距離画像作成部202は、3次元データ取得部201が取得した3次元データを用いて、物体2に対して設定された所定の視点から見た物体2の距離画像を作成する。3次元での物体認識では、同一の物体であっても視点によって見え方が異なる場合があり、距離画像作成部202は、認識対象の物体2の特性に応じて、任意の数の視点から見た物体2の距離画像を作成する。
法線ベクトル算出部203は、3次元データ取得部201が取得した3次元データ又は距離画像作成部202が作成した各視点の距離画像に基づいて、物体2に対して設定された所定の視点から見た物体2の特徴点の法線ベクトルを算出する。法線ベクトル算出部203は、特徴点の3次元データと、特徴点の周辺の点の3次元データとにより平面を定義し、定義した平面の法線ベクトルを算出する。なお、特徴点の検出及び法線ベクトルの算出については公知の任意の手法を利用できるため、本明細書では詳しい説明を省略する。
法線ベクトル量子化部204は、法線ベクトル算出部203が算出した法線ベクトルを量子化する。本実施形態では、法線ベクトル量子化部204は、単位球上の法線ベクトルを、図4(b)に示すようなxy軸からなる2次元空間上の基準領域にマッピングすることで、法線ベクトルの方向を量子化して、量子化法線方向特徴量を取得する。ここで、図4(a)の角度Φは、法線ベクトルAとz軸との角度である。
図4(b)の基準領域1〜8は、図4(a)の単位球の中心を通るXY平面を8等分して得た8つのセグメントに対応する。さらに、本実施形態では、法線ベクトルAとz軸との角度Φに基づいて、カメラ光軸近傍に中心基準領域9を設ける。すなわち、基準領域は、中心基準領域9と、z軸を中心として放射状に等間隔で延びる線分により形成される、周囲の基準領域1〜8とを含む。本実施形態では、角度Φを10度とした場合に求められる、sinΦを半径rとする円を中心基準領域9として設定する。図4(b)に示されるように、各基準領域には、基準領域を識別する識別番号が振られており、法線ベクトル量子化部204は、基準領域1〜9に対応する9ビットのうち、法線ベクトルが属する基準領域に対応するビットが立っている特徴量を取得する。
なお、本実施形態では、角度Φを10度として中心基準領域9を設定するが、角度Φは、例えば5度や15度等、ノイズや計測誤差に応じて、許容し得る任意の値を設定することができる。また、本実施形態では、単位球の中心を通るXY平面を8等分しているが、単位球の中心を通るXY平面を12等分して得た基準領域に、さらに角度Φに基づく中心基準領域13を設ける等、任意の数の基準領域を設けることができる。このように、単位球の中心を通るXY平面を12等分して得た基準領域に、さらに中心基準領域を設けた13ビットの特徴量を使用することで、同様に2バイトのメモリを要する、9ビットの特徴量を使用する場合と比較して、量子化により失われる情報量を少なくすることができる。
図4(b)に示されるように、法線ベクトル量子化部204は、特徴点1の法線ベクトル1を量子化して、量子化法線方向特徴量(010000000)を取得する。同様に、法線ベクトル量子化部204は、特徴点2の法線ベクトル2を量子化して、量子化法線方向特徴量(000000100)を取得する。同様に、法線ベクトル量子化部204は、特徴点3の法線ベクトル3を量子化して、量子化法線方向特徴量(000000001)を取得する。
法線ベクトル量子化部204は、一実施形態では、量子化対象の法線ベクトルが属する基準領域の周辺の基準領域も許容するように、法線ベクトルを量子化することができる。例えば、法線ベクトル量子化部204は、法線ベクトルが属する基準領域だけでなく、他の基準領域と比較して最も近い他の1つの基準領域も許容するように量子化することができる。
許容する基準領域を広くするほど特徴量のロバスト化が図れる一方、許容する基準領域を広くしすぎると、誤認識による認識精度の低下につながる。したがって、特徴量のロバスト化及び誤認識のトレードオフを考慮して、許容する基準領域を設定することが望ましい。
テンプレート作成部205は、法線ベクトル量子化部204が取得した量子化法線方向特徴量に基づいて、視点毎にテンプレートを作成する。なお、テンプレートには、量子化法線方向特徴量以外の他の任意の数の特徴量を含めることができる。
テンプレート情報出力部206は、テンプレート作成部205が作成したテンプレートを記憶装置のテンプレートDB401に登録する。
物体認識処理装置30は、画像取得部301、法線ベクトル算出部302、法線ベクトル量子化部303、テンプレートマッチング部304及び認識結果出力部305を備えている。前述したように、CPU110が、ハードディスク114又はメモリカード14に格納されたプログラムを読み込み、実行することで、各部の処理が実現される。
画像取得部301は、カメラ11から入力画像を取得する。入力画像は、距離画像等、法線ベクトルを算出し得る任意のデータとすることができる。
法線ベクトル算出部302は、画像取得部301が取得した入力画像において、特徴点の法線ベクトルを算出する。
法線ベクトル量子化部303は、法線ベクトル算出部302が算出した法線ベクトルを量子化する。法線ベクトル量子化部303は、テンプレート作成時に法線ベクトル量子化部204が用いた基準領域を利用して、法線ベクトルを量子化して量子化法線方向特徴量を取得する。本実施形態では、単位球の中心を通るXY平面を8等分して得た基準領域に、さらに法線ベクトルとz軸との角度Φに基づく中心基準領域9を設けた、9つの基準領域が利用される。
法線ベクトル量子化部303は、法線ベクトル量子化部204と同様に、一実施形態では、量子化対象の法線ベクトルが属する基準領域の周辺の基準領域も許容するように、法線ベクトルを量子化することができる。周辺の基準領域を許容するように法線ベクトルを量子化する特徴量のロバスト化は、テンプレート作成時、又は物体認識時のいずれか任意のタイミングで実装することができる。
テンプレートマッチング部304は、テンプレートDB401に登録されているテンプレートと、法線ベクトル量子化部303が取得した量子化法線方向特徴量とに基づいて、入力画像において物体2の位置を探索して、1又は複数の照合結果を得る。すなわち、テンプレートマッチング部304は、テンプレートDB401に登録されているテンプレートの数分だけ、探索処理を行う。本実施形態では、テンプレートDBにおいて登録されている全てのテンプレートについて、入力画像中に認識された物体2の座標、及び当該座標ごとに入力画像とテンプレートとの間の画像特徴の一致度を示す照合スコアを照合結果として得る。
認識結果出力部305は、テンプレートマッチング部304が得た1又は複数の照合結果に基づいて、最終的な認識結果を出力する。複数の照合結果が得られる場合、本実施形態では、認識結果出力部305は、同一の座標に対する異なる照合結果について、最も高い照合スコアを有するテンプレートが当該座標上に認識されたと決定して、認識結果を出力する。
記憶装置40は、テンプレートDB401を備えている。テンプレートDB401には、各視点のテンプレートが格納されている。
(テンプレート登録処理)
次に、図5のフローチャートに沿って、テンプレート作成装置20によって実行されるテンプレート登録処理について説明する。なお、図5に示すテンプレート登録処理は、画像処理装置10を新たに設置した際や、認識対象の物体2が変更になった際に実行される。
ステップS501において、テンプレート作成装置20の3次元データ取得部201は、認識対象の物体2の3次元データを取得する。例えば、本実施形態では、3次元データ取得部201は、外部の3次元CADサーバから3次元CADデータを取得する。
次に、ステップS502において、テンプレート作成装置20の距離画像作成部202は、3次元データ取得部201が取得した3次元データを用いて、物体に対して設定された所定の視点から見た物体の距離画像を作成する。本実施形態では、距離画像作成部202は、物体2を中心とする仮想的な1280面体における642個の頂点に視点を配置し、各視点から見た物体の距離画像を作成したものとする。
続いて、S503において、テンプレート作成装置20の法線ベクトル算出部203は、距離画像作成部202が作成した各視点の距離画像に基づいて、物体に対して設定された所定の視点から見た物体2の特徴点の法線ベクトルを算出する。本実施形態では、法線ベクトル算出部203は、距離画像作成部202が作成した642個の視点の各距離画像に基づいて、特定の視点から見た物体2の特徴点の法線ベクトルを算出する。前述したように、代替の実施形態では、3次元データ取得部201が取得した3次元データに基づいて、特定の視点から見た物体2の特徴点の法線ベクトルを算出してもよい。
S504において、法線ベクトル量子化部204は、法線ベクトル算出部203が算出した法線ベクトルを量子化する。本実施形態では、法線ベクトル量子化部204は、単位球上の法線ベクトルを、図4(b)に示すようなxy軸からなる2次元空間上の基準領域にマッピングすることで、法線ベクトルの方向を量子化して、量子化法線方向特徴量を取得する。ここで、図4(a)の角度Φは、法線ベクトルAとz軸との角度である。本実施形態では、単位球の中心を通るXY平面を8等分して得た基準領域に、さらに角度Φを10度とした場合のsinΦを半径rとする中心基準領域9を設けた、9つの基準領域が利用される。すなわち、基準領域は、中心基準領域9と、z軸を中心として放射状に等間隔で延びる線分により形成される、周囲の基準領域1〜8とを含む。
その後、S505において、テンプレート作成装置20のテンプレート作成部205は、法線ベクトル量子化部204が取得した量子化法線方向特徴量に基づいて、視点毎にテンプレートを作成する。本実施形態では、距離画像を作成した642個の視点のうちの視点毎に、テンプレート作成部205はテンプレートを作成する。
最後に、S507において、テンプレート作成装置20のテンプレート情報出力部206は、テンプレート作成部205が作成したテンプレートを記憶装置のテンプレートDB401に登録する。本実施形態では、テンプレート作成部205は、視点毎に、S504で取得した複数の特徴点の量子化法線方向特徴量を記述した配列形式のデータを、テンプレートDB401に登録する。
(物体認識処理)
次に、図6のフローチャートに沿って、物体認識処理装置30によって実行される物体認識処理について説明する。
ステップS601において、物体認識処理装置30の画像取得部301は、カメラ11から入力画像を取得する。次に、ステップS602において、物体認識処理装置30の法線ベクトル算出部302は、画像取得部301が取得した入力画像において、特徴点の法線ベクトルを算出する。
続いて、S603において、物体認識処理装置30の法線ベクトル量子化部303は、法線ベクトル算出部302が算出した法線ベクトルを量子化する。法線ベクトル量子化部303は、テンプレート作成時にS504で法線ベクトル量子化部204が用いた基準領域を利用して、法線ベクトルを量子化して量子化法線方向特徴量を取得する。本実施形態では、法線ベクトル量子化部303は、単位球の中心を通るXY平面を8等分して得た基準領域に、さらに法線ベクトルとz軸との角度Φに基づく中心基準領域9を設けた、9つの基準領域を利用する。
その後、ステップS604において、物体認識処理装置30のテンプレートマッチング部304は、テンプレートDB401に登録されているテンプレートと、法線ベクトル量子化部303が取得した量子化法線方向特徴量とに基づいて、入力画像において物体2の位置を探索して、1又は複数の照合結果を得る。すなわち、テンプレートマッチング部304は、テンプレートDB401に登録されているテンプレートの数分だけ、探索処理を行う。本実施形態では、テンプレートDBにおいて登録されている642個のテンプレートについて、入力画像中に認識された物体2の座標、及び当該座標ごとに入力画像とテンプレートとの間の画像特徴の一致度を示す照合スコアを照合結果として得る。
最後に、ステップS605において、物体認識処理装置30の認識結果出力部305は、テンプレートマッチング部304が得た1又は複数の照合結果を統合して、最終的な認識結果を出力する。本実施形態では、642個のテンプレートから得た642個の照合結果について、同一の座標に異なる照合結果が出力される場合、認識結果出力部305は、最も高い照合スコアを有するテンプレートが当該座標上に認識されたと決定して、認識結果を出力する。
(追加の実施形態)
追加の実施形態では、テンプレート作成装置20の法線ベクトル量子化部204は、S504において、量子化対象の法線ベクトルが属する基準領域の周辺の基準領域も許容するように、法線ベクトルを量子化する。例えば、法線ベクトル量子化部204は、図4(b)の法線ベクトル1に対して、法線ベクトル1が属する基準領域2だけでなく、他の基準領域と比較して、法線ベクトル1の終点から基準領域までの最短距離が最も短い基準領域3も許容するように量子化して、量子化法線方向特徴量(011000000)を取得することができる。同様に、法線ベクトル量子化部204は、法線ベクトル2を量子化して、量子化法線方向特徴量(000001100)を取得し、法線ベクトル3を量子化して、量子化法線方向特徴量(100000001)を取得することができる。
このようにすることで、ノイズや計測誤差によって、物体認識時のS603で、入力画像中の特徴点1の法線ベクトル1に対応する特徴量として(001000000)が取得される場合であっても、S604において、テンプレートマッチング部304は、法線ベクトル1が一致すると判定して、照合スコアを算出することができる。
本実施形態では、法線ベクトル量子化部204が、法線ベクトルが属する基準領域だけでなく、他の基準領域と比較して最も近い他の1つの基準領域も許容するように量子化する例について説明したが、代替の実施形態では、他の基準領域と比較して最も近い上位2つの他の基準領域も許容するように量子化してもよい。また、法線ベクトル量子化部204は、すべての法線ベクトルに対して一律に他の基準領域を許容するように量子化するのではなく、法線ベクトルの終点から他の基準領域までの最短距離が所定の閾値以下となる場合等、所定の条件を満たした場合にのみ、他の基準領域を許容するように量子化してもよい。
さらに、本実施形態では、テンプレート作成装置20の法線ベクトル量子化部204が特徴量のロバスト化を実装する例について説明したが、代替の実施形態では、テンプレート作成装置20の法線ベクトル量子化部204に代えて、物体認識処理装置30の法線ベクトル量子化部303が特徴量のロバスト化を実装してもよい。特徴量のロバスト化をテンプレート作成装置側で実装することで、物体認識時の処理負荷を増大させることなく、許容される周辺の基準領域を設定することができる。一方、特徴量のロバスト化を物体認識処理装置側で実装することで、物体認識処理装置毎に固有の条件に基づいて、許容される周辺の基準領域を設定することができる。なお、テンプレート作成時、又は物体認識時のいずれか任意のタイミングで実装することにより、特徴量のロバスト化を達成することができるが、本発明は、テンプレート作成時、及び物体認識時の両方で特徴量のロバスト化を実装することを妨げるものではない。
本明細書において説明した各処理を実施するプログラムは、記録媒体に記憶させてもよい。この記録媒体を用いれば、画像処理装置10に、上記プログラムをインストールすることができる。ここで、上記プログラムを記憶した記録媒体は、非一過性の記録媒体であっても良い。非一過性の記録媒体は特に限定されないが、例えば、CD−ROM等の記録媒体であっても良い。
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
少なくとも1つのメモリと、前記メモリと接続された少なくとも1つのハードウェアプロセッサとを備え、
前記ハードウェアプロセッサが、
認識対象の物体の3次元形状を表す3次元データを取得し、
前記3次元データに基づいて、前記物体に対して設定された所定の視点から見た前記物体の特徴点における法線ベクトルを算出し、
前記算出した法線ベクトルを、前記視点を通る軸に直交する平面上の基準領域にマッピングすることによって量子化して、量子化法線方向特徴量を取得し、前記基準領域は、前記軸近傍に対応する中心基準領域と、前記中心基準領域の周囲の基準領域とを含み、
前記取得した量子化法線方向特徴量に基づいて、テンプレートマッチングによる物体認識で用いられるテンプレートを視点毎に作成し、
前記作成したテンプレートを出力する、
テンプレート作成装置。
(付記2)
少なくとも1つ以上のハードウェアプロセッサによって、認識対象の物体の3次元形状を表す3次元データを取得し、
前記ハードウェアプロセッサによって、前記3次元データに基づいて、前記物体に対して設定された所定の視点から見た前記物体の特徴点における法線ベクトルを算出し、
前記ハードウェアプロセッサによって、前記算出した法線ベクトルを、前記視点を通る軸に直交する平面上の基準領域にマッピングすることによって量子化して、量子化法線方向特徴量を取得し、前記基準領域は、前記軸近傍に対応する中心基準領域と、前記中心基準領域の周囲の基準領域とを含み、
前記ハードウェアプロセッサによって、前記取得した量子化法線方向特徴量に基づいて、テンプレートマッチングによる物体認識で用いられるテンプレートを視点毎に作成し、
前記ハードウェアプロセッサによって、前記作成したテンプレートを出力する、
テンプレート作成方法。
1…物体認識装置、2…物体、3…トレイ、4…PLC、10…画像処理装置、11…カメラ、12…ディスプレイ、13…マウス、14…メモリカード、112…メインメモリ、114…ハードディスク、116…カメラインターフェイス、116a…画像バッファ、118…入力インターフェイス、120…表示コントローラ、122…インターフェイス、124…通信インターフェイス、126…ライタ、128…バス、20…テンプレート作成装置、201…3次元データ取得部、202…距離画像作成部、203…法線ベクトル算出部、204…法線ベクトル量子化部、205…テンプレート作成部、206…テンプレート情報出力部、30…物体認識処理装置、301…画像取得部、302…法線ベクトル算出部、303…法線ベクトル量子化部、304…テンプレートマッチング部、305…認識結果出力部、40…記憶装置、401…テンプレートDB

Claims (12)

  1. 認識対象の物体の3次元形状を表す3次元データを取得する3次元データ取得部と、
    前記3次元データに基づいて、前記物体に対して設定された所定の視点から見た前記物体の特徴点における法線ベクトルを算出する法線ベクトル算出部と、
    前記算出した法線ベクトルを、前記視点を通る軸に直交する平面上の基準領域にマッピングすることによって量子化して、量子化法線方向特徴量を取得する法線ベクトル量子化部であって、前記基準領域は、前記軸近傍に対応する中心基準領域と、前記中心基準領域の周囲の基準領域とを含む、法線ベクトル量子化部と、
    前記取得した量子化法線方向特徴量に基づいて、テンプレートマッチングによる物体認識で用いられるテンプレートを視点毎に作成するテンプレート作成部と、
    前記作成したテンプレートを出力するテンプレート情報出力部と
    を備えたテンプレート作成装置。
  2. 前記周囲の基準領域は、3次元の単位球を均等に分割して得た複数のセグメントに対応する複数の基準領域を含む、請求項1に記載のテンプレート作成装置。
  3. 前記中心基準領域は、法線ベクトルと前記軸との角度Φに基づいて設定される、請求項1に記載のテンプレート作成装置。
  4. 前記中心基準領域は、前記角度Φを所定の角度とした場合に求められる、sinΦを半径とする円である、請求項3に記載のテンプレート作成装置。
  5. 前記法線ベクトル量子化部は、量子化対象の法線ベクトルが属する基準領域の周辺の基準領域も許容するように前記法線ベクトルを量子化する、請求項1に記載のテンプレート作成装置。
  6. テンプレートを用いて物体の認識を行う物体認識処理装置であって、
    入力画像を取得する画像取得部と、
    前記入力画像において、特徴点の法線ベクトルを算出する法線ベクトル算出部と、
    前記算出した法線ベクトルを、前記入力画像を取得したカメラの光軸に直交する平面上の基準領域にマッピングすることによって量子化して、量子化法線方向特徴量を取得する法線ベクトル量子化部であって、前記基準領域は、前記光軸近傍に対応する中心基準領域と、前記中心基準領域の周囲の基準領域とを含む、法線ベクトル量子化部と、
    前記テンプレートと、前記法線ベクトル量子化部が取得した量子化法線方向特徴量とに基づいて、前記入力画像における前記物体の位置を探索して、照合結果を得るテンプレートマッチング部と、
    前記照合結果に基づく認識結果を出力する認識結果出力部と
    を備えた物体認識処理装置。
  7. 前記周囲の基準領域は、前記周囲の基準領域は、3次元の単位球を均等に分割して得た複数のセグメントに対応する複数の基準領域を含む、請求項6に記載の物体認識処理装置。
  8. 前記中心基準領域は、法線ベクトルと前記光軸との角度Φに基づいて設定される、請求項6に記載の物体認識処理装置。
  9. 前記中心基準領域は、前記角度Φを所定の角度とした場合に求められる、sinΦを半径とする円である、請求項8に記載の物体認識処理装置。
  10. 前記法線ベクトル量子化部は、量子化対象の法線ベクトルが属する基準領域の周辺の基準領域も許容するように前記法線ベクトルを量子化する、請求項6に記載の物体認識処理装置。
  11. コンピュータが実行するテンプレート作成方法であって、
    認識対象の物体の3次元形状を表す3次元データを取得するステップと、
    前記3次元データに基づいて、前記物体に対して設定された所定の視点から見た前記物体の特徴点における法線ベクトルを算出するステップと、
    前記算出した法線ベクトルを、前記視点を通る軸に直交する平面上の基準領域にマッピングすることによって量子化して、量子化法線方向特徴量を取得するステップであって、前記基準領域は、前記軸近傍に対応する中心基準領域と、前記中心基準領域の周囲の基準領域とを含む、ステップと、
    前記取得した量子化法線方向特徴量に基づいて、テンプレートマッチングによる物体認識で用いられるテンプレートを視点毎に作成するステップと、
    前記作成したテンプレートを出力するステップと
    を含むテンプレート作成方法。
  12. コンピュータに、
    認識対象の物体の3次元形状を表す3次元データを取得するステップと、
    前記3次元データに基づいて、前記物体に対して設定された所定の視点から見た前記物体の特徴点における法線ベクトルを算出するステップと、
    前記算出した法線ベクトルを、前記視点を通る軸に直交する平面上の基準領域にマッピングすることによって量子化して、量子化法線方向特徴量を取得するステップであって、前記基準領域は、前記軸近傍に対応する中心基準領域と、前記中心基準領域の周囲の基準領域とを含む、ステップと、
    前記取得した量子化法線方向特徴量に基づいて、テンプレートマッチングによる物体認識で用いられるテンプレートを視点毎に作成するステップと、
    前記作成したテンプレートを出力するステップと
    を実行させるプログラム。
JP2017182517A 2017-09-22 2017-09-22 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム Active JP6889865B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017182517A JP6889865B2 (ja) 2017-09-22 2017-09-22 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
CN201810759087.9A CN109543705B (zh) 2017-09-22 2018-07-11 模板创建装置及方法、物体识别处理装置以及记录介质
EP18183172.8A EP3460715B1 (en) 2017-09-22 2018-07-12 Template creation apparatus, object recognition processing apparatus, template creation method, and program
US16/034,450 US10776657B2 (en) 2017-09-22 2018-07-13 Template creation apparatus, object recognition processing apparatus, template creation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017182517A JP6889865B2 (ja) 2017-09-22 2017-09-22 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019057227A JP2019057227A (ja) 2019-04-11
JP6889865B2 true JP6889865B2 (ja) 2021-06-18

Family

ID=62948018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017182517A Active JP6889865B2 (ja) 2017-09-22 2017-09-22 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム

Country Status (4)

Country Link
US (1) US10776657B2 (ja)
EP (1) EP3460715B1 (ja)
JP (1) JP6889865B2 (ja)
CN (1) CN109543705B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6968342B2 (ja) * 2017-12-25 2021-11-17 オムロン株式会社 物体認識処理装置、物体認識処理方法及びプログラム
CN110472538B (zh) * 2019-07-31 2023-06-06 河南冠图信息科技有限公司 一种电子图纸的图像识别方法、存储介质
US11023770B2 (en) 2019-09-23 2021-06-01 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Systems and methods for obtaining templates for tessellated images
WO2021210513A1 (ja) * 2020-04-13 2021-10-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
CN112033307B (zh) * 2020-07-15 2021-08-03 成都飞机工业(集团)有限责任公司 一种法矢测量装置
CN112101448B (zh) * 2020-09-10 2021-09-21 敬科(深圳)机器人科技有限公司 一种屏幕图像识别方法、设备、系统和可读存储介质
CN112179353B (zh) * 2020-09-30 2023-07-18 深圳银星智能集团股份有限公司 自移动机器人的定位方法、装置、机器人及可读存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5271031B2 (ja) 2008-08-09 2013-08-21 株式会社キーエンス 画像のデータ圧縮方法、画像処理におけるパターンモデルの位置決め方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
JP5254893B2 (ja) * 2009-06-26 2013-08-07 キヤノン株式会社 画像変換方法及び装置並びにパターン識別方法及び装置
US8774510B2 (en) * 2012-09-11 2014-07-08 Sharp Laboratories Of America, Inc. Template matching with histogram of gradient orientations
CN104021569B (zh) * 2013-02-28 2018-03-20 杭州海康威视数字技术股份有限公司 人体目标锁定跟踪装置和方法
JP2015079374A (ja) 2013-10-17 2015-04-23 セイコーエプソン株式会社 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット
JP6104198B2 (ja) * 2014-03-11 2017-03-29 三菱電機株式会社 物体認識装置
EP3118813B1 (en) * 2014-03-14 2021-06-02 Omron Corporation Image recognition device, image sensor, and image recognition method
CN106716450B (zh) * 2014-05-06 2020-05-19 河谷控股Ip有限责任公司 利用边缘向量的基于图像的特征检测
JP6369131B2 (ja) * 2014-05-27 2018-08-08 村田機械株式会社 物体認識装置及び物体認識方法
JP6554900B2 (ja) * 2015-04-28 2019-08-07 オムロン株式会社 テンプレート作成装置及びテンプレート作成方法
CA2983880A1 (en) * 2015-05-05 2016-11-10 Kyndi, Inc. Quanton representation for emulating quantum-like computation on classical processors
CN105574063B (zh) * 2015-08-24 2019-02-22 西安电子科技大学 基于视觉显著性的图像检索方法
JP6968342B2 (ja) * 2017-12-25 2021-11-17 オムロン株式会社 物体認識処理装置、物体認識処理方法及びプログラム

Also Published As

Publication number Publication date
EP3460715B1 (en) 2023-08-23
US20190095749A1 (en) 2019-03-28
JP2019057227A (ja) 2019-04-11
US10776657B2 (en) 2020-09-15
EP3460715A1 (en) 2019-03-27
CN109543705A (zh) 2019-03-29
CN109543705B (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
JP6889865B2 (ja) テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
CN110411441B (zh) 用于多模态映射和定位的系统和方法
CN108573471B (zh) 图像处理装置、图像处理方法以及记录介质
US9111177B2 (en) Position/orientation measurement apparatus, processing method therefor, and non-transitory computer-readable storage medium
US10515291B2 (en) Template creation device and template creation method
US10366307B2 (en) Coarse-to-fine search method, image processing device and recording medium
US10803615B2 (en) Object recognition processing apparatus, object recognition processing method, and program
US11654571B2 (en) Three-dimensional data generation device and robot control system
KR20160003776A (ko) 자세 추정 방법 및 로봇
WO2011115143A1 (en) Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus
US10810761B2 (en) Position and orientation estimation apparatus, position and orientation estimation method, and program
WO2008032375A1 (fr) Dispositif et procédé de correction d'image, et programme informatique
JP6118976B2 (ja) 頭部姿勢の推定装置、頭部姿勢の推定方法およびコンピュータに頭部姿勢の推定方法を実行させるためのプログラム
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
US9158956B2 (en) Reader, reading method and computer program product
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP6218237B2 (ja) 撮影画像を平行化する画像変換プログラム、装置及び方法
JP6586852B2 (ja) 画像処理装置
JP2021042978A (ja) 計測装置および計測方法
JP2018055173A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210506

R150 Certificate of patent or registration of utility model

Ref document number: 6889865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250