JP6348093B2 - 入力データから検出対象物の像を検出する画像処理装置および方法 - Google Patents

入力データから検出対象物の像を検出する画像処理装置および方法 Download PDF

Info

Publication number
JP6348093B2
JP6348093B2 JP2015218357A JP2015218357A JP6348093B2 JP 6348093 B2 JP6348093 B2 JP 6348093B2 JP 2015218357 A JP2015218357 A JP 2015218357A JP 2015218357 A JP2015218357 A JP 2015218357A JP 6348093 B2 JP6348093 B2 JP 6348093B2
Authority
JP
Japan
Prior art keywords
feature point
image
point
feature
model pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015218357A
Other languages
English (en)
Other versions
JP2017091079A (ja
JP2017091079A5 (ja
Inventor
勇太 並木
勇太 並木
文和 藁科
文和 藁科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2015218357A priority Critical patent/JP6348093B2/ja
Priority to DE102016013274.4A priority patent/DE102016013274A1/de
Priority to CN201610959441.3A priority patent/CN106682673B/zh
Priority to US15/343,215 priority patent/US11227144B2/en
Publication of JP2017091079A publication Critical patent/JP2017091079A/ja
Publication of JP2017091079A5 publication Critical patent/JP2017091079A5/ja
Application granted granted Critical
Publication of JP6348093B2 publication Critical patent/JP6348093B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects

Description

本発明は、対象物の像を構成する特徴点をモデルパターンとし、そのモデルパターンと入力データから抽出した特徴点の一致度を評価することで、画像に写っている対象物の像の位置を検出する装置に関する。
画像処理装置を用いて視覚センサで撮像した入力データの中から特定の対象物の像を検出する場合、対象物を表す基準情報(一般に、モデルパターン、テンプレートなどと称される)と視覚センサで撮像した入力データの間で特徴点のマッチングを行い、一致度が所定のレベルを越えたときに対象物の検出に成功したと判断することが一般的である。
たとえば、視覚センサがカメラであり、入力データが濃淡画像である場合に、このようなマッチングの際に用いられる特徴点の一つとしてエッジ点がある。エッジ点は画像上での輝度変化が大きな点である。一般に対象物の像の輪郭部分は輝度変化が大きくなるので、対象物の輪郭線形状を表す特徴点としてエッジ点を利用することが多い。検出すべき対象物を含む画像から抽出したエッジ点群をモデルパターンとして記憶しておき、視覚センサによって撮像された画像から抽出されたエッジ点群とモデルパターンのエッジ点群の一致度に基づいて対象物を検出する。たとえば、この類の手法として一般化ハフ変換などが知られている。
ところで、画像に映る対象物の像の輪郭線の形状にはばらつきがある。これには例えば以下のような原因がある。
・対象物の形状の個体差
・大きな視差
ここでいう視差とは、対象物が立体的だったり対象物の稜線の角が丸かったりした場合に、対象物と視覚センサの相対位置が変わることにより、画像に映る輪郭線の位置関係にズレが生じることを指す。
対象物の輪郭線にこのようなばらつきがあっても、対象物が正しく検出できることが望ましい。しかし、実際には、モデルパターンの教示に使った対象物の個体またはその画像自体がばらつきにより偏差したものである場合もあり、マッチングに最適なものであったとは言えないことも多い。そのような場合には、期待通りの検出ができないことになる。たとえば、ある種類のばらつきであればかなり大きくばらついていても検出ができるが、別の種類のばらつきに対しては少しでも違うと検出できない、ということが起こりうる。そこで、上記の手法を適用する上で、発生しうるばらつきに応じた最適なモデルパターンを作成することが求められる。
特許文献1では、入力画像からモデルとマッチする対象物を検出する際に、マッチングのスコアに対するモデルの各特徴量の貢献度を累積していく。その貢献度に基づいて必要ない特徴量を削除する方法が開示されている。特許文献1に開示されている方法は、実際の検出時のマッチングの情報からモデルを修正する方法ではあるが、検出対象物の形状の個体差が大きい部分は貢献度が低くなって、その部分のモデル特徴量が不必要に削除されてしまう恐れがある。また、この方法では、モデルパターンの形状を、マッチングに最適なものに修正することはできない。
特許文献2では、モデル画像に対して回転、拡大・縮小、変形、照明の変化、画像ノイズなど種々の変動を加えて、複数の変動画像を生成する方法が開示されている。その変動画像からパターンの特徴量を抽出し、特徴量の分布を生成する。その分布を利用して、よりロバストなモデルを生成することができる。
特許文献2に記載の方法では人工的な方法で変動を加えており、実際の検出対象物の個体差や環境に起因するばらつきをモデルに反映させることはできない。
特許文献3では、同じ対象物を同じ視点から複数回撮像し、複数の画像のそれぞれについて検出を行って、検出した輪郭線の平均位置を算出することで、検出位置精度を高精度化する方法が開示されている。この方法は同じ対象物の計測誤差の影響を軽減するためのものであり、複数の検出対象物のばらつきの影響を軽減することはできない。
特許文献4では、学習用画像から初期基準パターンとマッチする領域を部分画像として切り出し、切り出した複数の部分画像を画素値単位で平均化することにより、新たな基準パターンを生成する方法が開示されている。画素単位で平均化することでノイズに起因するばらつきは除去できる。しかし、この方法では、個体差や視差の影響によりエッジの位置のばらつきがある場合に、平均化した画像での輝度勾配が小さくなり、エッジが正確に抽出できない恐れがある。
特許第5080416号公報 特開2015−7972号公報 特許第4843415号公報 特開平7−37085号公報
「コンピュータビジョン」(共立出版)2007.1 "Object Recognition from Local Scale-Invariant Features", David G. Lowe, Proc. of the International Conference on Computer Vision, Corfu (Sept. 1999) "Generalizing the Hough Transform to Detect Arbitrary Shapes", D. H. Ballard, Pattern Recognition Vol. 13, No. 2, pp. 111-122, 1981 "Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography", Martin A. Fischler, et al., Communications of the Association for Computing Machinery Vol. 24 No. 6 Pages 381-395, June 1981 "A method for Registration for 3-D Shapes", Paul J. Best, et al., IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 14, No. 2, February 1992 "Estimating Surface Normals in Noisy Point Cloud Data", Niloy J. Mitra, et al., SCG'03 Proceedings of nineteenth annual symposium on Computational geometry, pages 322-328, 2003 "Unique Signatures of Histograms for Local Surface Description", Federico Tombari, et al., Computer Vision, ECCV 2010, Part III. LNCS 6313, pp. 356-369, 2010 "Object recognition in 3D scenes with occlusions and clutter by Hough voting", Federico Tombari, et al., IEEE 2010 Fourth Pacific-Rim Symposium on Image and Video Technology
本発明は、画像に写った対象物の像の輪郭線の形状にばらつきがあったとしても正しく検出できるようにすることを目的とする。
本願発明は、対象物の形状を表す複数の第1の特徴点の集合であるモデルパターンに基づいて、視覚センサで撮像した入力データ中に前記対象物の像を検出する画像処理装置であって、対象物が撮像された一乃至複数の入力データのそれぞれについて、該入力データから抽出した複数の第2の特徴点と、前記モデルパターンを構成する複数の第1の特徴点とのマッチングを行って前記対象物の一乃至複数の像を検出する対象物検出部と、前記一乃至複数の入力データから検出した一乃至複数の対象物の像のそれぞれについて、該像を構成する複数の第2の特徴点から前記モデルパターンを構成する前記複数の第1の特徴点に対応する第2の特徴点を選択し、該第2の特徴点を対応点として該第1の特徴点に関連付けて記憶する対応点選択部と、前記モデルパターンを構成する複数の第1の特徴点のそれぞれについて、該第1の特徴点に関連づけられた前記複数の対応点の所定の物理量の統計量を算出し、算出した前記所定の物理量の統計量に基づいて該第1の特徴点を修正するモデルパターン修正部と、を備えることを特徴とする画像処理装置である。
本願発明によれば、対象物の特徴点の物理量にばらつきがあっても、対象物が正しく検出できる。
視覚センサ制御装置に設けられる画像処理装置の構成を示すブロック図である。 実施形態の画像処理装置を有する視覚センサ制御装置および視覚センサで、対象物の位置を検出する場合の構成例を示す図である。 ロボット制御装置により制御されるロボットのハンドで、作業台上の対象物をハンドリングする場合に、ロボットの手先に設置した視覚センサの画像を視覚センサ制御装置に搭載した実施形態の画像処理装置で処理して対象物を検出し、検出した対象物の位置情報をロボット制御装置に供給する構成例を示す図である。 第1実施形態の処理を示すフローチャートである。 画像処理部によるモデルパターンの作成手順を示すフローチャートである。 第1の特徴点の位置と第2の特徴点の位置の距離を計算する方法例を説明する図である。 第2実施形態における処理を示すフローチャートである。 特徴点候補を選択する処理を説明する図である。 特徴点候補から重複しているものを削除する処理を説明する図である。 第3実施形態における処理を示すフローチャートである。 対象物のモデルパターンの例を示す図である。 撮像した画像におけるモデルパターン指定領域の例を示す図である。 モデルパターン記憶部に記憶される対応点のデータ形式を示す図である。 誤差ベクトルを計算する方法を説明する図である。 統計量に基づいてモデルパターンの第1の特徴点を修正する方法を説明する図である。 モデルパターン記憶部に記憶される判定指標の形式を示す図である。 モデルパターン記憶部に記憶される第1の特徴点のデータ形式を示す図である。 誤差ベクトルのデータ記憶形式を示す図である。 第4実施形態における処理を示すフローチャートである。
以下、図面を参照しつつ、本発明の第1乃至第3実施形態(以下、共通する部分の説明について単に実施形態と称する場合がある)を説明する。
実施形態における説明では、以下のように記号を使用する。説明を明確にするために、記号についてまず説明する。
NP: モデルパターンを構成する第1の特徴点の数
P_i: モデルパターンのi番目の第1の特徴点(iは1からNP)
NI: 入力画像の数
I_j: j番目の入力画像(jは1からNI)
NQ_j: j番目の入力画像I_jから抽出された第2の特徴点の数
Q_jk: j番目の入力画像I_jから抽出されたk番目の第2の特徴点(kは1からNQ_j)
NT_j: j番目の入力画像I_jから検出された対象物の像の数
T_jg: j番目の入力画像I_jから検出されたg番目の対象物の像(gは1からNT_j)
NT:全ての入力画像から検出された対象物の像の総数(NT=ΣNT_j)
NO_jg: j番目の入力画像I_jから抽出された第2の特徴点Q_jkのうち、対象物の像T_jgを構成する特徴点の数(NO_jg < NQ_j)
O_jgn: j番目の入力画像I_jから抽出された第2の特徴点Q_jkのうち、対象物の像T_jgを構成する特徴点以外の特徴点のn番目のもの(非対応点)(nは1からNO_jg)
NO_i: モデルパターンのi番目の特徴点P_iに対応すると判定された対応点の数(NO_i <= NT)
O_im: モデルパターンのi番目の特徴点P_iに対応するm個目の対応点(mは1からNO_i)
NC: 特徴点候補の数
C_h: h番目の特徴点候補(hは1からNC個)
NO_h: 特徴点候補C_hに対応すると判定された対応点の数(NO_h < NT)
O_hp: 特徴点候補C_hに対応するp番目の対応点(pは1からNO_h)
図2は、実施形態の画像処理装置を有する視覚センサ制御装置および視覚センサで、対象物の位置を検出する場合の構成例を示す図である。
図2に示すように、視覚センサ10を対象物1が撮像できる位置に固定設置し、対象物1は作業台2に載置する。視覚センサ10は、濃淡画像やカラー画像を撮像するカメラでも、距離画像や3次元点群を取得できるステレオカメラや3次元センサでもよい。3次元点群は対象物の輪郭線上のものでも、対象物の面上のものでもよい。
この実施形態では、視覚センサ10としてカメラを用い、視覚センサ10が濃淡画像を出力するものとして説明を行う。カメラは、例えばCCD(Charge Coupled Device)等の撮像素子を有する電子カメラであり、撮像により2次元画像を撮像面(CCDアレイ面上)で検出する機能を持つ周知の受光デバイスである。なお、撮像面における2次元座標系を以下では画像座標系と呼ぶ。
図3は、ロボット制御装置13により制御されるロボット11のハンド12で、作業台2上の対象物1をハンドリングする場合に、ロボット11の手先に設置した視覚センサ10の画像を視覚センサ制御装置20に搭載した実施形態の画像処理装置で処理して対象物1を検出し、検出した対象物1の位置情報をロボット制御装置13に供給する構成例を示す図である。図3に示すように、視覚センサ10は、ロボット11の手先などの可動部に設置してもよい。
図1は、視覚センサ制御装置に設けられる画像処理装置の構成を示すブロック図である。
図1に示すように、画像処理装置21は、画像処理部22、モデルパターン記憶部26および検出結果記憶部27を有する。画像処理装置21には、視覚センサ10、操作盤31、表示装置32等が接続される。画像処理部22は、対象物検出部23、対応点選択部24およびモデルパターン修正部25を含む。モデルパターン記憶部26は、教示されたモデルパターンを記憶する。検出結果記憶部27は、教示されたモデルパターンを使用して入力データから対象物を検出した検出結果を記憶する。画像処理装置21に含まれる各部分は、CPU、ROM、RAM等を有するコンピュータ上でソフトウェアにより実現される。後述する第1乃至第3実施形態は、ソフトウェアにより実現される処理内容が異なる。
視覚センサ10は、画像処理装置21に通信ケーブルで接続されている。視覚センサ10は、撮像した画像データを画像処理装置21に供給する。操作盤31は、画像処理装置21に通信ケーブルで接続されている。操作盤31は、画像処理装置21で対象物1を検出するために必要な視覚センサ10の設定を行うのに使用される。表示装置32は、画像処理装置21に通信ケーブルで接続されている。表示装置32には視覚センサ10で撮像した画像や操作盤31で設定する設定内容が表示される。なお、視覚センサ10、操作盤31および表示装置32は画像処理装置21と一体になっていてもよい。
図4は、第1実施形態の画像処理装置21における処理を示すフローチャートである。
図4を用いて、第1実施形態において画像処理部22が実行する処理内容を説明する。
ステップS101で、画像処理部22がモデルパターンを作成し、作成したモデルパターンをモデルパターン記憶部26に記憶する。
本実施形態におけるモデルパターンは複数の特徴点から構成される。特徴点としては様々な物が使用できるが、本実施形態ではエッジ点を特徴点として用いる。エッジ点は、画像中で輝度勾配が大きな点であり、対象物1の輪郭形状を取得するために使用できる。エッジ点を抽出する方法は非特許文献1などに記載されており、周知であるのでここでは説明を省略する。
エッジ点の物理量としては、そのエッジ点の位置、輝度勾配方向、輝度勾配の大きさなどがある。エッジ点の輝度勾配の方向を特徴点の姿勢と定義すると、位置とあわせて特徴点の位置姿勢を定義することができる。本実施形態では、特徴点の物理量としてエッジ点の物理量、すなわちエッジ点の位置、姿勢(輝度勾配の方向)、輝度勾配の大きさを記憶する。
図11は、対象物1のモデルパターンの例を示す図である。図11に示されているように、対象物1のモデルパターンは複数の第1の特徴点P_i(i=1〜NP)で構成される。
モデルパターンを構成する第1の特徴点P_iの位置姿勢はどのような形式で表してもよいが、一例としては、モデルパターンに座標系100を定義し(以下、モデルパターン座標系100)、モデルパターンを構成する特徴点の位置t_Pi(i=1〜NP)や姿勢v_Pi(i=1〜NP)をモデルパターン座標系100から見た位置ベクトルや方向ベクトルなどで表現する方法が挙げられる。
モデルパターン座標系100の原点はどのように定義してもよい。例えば、モデルパターンを構成する第1の特徴点から任意の1点を選択して、その点を原点として定義してもよく、モデルパターンを構成するすべての特徴点の重心を原点として定義してもよい。
モデルパターン座標系100の姿勢(軸の方向)もどのように定義してもよい。例えば、モデルパターンの作成を行った画像において画像座標系とモデルパターン座標系100が平行になるように定義してもよいし、モデルパターンを構成する特徴点から任意の2点を選択して、その一方から他方に向かう方向がX軸方向となるように定義してもよい。
モデルパターンを構成する第1の特徴点P_iは、モデルパターン記憶部26に、例えば、図17のような形式(位置、姿勢、輝度勾配の大きさを含む)で記憶される。
図5は、画像処理部22によるモデルパターンの作成手順を示すフローチャートである。
ステップS201で、モデルパターンとして教示したい対象物1を視覚センサ(カメラ)10の視野内に配置し、対象物1の画像を撮像する。この時のカメラ10と対象物1の位置関係は、対象物1を検出するときと同じになるようにして行うことが望ましい。
ステップS202で撮像した画像において、対象物1が映った領域を矩形や円形でモデルパターン指定領域として指定する。
図12は、撮像した画像におけるモデルパターン指定領域の例を示す図である。
図12において、撮像した画像において画像座標系210が定義され、その中で対象物1の像1Aを含むようにモデルパターン指定領域(ここでは矩形領域)220を指定する。モデルパターン指定領域220は、使用者が表示装置32で画像を見ながら操作盤31により入力した指示を画像処理部22が受けて設定しても、画像処理部22が画像における輝度勾配の大きい箇所を像1Aの輪郭として求め、像1Aが内部に含まれるように自動的に指定してもよい。
ステップS203で、モデルパターン指定領域220の範囲内でエッジ点を特徴点として抽出し、エッジ点の位置、姿勢(輝度勾配の方向)、輝度勾配の大きさなどの物理量を求める。また、指定された領域内にモデルパターン座標系100を定義し、エッジ点の位置や姿勢を、画像座標系210で表現された値から、モデルパターン座標系100で表現された値に変換する。
ステップS204で、抽出されたエッジ点の物理量を、モデルパターンを構成する第1の特徴点P_iとしてモデルパターン記憶部26に記憶する。
本実施形態では、特徴点としてエッジ点を用いたが、本実施形態で使用可能な特徴点がエッジ点に限定されるわけではなく、たとえばSIFTのような特徴点を使用してもよい。画像からSIFT特徴点を抽出する方法は、非特許文献2等に記載されており、周知である。
また、対象物1の画像からエッジ点やSIFT特徴点などを抽出して、モデルパターンを構成する第1の特徴点とするのではなく、画像に写った対象物の輪郭線に合うように線分、矩形、円などの幾何図形を配置することでモデルパターンを作成してもよい。その場合、輪郭線を構成する幾何図形上に適当な間隔で特徴点を設ければよい。
さらに、CADデータなどに基づいてモデルパターンを作成することもできる。2次元CADデータであれば、幾何図形を使った方法と同じ方法でモデルパターンを作成することができる。3次元CADデータであれば、CADデータで表現された対象物の形状を画像上に投影し、投影された像から特徴点を抽出して、第1の特徴点とすればよい。例えば、以下のような処理で変換できる。
1.カメラの撮像面上に原点を置くローカル座標系を定義する。
2.予め、カメラをキャリブレーションしておく。これにより、ローカル座標系で表現された3次元点をカメラ画像上の2次元点に変換することができる。
3.ローカル座標系にCADデータとして表現された対象物を仮想的に配置する。配置されたCADデータはローカル座標系で表現される。カメラと対象物の相対関係は、実際に対象物の検出を行うときの相対関係と大体同じになるようにする。
4.輪郭線から所定の間隔で輪郭線上の3次元点群を取得する。必要があれば、CADデータの中からモデルパターンとして使う輪郭線を指定する。
5.3次元点群をカメラ画像上に投影し、画像座標系上の2次元点群を求める。CADデータ上で明暗の向きを指定すれば、輝度勾配の方向も付加することができる。ここで、明暗の向きとは、輪郭線を境界とする二つの領域のどちらが明るいかを示すものである。
6.求められた画像座標系上の2次元点群をモデルパターン座標系で表現するように変換し、第1の特徴点としてモデルパターン記憶部に記憶する。
ステップS102に戻って、対象物1の像1Aを含む一乃至複数の入力画像I_j(j=1〜NI)を用意する。入力画像I_jに映る対象物1の像1Aは検出で問題となるばらつきを含んでいることが望ましい。例えば、対象物1の個体差が問題となっているのであれば、個体差のある対象物1を複数用意し、それらの対象物1をそれぞれ撮像したものを入力画像とするのがよい。対象物1を置く位置による見え方の違いが問題となるのであれば、カメラ視野内の様々な位置・向きに対象物を置いて撮像した画像を入力画像とするのがよい。実際に生産ラインで撮像した対象物1の画像を大量に保存しておき、それを入力画像としてもよい。実際に生産ラインで撮像した画像は、考慮すべき様々なばらつきを含んでいるため好適である。1枚の入力画像に複数の対象物が映っていてもよい。
ステップS103で、入力画像I_j(j=1〜NI)のそれぞれについて対象物1の像1A(以下、単に対象物1と称する場合がある)の検出を行う。
まず、入力画像I_jから第2の特徴点を抽出する。第2の特徴点はモデルパターンを作成する際に第1の特徴点を抽出した方法と同じ方法で抽出すればよい。本実施形態では、入力画像からエッジ点を抽出し、第2の特徴点とする。説明のため、入力画像I_jから抽出されたNQ_j個の第2の特徴点をQ_jk(k=1〜NQ_j)とする。第2の特徴点Q_jkは入力画像I_jに関連づけて検出結果記憶部27に記憶する。この時点では、第2の特徴点Q_jkの位置や姿勢は画像座標系210で表現されている。
次に、入力画像I_jから抽出した第2の特徴点Q_jkとモデルパターンを構成する第1の特徴点P_iとのマッチングを行い、対象物1の検出を行う。対象物を検出する方法は様々なものがあるが、たとえば、周知の方法として、非特許文献3に記載された一般化ハフ変換、非特許文献4に記載されたRANSAC、非特許文献5に記載されたICPアルゴリズムなどが利用できる。
検出を行った結果、入力画像I_jから対象物の像がNT_j個検出されたとする。また、検出された像をT_jg(g=1〜NT_j)、像T_jgの検出位置をR_Tjgとする。検出位置R_Tjgは、画像座標系210から見た対象物の像T_jgの位置姿勢、すなわち像T_jgにモデルパターンを重ね合わせた時の、画像座標系210から見たモデルパターン座標系100の位置姿勢を表す同次変換行列であり、次の式で表される。
Figure 0006348093
たとえば、対象物がカメラの光軸に対して傾くことがなく、画像に写る対象物の像の移動として合同変換だけを考えればよい場合には、a00〜a12は以下のようになる。
a00=cosθ
a01=-sinθ
a02=x
a10=sinθ
a11=cosθ
a12=y
ただし、(x、y)は画像上での位置、θは画像上での回転移動量である。
また、対象物がカメラの光軸に対して傾くことはないが、対象物とカメラの距離が一定でない場合は、距離に応じて画像に映る対象物の像の大きさが変わるため、画像に写る対象物の像の移動としては相似変換となる。その場合、a00〜a12は以下のようになる。
a00=s・cosθ
a01=-s・sinθ
a02=x
a10=s・sinθ
a11=s・cosθ
a12=y
ただし、sは教示されたモデルパターンの大きさと対象物の像T_jgの大きさの比である。
入力画像I_j(j=1〜NI)のそれぞれについて同様の処理を行い、トータルでNT個の像が検出されたものとする。なお、トータルの個数NTは次の式で表される。
Figure 0006348093
検出位置R_Tjgを、入力画像I_jに関連付けて検出結果記憶部27に記憶しておく。
ステップS104で、各入力画像I_j(j=1〜NI)から検出された対象物の像T_jg(j=1〜NI、g=1〜NT_j)の検出位置R_Tjgに基づいて、入力画像I_jから抽出された第2の特徴点Q_jk(j=1〜NI, k=1〜NQ_j)のうち、モデルパターンを構成する第1の特徴点P_iに対応するものを対応点として選択する。
説明のため、モデルパターンを構成する第1の特徴点P_iの位置姿勢をそれぞれ同次変換行列R_Piで表すことにする。R_Piは以下のように記述できる。
Figure 0006348093
b00= vx_Pi
b01=-vy_Pi
b02= tx_Pi
b10= vy_Pi
b11= vx_Pi
b12= ty_Pi
ただし、t_Pi =(tx_Pi, ty_Pi)はモデルパターン座標系でのP_iの位置、v_Pi =(vx_Pi, vy_Pi)はモデルパターン座標系でのP_iの姿勢である。
なお、P_iの姿勢をベクトルではなく角度r_Piで表現することもできる。v_Piはr_Piを使って、v_Pi = (vx_Pi, vy_Pi) = (cos r_Pi, sin r_Pi)と表現できる。
同様に、入力画像I_jから抽出した第2の特徴点_Q_jkの位置姿勢も、同次変換行列R_Qjkで表すことにする。
ここで、モデルパターンを構成する第1の特徴点P_iの位置姿勢R_Piはモデルパターン座標系で表現されており、入力画像I_jから抽出された第2の特徴点Q_jkの位置姿勢R_Qjkは画像座標系で表現されていることに注意が必要である。そこで、両者の関係を明確にしておく。
画像I_jに写った対象物の像T_jgにモデルパターンを重ねた時の、画像座標系から見た第1の特徴点P_iの位置姿勢をR_Pi’とすると、R_Pi’は、モデルパターン座標系からみた第1の特徴点P_iの位置姿勢R_Piと、画像座標系から見た像T_jgの検出位置R_Tjgを用いて、以下のように表せる。
R_Pi'=R_Tjg・R_Pi (1)
同様に、対象物の像T_jgにモデルパターンを重ねた時の、モデルパターン座標系から見た第2の特徴点Q_jkの位置姿勢をR_Qjk’とすると、R_Qjk’は、画像座標系から見たQ_jkの位置姿勢R_Qjkと、画像座標系から見た像T_jgの検出位置R_Tjgを用いて、以下のように表せる。
R_Qjk'=R_Tjg-1・R_Qjk (2)
なお、後の説明のため、画像座標系から見たP_iの位置をt_Pi’、画像座標系から見たP_iの姿勢をv_Pi’、画像座標系から見たQ_jkの位置をt_Qjk、画像座標系から見たQ_jkの姿勢をv_Qjk、モデルパターン座標系から見たQ_jkの位置をt_Qjk’、モデルパターン座標系から見たQ_jkの姿勢をv_Qjk’とする。
以上を踏まえて、モデルパターンを構成する第1の特徴点P_iと、入力画像I_jから抽出された第2の特徴点Q_jk(j=1〜NI, k=1〜NQ_j)の対応付けを、以下の手順で行う。
1.入力画像I_jから検出された対象物の像T_jgの検出位置R_Tjgに基づいて、モデルパターンを構成する第1の特徴点P_iの位置姿勢R_Piを、式(1)により、画像座標系から見た位置姿勢R_Pi’に変換する。
2.第1の特徴点P_iのそれぞれについて、第2の特徴点Q_jkの中から最も近いものを探索する。探索には以下のような手法を使うことができる。
(ア)第1の特徴点の位置姿勢R_Pi’と全ての第2の特徴点の位置姿勢R_Qjkとの距離を計算し、最も距離が近い第2の特徴点Q_jkを選択する。
(イ)入力画像I_jの画素数と同じ要素数の2次元配列に、第2の特徴点の位置姿勢R_Qjkをその位置の画素に対応する2次元配列の要素に格納し、2次元配列の第1の特徴点の一意姿勢R_Piに対応する画素近傍を2次元的に探索し、最初に見つかった第2の特徴点Q_jkを選択する。
3.選択された第2の特徴点Q_jkが、その第1の特徴点P_iの対応点として妥当であるか評価する。たとえば、第1の特徴点P_iの位置姿勢R_Pi’と第2の特徴点Q_jkの位置姿勢R_Qjkの距離を計算し、距離が閾値以下であれば、選択された第2の特徴点Q_jkはその第1の特徴点P_iの対応点として妥当であるとする。
さらに、第1の特徴点P_iと第2の特徴点Q_jkの姿勢や輝度勾配の大きさなどの物理量の差も合わせて評価して、それらも閾値以下または閾値以上であるときに選択された第2の特徴点Q_jkはその第1の特徴点P_iの対応点として妥当であると判断するようにしてもよい。
4.選択された第2の特徴点Q_jkが、その第1の特徴点P_iの対応点として妥当であると判断した場合は、選択された第2の特徴点Q_jkをその第1の特徴点P_iの対応点O_imとして、P_iに関連付けて検出結果記憶部27に記憶する。対応点O_imの画像座標系から見た位置姿勢R_Oimとすると、R_Oim=R_Qjkであり、これは画像座標系から見た位置姿勢であるので、モデルパターン座標系から見た位置姿勢R_Oim’に変換してから記憶するようにする。R_Oim’は、式(2)により、以下のようにして計算できる。
Figure 0006348093
第1の特徴点P_iの位置t_Pi’と第2の特徴点Q_jkの位置t_Qjkの距離は、2点間の直線距離を使用してもよいが、以下に説明する図6に示す計算方法で計算した値を使用してもよい。
1.第1の特徴点P_iの位置t_Pi’を通り、第1の特徴点P_iの姿勢v_Pi’に平行な直線をL2とする。
2.第2の特徴点Q_jkの位置t_Qjkを通り、第2の特徴点Q_jkの姿勢v_Qjkに直交する直線をL1とする。
3.L1とL2の交点Tと第1の特徴点P_iの位置t_Pi’との距離d_giを計算する。この場合には、距離d_giは符号付き距離となる。
このように距離を計算すると、第1の特徴点P_iの輝度勾配の方向と直交する方向のズレは無視することになる。
以上の処理を、入力画像I_j(j=1〜NI)から検出されたNT個の検出位置R_Tjg(j=1〜NI、g=1〜NQ_j)のそれぞれについて行うことにより、モデルパターンのi番目の特徴点P_iに対応すると判定された対応点がNO_i個見つかったものとする。また、モデルパターンのi番目の特徴点P_iに対応するm個目の対応点をO_im(m=1〜NO_i)とする。なお、入力画像I_jから検出された対象物の像の総数がNTであるので、NO_i <= NTである。得られた対応点は図13のような形態でモデルパターン記憶部26に記憶する。
なお、本実施形態ではNT個の検出位置R_Tjg(j=1〜NI、g=1〜NQ_j)のすべてについて対応点の選択を行うようにしたが、必ずしもすべての検出位置について行う必要はない。たとえば、明らかに妥当でない検出位置が混ざっているようであれば、それらを除外することが望ましい。たとえば、以下の方法で除外することができる。
除外方法の一例として、検出位置近傍の輝度値がモデルパターン教示時と検出時で比較し、輝度値が大きく異なるようであれば、妥当でないとして除外する。この除外処理を説明する。
1.輝度値を計測する領域を設定する。これを計測領域と呼ぶ。計測領域はモデルパターン内部でもよいし、外部でもよい。計測領域の形状に制約はないが、ここでは矩形であるとし、モデルパターン座標系から見た矩形の位置と大きさを記憶しておく。また、モデルパターンを教示した画像で、計測領域内の輝度値の統計量を計算し、合わせて記憶しておく。統計量は、輝度値の平均、分散、最大値、最小値などが考えられる。
2.検出結果T_jgの検出位置R_Tjgに対応する計測領域の位置R_C'を計算する。
計測領域の矩形の位置姿勢R_Cとすると、R_C'はR_CとR_Tjgに基づいて次式で算出できる。
R_C' = R_Tjg・R_C
3.R_C'で規定される矩形の領域内における、入力画像I_jの輝度値の統計量を計算する。
4.モデルパターンの計測領域の輝度値の統計量と検出結果T_jgの計測領域の輝度値の統計量の差が閾値以上であれば、その検出結果は妥当でないとして除外する。
上記2〜4の処理を検出結果T_jg(g=1〜NT_j)それぞれに対して行う。
除外するかどうかの判定に使用する物理量は輝度値に限られるものではない。例えば、計測領域内の輝度勾配の大きさを使用してもよいし、色相や彩度を使用してもよい。これに類する効果を発揮しうる物理量の統計量であればここに列挙されたものに限定されないことは言うまでもない。
別の除外方法としては、使用者が、手動で妥当でない検出結果を除外することもできる。検出結果を表示装置32に表示し、使用者が目視で確認し、妥当でないと判定された検出結果は使わないようにする。上記の処理(検出結果の妥当性の確認)を検出結果T_jg(g=1〜NT_j)それぞれに対して行う。
妥当でない検出結果を除外することで、そのような検出結果が以降のステップで統計量を計算する際に悪影響を及ぼすのを防ぐことができる。
ステップS105で、モデルパターンのi番目の第1の特徴点P_iに対応すると判定されたNO_i個の対応点O_im(m=1〜NO_i)の物理量に基づいて、第1の特徴点P_iに対応する対応点の物理量の統計量を算出する。
統計量の一例として、特徴点の位置の平均誤差ベクトルを求める方法を以下で説明する。
(ア)検出結果記憶部27に記憶されている、第1の特徴点P_iに対応するNO_i個の対応点_O_imのモデルパターン座標系から見た位置姿勢R_Oim’を取得する。
(イ)次に、図14に示すように、NO_i個の対応点O_imをそれぞれについて、対応点O_imの位置姿勢R_Oim’の位置成分t_Oim’から第1の特徴点P_iの位置姿勢R_Piの位置成分t_Piを引いた誤差ベクトルV_imを計算する。誤差ベクトルV_imはNO_i個得られることになる。得られた誤差ベクトルは図18のような形態でモデルパターン記憶部26に記憶する。
(ウ)NO_i個の誤差ベクトルV_imを全て加算し、NO_iで除することで、平均誤差ベクトルV_iを計算し、第1の特徴点P_iの統計量として特徴点P_iに関連付けてモデルパターン記憶部26に記憶する。なお、V_iは次の式で表される。
Figure 0006348093
上記の例では、第1の特徴点P_iに対する全ての誤差ベクトルV_imをモデルパターン記憶部に記憶してから平均を求めるようにしたが、誤差ベクトルV_imを逐次的に加算していき、最後にその総和をNO_iで除することで、平均誤差ベクトルV_iを求めるようにしてもよい。
また、平均誤差ベクトルは別の方法でも求められる。例えば、NO_i個の誤差ベクトルを確率変数とする確率分布を求め、最も確率の高い箇所のベクトルを平均誤差ベクトルとしてもよい。画像は2次元なので、2次元の確率分布を推定することで、平均誤差ベクトルを算出することができる。確率分布としては、正規分布や混合正規分布などを用いることができる。
平均誤差ベクトルを計算する前に外れ値を除去してもよい。外れ値を除去することで、誤った対応点により、平均誤差ベクトルの位置精度が悪くなることを防ぐことができる。外れ値は、例えば、以下の方法で除去することができる。
まず、誤差ベクトルを確率変数とする確率分布を求める。求めた確率分布に対して、それぞれの誤差ベクトルをとりうる確率を求める。この確率が閾値より低いものは外れ値であるとして除去する。
外れ値を除去した後で、再度確率分布を求め直すなどして、平均誤差ベクトルを求めればよい。
以上の処理を、モデルパターンを構成するすべての第1の特徴点P_iについて行う。
ステップS106で、求めた統計量(平均誤差ベクトルV_i)に基づいて、モデルパターンの第1の特徴点P_iを修正する。具体的には、図15に示すように、特徴点P_iの位置t_Piを、t_Piに平均誤差ベクトルV_iを加算した値t_Pi+V_iで書き換えればよい。これにより、モデルパターンの特徴点P_i(i=1〜NP)が形作る形状が、画像I_j(j=1〜NI)に写ったNT個の像T_jg(j=1〜NI、g=1〜NT_j)の平均的な形状となる。
ステップS105において統計量として何を算出するか、また、ステップS106においてモデルパターンをどのようにして修正するかは、上記の方法に限定されない。例えば、以下のようにしてもよい。
1.図6の方法で第1の特徴点P_iと対応点O_imとの距離d_imを計算する。d_imは符号付き距離である。特徴点P_iの対応点はNO_i個あるので、距離d_imは、各特徴点P_iについてNO_i個計算される。
2.NO_i個の距離d_imの平均値d_iを以下の式で求める。求めた距離の平均値d_iを統計量として、特徴点P_iに関連づけてモデルパターン記憶部に記憶する。平均値d_iは、次の式で表される。
d_i = (Σd_im)/NO_i
3.第1の特徴点P_iの姿勢v_Piにd_iを乗じて、平均誤差ベクトルV_iとする。
V_i = d_i・v_Pi
特徴点P_iの位置t_Piに、計算した平均誤差ベクトルV_iを加算する。
このようにする場合には、特徴点P_iの位置t_Piは輝度勾配の方向にのみ修正されることになる。
更に、モデルパターンの第1の特徴点P_iの位置t_Piと同様に、特徴点P_iの姿勢v_Piを修正することもできる。たとえば、第1の特徴点P_iの対応点O_imの姿勢ベクトルv_Oimの平均ベクトルuv_Oiを、uv_Oi=(Σv_Oim)/|Σv_Oim|で求め、第1の特徴点P_iの姿勢ベクトルv_Pi をuv_Oiで置き換えてもよい。
もしくは、特徴点P_iの姿勢ベクトルを角度r_Pi=arctan(vx_Pi/vy_Pi)に変換して、同じように変換した対応点O_imの姿勢の角度をr_Oim'として、角度の差r_imをr_Oim'−r_Piで求めることができる。ただしr_imは-πからπの値になるように変換する。差の平均値r_i=(Σr_im)/(NO_i)を特徴点の姿勢の角度r_Piに加算することで、特徴点P_iの姿勢を修正することができる。
モデルパターンをこのように修正することにより、以下の効果がある。
1.ある対象物を撮像した画像から作成したモデルパターンは、対象物のある個体の形状を反映したものであるため、全ての体に対して最適なものではない。この方法を使うことで、対象物の平均的な形状をモデルパターンとすることができる。更に対象物の体による形状の違いだけでなく、対象物の置かれた位置やカメラの位置の違いにより、対象物の見え方が異なる場合がある。このような見え方の違いも含めてモデルパターンを平均化することができる。
2.対象物の形状を表すCADデータから作成したモデルパターンは、対象物の理想的な形状であるが、製造誤差により、寸法通りに作られるわけでない。また、CADデータの座標系で表現されたモデルパターンを画像の座標系に変換する際にも、誤差が発生しうる。このようなモデルパターンを実際に検出する対象物の形状に合わせて最適化することができる。モデルパターンの輪郭線を線分、矩形、円形などの図形を組み合わせて直接教示した場合も同様である。
以上、第1実施形態について説明した。次に第2実施形態を説明する。
第2実施形態では、モデルパターンの第1の特徴点に対応しなかった第2の特徴点についてもその対応点の物理量の統計量を求め、求めた統計量に基づいて、モデルパターンの第1の特徴点を新たに追加する。
図7は、第2実施形態における処理を示すフローチャートである。
ステップS301〜S303は、第1実施形態のS101〜S103と同じである。S301〜S303を実施することによって、S103の終了段階と同じように、入力画像I_jから対象物の像がNT_j個検出されたとする。また、検出された像T_jg(g=1〜NT_j)の検出位置をR_Tjgとする。
ステップS304で、対応点選択部24で、モデルパターンを構成する第1の特徴点に対する対応点を選択する。S304における処理は基本的には第1実施形態のS104における処理と同じであるが、さらに以下を行う点が異なる。
図8に示すように、入力画像I_jから検出された対象物の像T_jgの位置姿勢R_Tjgに基づいて、入力画像I_jから抽出された第2の特徴点Q_jk(j=1〜NI, k=1〜NQ_j)のうち、モデルパターンを構成する第1の特徴点P_i(i=1〜NP)に対応すると判定されたもの以外(図8で破線で囲んだ点)を、対象物の像T_jgの非対応点O_jgn(n=1〜NO_jg)として対象物の像T_jgに関連付けて検出結果記憶部27に記憶する。ただし、NO_jgはNQ_j以下の値である。
ステップS305で、対応点選択部24で、以下の手順で特徴点候補を選択してモデルパターン記憶部26に記憶する。
検出結果記憶部27に記憶されている、対象物の像T_jgの非対応点O_jgn(n=1〜NO_jg)のそれぞれについて、画像座標系から見たO_jgnの位置姿勢R_Ojgnと、対象物の像T_jgの位置姿勢R_Tjgに基づいて前述の式(2)により、モデルパターン座標系からみた非対応点O_jgnの位置姿勢R_Ojgn’を算出する。R_Ojgn’がモデルパターン指定領域の内側であるかをチェックし、領域外であればそのO_jgnを対象物の像T_jgの非対応点から除外する。ここで使用するモデルパターン指定領域は、モデルパターンを作成するために使用したものとは別の領域を新たに指定してもよい。
残った非対応点を特徴点候補C_hとして、対象物の像T_jgと関連付けて記憶する。
なお、特徴点候補として追加する際に、非対応点O_jgnの物理量を用いて更に絞り込んでも良い。例えば、輝度勾配の大きさが閾値より小さい非対応点は特徴点候補として追加しないようにしてもよい。
ステップS304およびS305の処理を、各入力画像I_j(j=1〜NI)から検出された対象物の像T_jg(j=1〜NI, g=1〜NT_j)のそれぞれに対して行う。始めは特徴点候補C_hは0個であるが、S304およびS305の処理を行う度に特徴点候補がC_hに追加され、最終的にNC個の特徴点候補C_h(h=1〜NC)が得られたとする。
ステップS306で、対象物の像の位置姿勢R_Tjg(j=1〜NI、g=1〜NT_j)に基づいて、入力画像I_jから抽出された第2の特徴点Q_jk(j=1〜NI, k=1〜NQ_j)のうち、特徴点候補C_h(h=1〜NC)に対応する対応点O_hp(p=1〜NO_h)を選択する。
この処理は基本的には第1実施形態のS104の処理と同じであるが、第1の特徴点P_iに対する対応点ではなく、特徴点候補C_hに対する対応点を選択する点が異なる。その特徴点候補C_hを追加する際に使用した対象物の像T_jgに対しては対応点を選択する必要はないので、NO_hはNT−1以下の値になる。
入力画像I_jから検出された対象物の像T_jgのそれぞれについてS306の処理を行うことで、各特徴点候補C_hに、それぞれNO_h個の対応点O_hp(p=1〜NO_h)が見つかったものとする。
ステップS307で、特徴点候補C_hのそれぞれについて、対応点O_hp(p=1〜NO_h)の物理量の統計量を算出する。ここでは、ある特徴点候補C_hに対応する対応点の数がNO_h個である場合、対応点の選択に使った対象物の像の総数はNT個に対して、その特徴点が対象物の像に現れた割合(NO_h+1)/NTを計算し統計量とする。
統計量はこの例に限られるものではなく、例えば、以下のような統計量を算出してもよい。
・特徴点候補C_hと対応点O_hpの間の、位置の誤差、輝度勾配の方向の誤差、距離、の平均、分散、確率分布
位置姿勢に関する統計量を計算するためには、対応点O_hpの位置姿勢R_Ohpをモデルパターン座標系から見た位置姿勢R_Ohp’に変換する必要がある。これには前述の式(2)が使える。
・対応点O_hpの輝度勾配の大きさの平均、分散、確率分布
・対応点が見つかった個数NO_h
ステップS308で、計算された統計量に基づいて、特徴点候補C_h(h=1〜NC)のそれぞれについて、モデルパターンに特徴点として追加することが妥当かどうかの判定を行う。
例えば、ある特徴点候補C_hに対応する対応点の数がNO_h個である場合、対応点の選択に使った対象物の像の総数はNT個であるので、その特徴点が対象物の像に現れた割合は(NO_h+1)/NTとなる。特徴点が対象物の像に現れた割合が所定の閾値より小さい場合は、その特徴点候補は対象物の像に頻出するとは言えないので、モデルパターンに特徴点として追加するのは妥当ではないと考えることができる。
他の統計量、例えば、位置や姿勢の分散を用いる場合には、ある特徴点候補C_hに対応する対応点O_hp(p=1〜NO_h)の位置や姿勢の分散が所定の閾値より大きい場合は、その特徴点候補は対象物の像に安定して出現する特徴点ではないと言えるので、モデルパターンに第1の特徴点として追加するのは妥当ではないと考えることができる。
ステップS309で、各特徴点候補C_h(h=1〜NC)のうちS308で妥当であると判断された特徴点候補C_hの物理量を、その特徴点候補C_hに対応する対応点O_hp(p=1〜NO_h)の物理量の統計量で上書きする。たとえば、特徴点候補C_hの位置、姿勢、輝度勾配の大きさなどを、対応点O_hp (p=1〜NO_h)の位置、姿勢、輝度勾配の平均値で上書きする。
これまでの処理により、モデルパターン座標系から見て位置姿勢が同じ点が、それぞれ別の特徴点候補として追加されている。ステップS310では、特徴点候補C_h(h=1〜NC)の中から、重複している点を削除する。
たとえば、図9に示すように、モデルパターン座標系の2次元空間を1画素単位でブロックBに区切り、各ブロックで1つの特徴点候補だけが残るように特徴点候補を削除する。削除する基準としては、様々な方法が考えられるが、例えば、見つかった対応点が多い特徴点候補を残すようにしてもよいし、輝度勾配の大きさの平均値が高い物を残してもよいし、あるいはそれらを組み合わせてもよい。また、近傍の画素の第1の特徴点や特徴点候補とのつながり方を考慮し、最も妥当性が高い物を残してもよい。例えば、近傍画素間で残った特徴点候補の輝度勾配の方向が大きく異なっていれば、どちらかの特徴点候補が正しくない可能性がある。この処理は特徴点候補が存在する全てのブロックで行う。
ステップS311で、これまでの処理で削除されなかった特徴点候補C_h(h=1〜NC)を、第1の特徴点としてモデルパターンに追加し、モデルパターン記憶部26に記憶する。
第2実施形態は、上記の手順には限らず様々な形態が考えられる。
たとえば、上記のS304において、どの第1の特徴点P_iにも対応しなかった第2の特徴点Q_jkを非対応点O_jgnとして選択しているが、第1の特徴点P_iだけでなく、すでに追加されている特徴点候補C_hとも比較するようにし、第1の特徴点P_iに対応する場合はP_iの特徴点の対応点として選択、特徴点候補C_hと対応した場合はC_hの対応点として選択、第1の特徴点P_iと特徴点候補C_hのいずれにも対応しなかった場合は非対応点O_jgnとして選択するようにする。これにより、特徴点候補C_hとして既に追加されている第2の特徴点と重複する可能性の高い第2の特徴点Q_jkは特徴点候補C_hとして追加されなくなる。
第2実施形態によれば、最初に作成したモデルパターンには存在しなかったが、対象物の像に安定して頻出する第2の特徴点をモデルパターンに自動的に追加することができる。これにより、以下の効果がある。
最初に作成したモデルパターンは、1枚の画像に写っていた対象物の像のひとつから抽出された特徴点だけから構成されているが、光の加減やノイズなどの影響により、はっきりした輝度勾配がある状態では写っていない部分があると、対象物全体から特徴点が抽出できているわけではない。したがって、第2実施形態の方法によって、元のモデルパターンには含まれていなかったが多くの対象物の像に現れる特徴点を追加することにより、元のモデルパターンに欠けていた部分を補うことができる。これにより、検出の正確性とロバスト性の向上が期待できる。
次に第3実施形態を説明する。
第3実施形態では、モデルパターンの特徴点に対応する対応点の物理量の統計量に基づいて、モデルパターンを構成する第1の特徴点に判定指標を追加し、対象物検出部23において判定指標を利用することで検出の信頼性を向上する。
図10は、第3実施形態における処理を示すフローチャートである。
ステップS401〜S404は、第1実施形態のS101〜S104と同じである。S104の終了段階と同じように、モデルパターンのi番目の特徴点P_iに対応すると判断された対応点がNO_i個見つかったものとする。また、モデルパターンのi番目の特徴点P_iに対応するm個目の対応点をO_im(mは1からNO_i)とする。
ステップS405で、第1の特徴点P_iに対応するNO_i個の対応点O_imの物理量の統計量を算出する。例えば、以下のような統計量を算出する。これは第2実施形態のS307と同様に計算できる。
1.第1の特徴点P_iと対応点O_imの距離d_imの標準偏差を計算する。距離d_im(m=1〜NO_i)が正規分布に従ってばらつくと仮定すると、距離d_imの標準偏差σdは公知の手法で計算できる。
2.輝度勾配の大きさの平均と標準偏差を計算する。対応点O_imが保持する輝度勾配の大きさが正規分布に従いばらつくと仮定すると、対応点O_im(m=1〜NO_i)の輝度勾配から平均μα、標準偏差σαを計算できる。
3.輝度勾配の大きさの確率分布を計算する。輝度勾配の大きさが正規混合分布に従いばらつくとする。対応点O_im(m=1〜NO_i)の輝度勾配の大きさを確率変数とする正規混合分布p(x)は、次のように表される。
Figure 0006348093
上記の式のパラメータπb、μαb、σαb(b=1〜NB)は周知の方法で求めることができる。
ステップS406で、計算した統計量から判定指標W_iを求める。S405で計算した統計量を用いて、それぞれ以下のような判定指標を求められる。
(ア)距離d_imの標準偏差σdから、距離の許容範囲を計算する。距離が3σd以上または-3σd以下であれば、不一致であるとするような判定指標とする。大きなσdを持つ第1の特徴点は検出対象物の第2の特徴点の位置がばらつくので、大きなばらつきを許容するようになり、小さなσdを持つ第1の特徴点は、比較的小さなばらつきのみを許容するようになる。
(イ)輝度勾配の大きさの平均μαと標準偏差σαを用いて、輝度勾配の大きさがμα−2σαからμ+2σαまでの第2の特徴点のみを許容するようにする。
(ウ)輝度勾配の大きさの確率分布p(x)を用いて、ある輝度勾配の大きさを取り得る確率が一定の値以上であるかを判定指標にする。ある輝度勾配の大きさを取り得る確率が、ある閾値p_minより大きければ許容するようにする。この場合には、正規混合分布を規定するパラメータπb、μαb、σαb(b=1〜NB)と閾値p_minとを判定指標の中に保持することになる。
ステップS407で、求めた判定指標W_iを第1の特徴点P_iに関連付けてモデルパターン記憶部26に記憶する。統計量から求めた閾値ではなく、統計量そのものを判定指標として記憶してもよい。
ステップS404〜S407の処理を、モデルパターンの特徴点P_i(i=1〜NP)のそれぞれに対して実施する。判定指標は、例えば、図16のような形式でモデルパターンの特徴点P_iに関連付けてモデルパターン記憶部26に記憶する。
ステップS408で、対象物検出部23で、モデルパターン記憶部26に記憶された判定指標を使用して、対象物を検出する。
対象物検出部23において判定指標を利用する1つの方法は、対象物の像T_xを求めたあとで、それぞれの対象物の像に対する一致度を計算し、その一致度が低い対象物の像T_xを除外することである。以下ではこの方法について説明する。
1.新たな画像Inewを撮像する。
2.画像Inewから対象物を検出する。検出には、S103同様、任意の手法を用いることがある。これにより、対象物の像T_x(x=1〜NTX)がNTX個求まったとする。以下の3〜6の処理を、全ての対象物の像T_xに対して実施する。
3.画像Inewから検出された対象物の像T_xの位置姿勢R_Tx_に基づいて、画像Inewから抽出された第2の特徴点Qnew_k(k=1〜NQ)のうち、モデルパターンを構成する第1の特徴点P_iに対応するものを選択する。
4.選択された第2の特徴点が第1の特徴点P_iの対応点として妥当であるかを確認する。ここでP_iに関連付けられた判定指標を用いる。例えば、第2の特徴点の輝度勾配の大きさがβであるとき、βがμα−2σαからμα+2σα(μ、α、σの定義についてはS408を参照)の間であれば妥当であるとする。妥当である対応点はP_iの対応点O_iとして検出結果記憶部27に記憶する。
5.上記の3〜4の処理を全ての特徴点P_i(i=1〜NP)に対して行うことで、NO個の対応点が選択できたものとする。
6.モデルパターンを構成する第1の特徴点の数NPと見つかった対応点の数NOを使用して、NO/NPを求めることで、モデルパターンと像T_xの一致度を0.0から1.0の間の値で表現できる。
または、ある第1の特徴点P_iとその対応点O_iの個別の一致度をS_iとして算出し、ΣS_i/NPをモデルパターンと像T_xの一致度としてもよい。個別の一致度S_iは第1の特徴点P_iの物理量と対応点O_iの物理量を使って求めることができる。例えば、第1の特徴点P_iの物理量と対応点O_iとの距離をd_iとしたときに、ある定数d_maxを定義して、S_iを以下のように求めることができる。ただし、|d_i|はd_max以下の値であるとする。
S_i = 1 - |d_i|/d_max
7.計算したモデルパターンと像T_xの一致度が予め定められた閾値Sminより小さければ、その対象物の像T_xを検出結果から除外する。
対象物検出部で判定指標を用いる方法はこれに限らない。例えば、ICPアルゴリズムにおいても、モデルパターンを構成する第1の特徴点の対応点を選択するステップが存在する。この対応点を選択するステップで、判定指標を用いて、第1の特徴点と第2の特徴点の一致/不一致を決定することができる。
これにより、対象物検出部において、より正確に判定された対応点を用いて検出を行うことができる。
第3実施形態によれば、モデルパターンの第1の特徴点毎に対象物を検出するために最適な判定指標を持たせ、その判定指標を対象物の検出に使用することができる。これにより以下の効果がある。
モデルパターンの第1の特徴点の部位によっては、例えば、位置のばらつきが大きかったり小さかったりする場合がある。位置のばらつきが小さい場合に、そのばらつき以上の距離がある第2の特徴点は、妥当な対応点でない可能性が高い。そのような第2の特徴点は対応点として使用しないことで、誤対応を防ぐことができる。対応点の誤対応は、検出精度に悪影響を与えたり、誤検出の原因となったりすることがある。さらに位置のばらつきが大きい場合に、小さいばらつきしか許容していなければ、その第1の特徴点に対する対応点が見つからなくなってしまう可能性が高い。それにより、一致度が低下し、対象物が見つからなくなってしまうことがある。それらの悪影響を防ぐことにより、検出結果の精度やロバスト性を向上することができる。
モデルパターン記憶部26に記憶された判定指標は、第1実施形態などの対応点選択部で使用することもできる。たとえば、対応点選択部において、第2の特徴点Q_jkが第1の特徴点P_iの対応点として妥当であるか評価するステップで、判定指標を用いて妥当性を評価することができる。
1.第3実施形態により、モデルパターンの特徴点P_i(i=1〜NP)のそれぞれに判定指標を持たせてあるものとする。ここでは、判定指標が第1の特徴点と第2の特徴点の距離diが-3σdから3σdの範囲内であるかどうかであるとする。
2.対応点選択部において、第1の特徴点P_iと第2の特徴点Q_jkの距離diが-3σdから3σdの範囲内であるかどうかを評価して、範囲内であれば妥当、範囲外であれば妥当でないとする。
3.妥当であると判断された第2の特徴点Q_jkのみを対応点として、以降の処理を行う。
これにより、より正確に判定された対応点を用いて、所定の物理量の統計量を計算することができる。
第1乃至第3実施形態は、視覚センサがカメラであり、視覚センサからの入力データが画像である場合を想定して説明したが、本願発明は、視覚センサが3次元センサである場合にも適用可能である。
3次元センサには、光切断法のように対象物の面上の3次元点が計測されるものと、ステレオ法のように対象物の輪郭線上の3次元点が計測されるものがある。
3次元センサが出力する3次元点群を構成する個々の3次元点を、そのまま本願発明のモデルパターンを構成する第1の特徴点として利用することができる。第1実施形態と同じように、指定した領域内の3次元点を第1の特徴点としてモデルパターンを作成すればよい。
対象物の形状を表すCADデータからモデルの3次元点群を取得することもできる。CADデータから面上の3次元点を一定の間隔で取得してもよいし、輪郭線上の3次元点を一定の間隔で取得してもよい。
入力データを構成する3次元点が対象物の面上の点である場合は、各特徴点の物理量として特徴点の位置に加えて、法線の向きを利用することができる。3次元点群における法線の求め方の一例は、非特許文献6などで周知である。
入力データを構成する3次元点が対象物の輪郭線上の点である場合は、各特徴点の物理量として、輪郭線上で隣り合う特徴点を結んだ方向ベクトルを利用することができる。
法線の向きや方向ベクトルは特徴点の姿勢として使用することができる。
更に3次元センサが3次元点と共に輝度の情報や色の情報を出力する場合、特徴点の物理量としての輝度の情報や色の情報を付加することができる。もちろん、近傍の3次元点の輝度を用いれば、特徴点の物理量として輝度勾配を算出することも可能である。
3次元点群の特徴点は、非特許文献7に記載されたSHOTなど、他の形態のものであってもかまわない。
入力データが3次元点群であっても、対象物を検出し、その位置姿勢を求めることは可能である。例えば、非特許文献8のような手法がある。
また、入力データが3次元点群であっても、ICPアルゴリズムを使うことができる。もちろん、3次元点群から対象物を検出する手法はこれらに限られるものではない。
入力データが面上の3次元点群であれば、対応点選択部において、第1の特徴点P_iの位置R_Piと第2の特徴点Q_jkのモデルパターン座標系から見た位置R_Qjk’との距離は以下の方法で求められる。
・単純にR_PiとR_Qjk’の2点間の距離を求める。
・第1の特徴点P_iの法線と第2の特徴点Q_jkの近傍点群からもとめた平面との交点を求め、その交点と第1の特徴点の距離を計算する。
第1乃至第3実施形態では、モデルパターンは複数の特徴点で構成されるものとして説明したが、モデルパターンを構成する特徴点は複数でなければならないわけではない。モデルパターンが単一の特徴点で構成される場合には、第1実施形態のように特徴点の位置を調整する意味はない。モデルパターンの位置を調整するということは、特徴点間の相対位置関係を変更することであるためである。しかし、特徴点の追加や判定指標の変更では単一の特徴点でも意味がある。たとえば、特徴点1つでは検出結果が数多く見つかってしまう可能性がある。そのような場合に、第2実施形態のようにマッチする特徴点を追加したり、第3実施形態のように判定指標を変更したりしてモデルパターンを最適化することで、検出結果をより限定することができる。ただし、特徴点1つでは、検出結果の候補が多くなりすぎて実用上問題になる可能性がある。たとえば、特徴点としてエッジ点を使う場合には、特徴点1つではマッチする検出結果が数多く見つかってしまうだろう。しかし、SIFTなどの特徴点ではマッチする特徴点がある程度少なくなる可能性がある。
第1乃至第3実施形態において、最初にモデルパターンを作成した後、入力画像の指定および対象物の検出は、たとえば、図3に示したロボット装置の検出動作で行う。これにより、最初に設定したモデルパターンを、実際の動作で得られた画像に基づいて修正していくことができる。この場合、モデルパターンを設定した後の所定回数までは、対象物の検出におけるマッチングの範囲を広くし、ある程度広い誤差範囲の対象物を対象物と判定する。この所定回数の処理が行われるにモデルパターンの修正が行われ、モデルパターンは、より実際の対象物に適したものに修正される。そして、所定回数経過後は、修正されたモデルパターンに基づいて、マッチングの範囲を狭くするなどして正しい判定が行われる確率を高くすることなどが可能である。もちろん、対物の実際の状況に応じて逆にマッチングの範囲を広くする場合もあり得る。
上記の実際の動作に伴う画像に基づいてモデルパターンの修正を行う場合、ロボット装置が画像処理装置の検出結果に基づいて行った動作の良否の結果をモデルパターンの修正処理に反映するようにしてもよい。次に説明する第4実施形態の画像処理装置では、画像処理装置の検出結果に基づいて行った動作の良否の結果をモデルパターンの修正処理に反映する。
図19は、第4実施形態の画像処理装置における処理を示すフローチャートである。
第4実施形態の画像処理装置では、ロボット装置の画像処理装置の検出結果に基づく動作が成功した場合にのみ、その場合の対象物の画像をモデルパターンの修正に反映し、動作が失敗した場合の対象物の画像はモデルパターンの修正に反映しないようにする。
ステップS501のモデルパターンの作成は、他の実施形態と同じである。
ステップS502の画像の入力およびステップS503の対象物の検出も他の実施形態と同じであり、画像処理装置の検出結果を利用する動作毎に行われる。
ステップS504で、ステップS503の対象物の検出結果に基づいた動作が行われる。この動作の結果、動作の良否(成功したか否か)が決まり、失敗した場合にはたとえば対象物の検出結果に問題があったと仮定する。
ステップS505で検出結果の良否を判定し、良の場合(動作が成功した場合)はステップS506に進み、不良の場合(動作が失敗した場合)はステップS507に戻る。
ステップS506で、第1実施形態のS104からS106、第2実施形態のS304からS311、または第3実施形態のS404からS407で行われるモデルパターンの修正処理を行い、S502に戻る。
ステップS507で、あらかじめ決められた検出不良(動作失敗)の場合の対処動作、たとえば動作に失敗した対象物を除いたり、その画像を記録するなどの動作を行った後、ステップS502に戻る。
以上、本発明の実施形態を説明したが、各種の変形例があり得るのは言うまでもない。
1 対象物
2 作業台
10 視覚センサ
11 ロボット
12 ハンド
13 ロボット制御装置
20 視覚センサ制御装置
21 画像処理装置
22 画像処理部
23 対象物検出部
24 対応点選択部
25 モデルパターン修正部
26 モデルパターン記憶部
27 検出結果記憶部
31 操作盤
32 表示装置

Claims (12)

  1. 対象物の形状を表す複数の第1の特徴点の集合であるモデルパターンに基づいて、視覚センサで撮像した入力データ中に前記対象物の像を検出する画像処理装置であって、
    対象物が撮像された一乃至複数の入力データのそれぞれについて、該入力データから抽出した複数の第2の特徴点と、前記モデルパターンを構成する複数の第1の特徴点とのマッチングを行って前記対象物の一乃至複数の像を検出する対象物検出部と、
    前記一乃至複数の入力データから検出した一乃至複数の対象物の像のそれぞれについて、該像を構成する複数の第2の特徴点から前記モデルパターンを構成する前記複数の第1の特徴点に対応する第2の特徴点を選択し、該第2の特徴点を対応点として該第1の特徴点に関連付けて記憶する対応点選択部と、
    前記モデルパターンを構成する複数の第1の特徴点のそれぞれについて、該第1の特徴点に関連づけられた前記複数の対応点の所定の物理量の統計量を算出し、算出した前記所定の物理量の統計量に基づいて該第1の特徴点を修正するモデルパターン修正部と、
    を備えることを特徴とする画像処理装置。
  2. 前記対応点選択部は、
    前記モデルパターンを構成する複数の第1の特徴点のそれぞれについて、前記第1の特徴点に関連づけられた前記複数の対応点の所定の物理量の統計量に基づいて、前記対応点選択における対応/不対応を判定するための判定指標を求め、該判定指標を該第1の特徴点に関連付けて記憶し、
    前記モデルパターンを構成する複数の第1の特徴点のそれぞれについて、前記入力データから抽出された前記第2の特徴点の前記所定の物理量と、該第1の特徴点に関連付けられた前記判定指標とに基づいて、該第1の特徴点と該第2の特徴点が一致しているか否かを判断する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記対応点選択部は、
    前記検出した一乃至複数の対象物の像のそれぞれについて、該像を構成する複数の第2の特徴点のうち前記モデルパターンを構成する第1の特徴点のいずれとも対応しない一乃至複数の第2の特徴点を特徴点候補として記憶し、
    記憶した前記一乃至複数の特徴点候補に対応する第2の特徴点を選択すると共に、該第2の特徴点を対応点として該特徴点候補に関連付けて記憶し、
    前記モデルパターン修正部はさらに、記憶された前記一乃至複数の特徴点候補のそれぞれについて、該特徴点候補に関連づけられた複数の対応点の所定の物理量の統計量を算出すると共に、該所定の物理量の統計量に基づいて前記モデルパターンに該特徴点候補を第1の特徴点として追加する
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 対象物の形状を表す複数の第1の特徴点の集合であるモデルパターンを使用して、視覚センサで撮像した入力データ中に前記対象物の像を検出する画像処理装置であって、
    対象物が撮像された一乃至複数の入力データのそれぞれについて、該入力データから抽出した複数の第2の特徴点と、前記モデルパターンを構成する複数の第1の特徴点とのマッチングを行って前記対象物の一乃至複数の像を検出する対象物検出部と、
    前記一乃至複数の入力データから検出した一乃至複数の対象物の像のそれぞれについて、該像を構成する複数の第2の特徴点から前記モデルパターンを構成する前記複数の第1の特徴点に対応する第2の特徴点を選択し、該第2の特徴点を対応点として該第1の特徴点に関連付けて記憶すると共に、前記モデルパターンを構成する複数の第1の特徴点毎に、前記対応点の所定の物理量について所定の統計量を算出すると共に、算出された前記所定の統計量に基づいて、前記マッチングにおける一致/不一致を判定するための判定指標を求め、該判定指標を該第1の特徴点に関連付けて記憶する対応点選択部と、
    を備え、
    前記対象物検出部はさらに、前記モデルパターンを構成する複数の第1の特徴点のそれぞれについて、前記入力データから抽出された前記第2の特徴点の前記所定の物理量と、該第1の特徴点に関連付けられた前記判定指標とに基づいて、該第1の特徴点と該第2の特徴点が一致しているか否かを判断する
    ことを特徴とする画像処理装置。
  5. 前記記憶される判定指標は、前記算出された所定の統計量を含むことを特徴とする、請求項2または4に記載の画像処理装置。
  6. 前記視覚センサはカメラであり、前記入力データは濃淡画像またはカラー画像であることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記視覚センサは3次元センサであり、前記入力データは距離画像または3次元点群(ポイントクラウド)であることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  8. 前記対応点選択部は、前記一乃至複数の対象物の像から妥当でない対象物の像を除外し、妥当な対象物の像からのみ対応点を選択することを特徴とする請求項1に記載の画像処理装置。
  9. 前記モデルパターン修正部は、第1の特徴点に関連づけられた前記複数の対応点から妥当でない対応点を除外し、妥当な対応点のみを使用して前記所定の物理量の統計量を計算することを特徴とする請求項1に記載の画像処理装置。
  10. 対象物の形状を表す複数の第1の特徴点の集合であるモデルパターンに基づいて、視覚センサで撮像した入力データ中に前記対象物の像を検出する画像処理方法であって、
    対象物が撮像された一乃至複数の入力データのそれぞれについて、該入力データから抽出した複数の第2の特徴点と、前記モデルパターンを構成する複数の第1の特徴点とのマッチングを行って前記対象物の一乃至複数の像を検出する第1ステップと、
    前記一乃至複数の入力データから検出した一乃至複数の対象物の像のそれぞれについて、該像を構成する複数の第2の特徴点から前記モデルパターンを構成する前記複数の第1の特徴点に対応する第2の特徴点を選択し、該第2の特徴点を対応点として該第1の特徴点に関連付けて記憶する第2ステップと、
    前記モデルパターンを構成する複数の第1の特徴点のそれぞれについて、該第1の特徴点に関連づけられた前記複数の対応点の所定の物理量の統計量を算出し、算出した前記所定の物理量の統計量に基づいて該第1の特徴点を修正する第3ステップと、
    を備えることを特徴とする画像処理方法。
  11. 前記第2ステップと前記第3ステップの間に、
    前記モデルパターンを構成する複数の第1の特徴点のそれぞれについて、該第1の特徴点に関連づけられた前記複数の対応点から妥当でない対応点を除外するステップを備えることを特徴とする請求項10に記載の画像処理方法。
  12. 前記第1ステップと前記第2ステップの間に、
    前記検出した一乃至複数の対象物の像から、妥当でない対象物の像を除外するステップを備えることを特徴とする請求項10に記載の画像処理方法。
JP2015218357A 2015-11-06 2015-11-06 入力データから検出対象物の像を検出する画像処理装置および方法 Active JP6348093B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015218357A JP6348093B2 (ja) 2015-11-06 2015-11-06 入力データから検出対象物の像を検出する画像処理装置および方法
DE102016013274.4A DE102016013274A1 (de) 2015-11-06 2016-10-28 Bildverarbeitungsvorrichtung und verfahren zur erkennung eines bilds eines zu erkennenden objekts aus eingabedaten
CN201610959441.3A CN106682673B (zh) 2015-11-06 2016-11-03 图像处理装置以及方法
US15/343,215 US11227144B2 (en) 2015-11-06 2016-11-04 Image processing device and method for detecting image of object to be detected from input data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015218357A JP6348093B2 (ja) 2015-11-06 2015-11-06 入力データから検出対象物の像を検出する画像処理装置および方法

Publications (3)

Publication Number Publication Date
JP2017091079A JP2017091079A (ja) 2017-05-25
JP2017091079A5 JP2017091079A5 (ja) 2017-08-31
JP6348093B2 true JP6348093B2 (ja) 2018-06-27

Family

ID=58584873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015218357A Active JP6348093B2 (ja) 2015-11-06 2015-11-06 入力データから検出対象物の像を検出する画像処理装置および方法

Country Status (4)

Country Link
US (1) US11227144B2 (ja)
JP (1) JP6348093B2 (ja)
CN (1) CN106682673B (ja)
DE (1) DE102016013274A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6126437B2 (ja) 2013-03-29 2017-05-10 キヤノン株式会社 画像処理装置および画像処理方法
WO2015008798A1 (ja) * 2013-07-18 2015-01-22 三菱電機株式会社 目標類識別装置
US20160012594A1 (en) * 2014-07-10 2016-01-14 Ditto Labs, Inc. Systems, Methods, And Devices For Image Matching And Object Recognition In Images Using Textures
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6487493B2 (ja) * 2017-05-18 2019-03-20 ファナック株式会社 画像処理システム
EP3404583A1 (en) * 2017-05-19 2018-11-21 MVTec Software GmbH System and method for model adaptation
CN110245667A (zh) * 2018-03-08 2019-09-17 中华映管股份有限公司 物件辨识方法及其装置
JP6574920B1 (ja) * 2018-07-06 2019-09-11 楽天株式会社 画像処理システム、画像処理方法、及びプログラム
JP6836561B2 (ja) 2018-09-20 2021-03-03 ファナック株式会社 画像処理装置及び画像処理方法
US11029146B2 (en) * 2018-10-18 2021-06-08 Cyberoptics Corporation Three-dimensional sensor with counterposed channels
JP6863946B2 (ja) * 2018-10-31 2021-04-21 ファナック株式会社 画像処理装置
JP7378934B2 (ja) * 2019-01-29 2023-11-14 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치
CN110880003B (zh) * 2019-10-12 2023-01-17 中国第一汽车股份有限公司 一种图像匹配方法、装置、存储介质及汽车
DE112021000477T5 (de) * 2020-01-06 2022-12-01 Fanuc Corporation Objekterkennungsvorrichtung und modellmusterbewertungsvorrichtung
DE112021000595T5 (de) * 2020-01-17 2022-12-01 Fanuc Corporation Bildverarbeitungssystem
JP7324317B2 (ja) * 2020-02-04 2023-08-09 ファナック株式会社 画像処理装置
DE112021002846T5 (de) 2020-05-18 2023-03-02 Fanuc Corporation Maschinenlernvorrichtung und Maschinenlernsystem
CN112476489B (zh) * 2020-11-13 2021-10-22 哈尔滨工业大学(深圳) 基于自然特征的柔性机械臂同步测量方法及系统
JPWO2022239202A1 (ja) 2021-05-13 2022-11-17
CN115205354B (zh) * 2022-06-23 2023-04-07 中国人民解放军国防科技大学 基于ransac和icp点云配准的相控阵激光雷达成像方法

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2149149C3 (de) 1971-10-01 1978-08-31 Kloeckner-Humboldt-Deutz Ag, 5000 Koeln Verfahren zur Regelung einer Brennanlage für feinkörniges Gut mit mehreren parallelgeschalteten Vorerhitzungseinrichtungen für das Aufgabegut
DE2357653A1 (de) 1973-11-19 1975-05-28 Siemens Ag Magnetschwebefahrzeug mit einem synchronen linearmotor
JPH0737085A (ja) 1993-06-29 1995-02-07 Kawasaki Steel Corp 基準パターン作成装置
KR100414432B1 (ko) * 1995-03-24 2004-03-18 마츠시타 덴끼 산교 가부시키가이샤 윤곽추출장치
US6980690B1 (en) * 2000-01-20 2005-12-27 Canon Kabushiki Kaisha Image processing apparatus
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US7171048B2 (en) * 2002-04-10 2007-01-30 National Instruments Corporation Pattern matching system utilizing discrete curve matching with a mapping operator
JP3854229B2 (ja) * 2003-01-07 2006-12-06 株式会社東芝 画像処理装置
US7340089B2 (en) * 2004-08-17 2008-03-04 National Instruments Corporation Geometric pattern matching using dynamic feature combinations
AU2005286823B2 (en) * 2004-09-17 2009-10-01 Cyberextruder.Com, Inc. System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images
JP2008528949A (ja) * 2004-11-23 2008-07-31 ケアストリーム ヘルス インコーポレイテッド 自動形状分類の方法
JP4613617B2 (ja) * 2005-01-07 2011-01-19 ソニー株式会社 画像処理システム、学習装置および方法、並びにプログラム
KR100647322B1 (ko) * 2005-03-02 2006-11-23 삼성전자주식회사 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법
KR100817656B1 (ko) * 2005-03-15 2008-03-31 오므론 가부시키가이샤 화상 처리 방법, 3차원 위치 계측 방법 및 화상 처리 장치
JP4093273B2 (ja) * 2006-03-13 2008-06-04 オムロン株式会社 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
JP4843415B2 (ja) * 2006-08-30 2011-12-21 株式会社東芝 パターン評価方法およびプログラム
JP4950787B2 (ja) * 2007-07-12 2012-06-13 株式会社東芝 画像処理装置及びその方法
JP4926116B2 (ja) * 2008-04-16 2012-05-09 株式会社日立ハイテクノロジーズ 画像検査装置
CN101609506B (zh) * 2008-06-20 2012-05-23 索尼株式会社 用于识别图像中的模型对象的装置及方法
JP5080416B2 (ja) 2008-10-15 2012-11-21 ファナック株式会社 入力画像から検出対象物の像を検出する画像処理装置
US8204301B2 (en) * 2009-02-25 2012-06-19 Seiko Epson Corporation Iterative data reweighting for balanced model learning
JP5287550B2 (ja) * 2009-07-01 2013-09-11 富士通株式会社 生体認証システム,生体認証方法,生体認証装置,生体情報処理装置,生体認証プログラムおよび生体情報処理プログラム
WO2011086889A1 (ja) * 2010-01-12 2011-07-21 日本電気株式会社 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
US20140050392A1 (en) * 2012-08-15 2014-02-20 Samsung Electronics Co., Ltd. Method and apparatus for detecting and tracking lips
JP5263437B2 (ja) * 2012-09-07 2013-08-14 カシオ計算機株式会社 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
CN110909825A (zh) * 2012-10-11 2020-03-24 开文公司 使用概率模型在视觉数据中检测对象
JP6044293B2 (ja) 2012-11-19 2016-12-14 株式会社Ihi 3次元物体認識装置および3次元物体認識方法
JP6126437B2 (ja) * 2013-03-29 2017-05-10 キヤノン株式会社 画像処理装置および画像処理方法
EP2808828B1 (en) * 2013-05-31 2020-08-05 Omron Corporation Image matching method, image matching device, model template generation method, model template generation device, and program
US9715761B2 (en) * 2013-07-08 2017-07-25 Vangogh Imaging, Inc. Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis
WO2015008798A1 (ja) * 2013-07-18 2015-01-22 三菱電機株式会社 目標類識別装置
GB2518589B (en) * 2013-07-30 2019-12-11 Holition Ltd Image processing
JP6557943B2 (ja) * 2014-01-15 2019-08-14 オムロン株式会社 画像照合装置、画像センサ、処理システム、画像照合方法
US9646201B1 (en) * 2014-06-05 2017-05-09 Leap Motion, Inc. Three dimensional (3D) modeling of a complex control object
JP6372198B2 (ja) * 2014-07-01 2018-08-15 セイコーエプソン株式会社 ロボットシステム及び処理装置
JP6426968B2 (ja) * 2014-10-08 2018-11-21 キヤノン株式会社 情報処理装置およびその方法

Also Published As

Publication number Publication date
CN106682673B (zh) 2019-08-20
CN106682673A (zh) 2017-05-17
DE102016013274A1 (de) 2017-05-11
JP2017091079A (ja) 2017-05-25
US11227144B2 (en) 2022-01-18
US20170132451A1 (en) 2017-05-11

Similar Documents

Publication Publication Date Title
JP6348093B2 (ja) 入力データから検出対象物の像を検出する画像処理装置および方法
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
US10430650B2 (en) Image processing system
US11830216B2 (en) Information processing apparatus, information processing method, and storage medium
JP6736257B2 (ja) 情報処理装置、情報処理方法、プログラム
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP6836561B2 (ja) 画像処理装置及び画像処理方法
US10771776B2 (en) Apparatus and method for generating a camera model for an imaging system
JP2017091079A5 (ja)
CN107680125B (zh) 在视觉系统中自动选择三维对准算法的系统和方法
JP6860620B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN110415304B (zh) 一种视觉标定方法及系统
JP6936974B2 (ja) 位置姿勢推定装置、位置姿勢推定方法及びプログラム
JP2017130067A (ja) 衛星映像の位置正確度改善のための自動映像処理システム及びその方法
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2730457B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JP6863946B2 (ja) 画像処理装置
US20210042576A1 (en) Image processing system
Kim et al. Mesh modelling of 3D point cloud from UAV images by point classification and geometric constraints
CN109242894B (zh) 一种基于移动最小二乘法的图像对齐方法及系统
EP2953096B1 (en) Information processing device, information processing method, system and carrier means
KR101775124B1 (ko) 위성영상의 위치 정확도 개선을 위한 자동영상처리시스템 및 방법
US20230011093A1 (en) Adjustment support system and adjustment support method
WO2021157528A1 (ja) 画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180530

R150 Certificate of patent or registration of utility model

Ref document number: 6348093

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150