JP2007128374A - 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 - Google Patents
物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 Download PDFInfo
- Publication number
- JP2007128374A JP2007128374A JP2005321620A JP2005321620A JP2007128374A JP 2007128374 A JP2007128374 A JP 2007128374A JP 2005321620 A JP2005321620 A JP 2005321620A JP 2005321620 A JP2005321620 A JP 2005321620A JP 2007128374 A JP2007128374 A JP 2007128374A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- point
- coordinates
- model
- reference point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/48—Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
- G06V10/7515—Shifting the patterns to accommodate for positional errors
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】処理対象画像31上で抽出されたエッジ点E毎に、あらかじめ登録されたN個のモデルエッジ点の情報を用いて、認識対象物の基準点Oの座標(X,Y)および回転角度Θを算出する。さらに、2次元の投票平面S,Cの座標(X,Y)に、それぞれsinΘ,cosΘを投票するとともに、座標毎に投票された値の累計値を算出する。投票処理が終了すると、各平面の累計値を座標毎に対応づけてこれらの自乗和(S(X,Y))2+(C(X,Y))2を求め、これを投票平面Pに投票する。そして、この投票平面Pにおいて最大値が得られる座標(XP,YP)を抽出し、これを基準点Oの座標として認識する。また平面S,Cの前記座標(XP,YP)における累計値を用いて、回転角度を算出する。
【選択図】図3
Description
図12は、前記基準画像上の任意のモデルエッジ点の登録情報を示す。図中の30は基準画像であり、点Oは前記モデルの基準点、点M(座標を(X0,Y0)とする。)は前記モデルエッジ点である。基準点Oには、モデルの中心点が用いられることが多いが、これに限らず、ユーザーにより指定された任意の点を基準点Oにすることもできる。
上記のエッジ点Eが前記モデルエッジ点Mに該当するならば、認識対象物の回転によりエッジ方向が変化しても、前記基準点Oに対する関係を表す角度φ、距離Rは、モデルエッジ点Mと同一になるはずである。よって、エッジ点Eの座標(x,y)、角度β、および登録された角度φ、距離Rを用いて、基準点Oの座標を特定することができる。またこのとき、エッジ方向を示す角度βと前記登録された角度αとの差Θ(Θ=β−α)は、処理対象画像上の物体の回転角度に相当することになる。
たとえば、Rの値が最適値よりも小さく設定されている場合に処理対象画像に多数のノイズが含まれていると、ノイズに対しても、R回を超える連続投票が発生する可能性がある。反対にRの値が最適値よりも大きく設定されている場合には、認識対象物のエッジ点でも連続投票回数がR回に達しない可能性がある。
また、たとえば、カラー画像を対象とする場合には、互いに独立した3つの色変数(たとえばR,G,B)により規定された各画素の情報のうちの少なくとも1つの変数についての変化の勾配が所定値を超える画素を、エッジ点として抽出することができる。なお、変数は、明度や色相、R,G,Bの各強度のほか、その他の色彩を表現する3変数のいずれかや、それらを用いて得られる色情報であってもよい。
投票処理では、処理対象画像上の各エッジ点につき、それぞれモデルエッジ点毎に求めた前記基準点の座標に、その座標とともに算出された回転角度に対応するベクトルを投票するとともに、投票のあった座標毎に、投票されたベクトルの合成ベクトルを示す数値情報を算出する。さらに物体認識処理では、投票処理および合成ベクトルを示す数値情報の算出処理が終了したことに応じて、前記数値情報を用いて前記投票のあった座標の中から前記合成ベクトルの長さが所定値を超える座標、もしくは各合成ベクトルを長さが最大のものから順にみた場合の所定数のベクトルに対応する座標を抽出し、この抽出結果を用いて前記物体の位置および対象物の回転角度を認識する。
また、認識対象物を1つに限定できる場合には、前記投票のあった座標の中から前記合成ベクトルの長さが最大になる座標を抽出し、この座標に基づき、輪郭パターンの位置および回転角度を認識してもよい。
一方、輪郭パターンの角度については、たとえば前記合成ベクトルの長さが所定値を超える座標における当該合成ベクトルから求めることができる。たとえば、水平方向(X軸方向)に対して合成ベクトルがなす角度を求めることができる。
この態様では、前記合成ベクトルを示す数値情報を用いて抽出された座標に基づき前記物体の仮の位置および仮の回転角度を求めた後に、各モデルエッジ点について、前記仮の位置および仮の回転角度に基づき処理対象画像上の対応点を求めるステップaと、前記対応点を含む局所領域内に含まれるエッジ点につき、前記モデルエッジ点の登録情報を用いて基準点の座標およびモデルに対する回転角度を算出するステップbとを実行する。そして、各モデルエッジ点につき前記ステップa,bにより求めた基準点の座標を平均化するとともに、前記回転角度を示すベクトルを合成し、平均化された基準点の座標および前記合成ベクトルの示す角度に基づき、前記物体の位置および回転角度として認識する。
ステップbでは、たとえば前記対応点を中心とする局所領域(マスク)を設定し、その領域に含まれる各エッジ点に前記対応点の算出に使用したモデルエッジ点を対応づけ、基準点の座標および前記エッジ方向の差を示す角度を算出する。これら局所領域内のエッジ点は、前記モデルエッジ点に対応するか、モデルエッジ点にきわめて近い点である可能性が高いから、算出された座標や角度の分散もきわめて小さいと考えられる。よって、これらの基準点の座標を平均化することによって、真の基準点の座標を精度良く求めることができる。また、各基準点の座標とともに求められた角度による合成ベクトルによって、回転角度を精度良く求めることができる。
なお、平均値を算出するのに代えて、前記局所領域において求めた座標および角度に対応するベクトルを、先の投票処理時よりスケールの細かい投票平面に投票してもよい。
この態様では、前記合成ベクトルを示す数値情報を用いて抽出された座標に基づき前記輪郭パターンの位置および回転角度を認識した後に、前記モデルに対応する輪郭形状を有する1または複数の濃淡画像を用いたモデルを用いて、前記輪郭パターンの位置および回転角度を反映した正規化相関演算を実行する。
これに対し、上記の態様Bによれば、先に一般化ハフ変換によって、対象物のおよその位置および回転角度が求められているので、たとえば、認識された物体の位置に濃淡画像モデルを設定し、このモデルを前記回転角度を基準に回転補正して正規化相関演算を実行すれば良くなり、正規化相関演算にかかる処理時間を大幅に削減できる。しかも、その限定された処理時間において、精度の高い検索処理を実行することができる。
この態様では、処理対象画像上のエッジ点毎に前記基準点の座標の候補の値を求める処理において、前記エッジ方向に対する基準点の前記登録された方位とこれに反転する方位とについて、前記基準点の座標の候補を1つずつ算出する。
たとえば、前記図14の処理対象画像31の場合、エッジ点Eに対し、前記角度βが示すエッジ方向から角度φの方向、およびこの方向を180°回転させた方向において、それぞれエッジ点Eから距離Rだけ離れた点の座標を算出する。
この態様では、前記各モデルエッジ点についての登録処理が終了したことを条件に、前記基準画像上の各エッジ点につき、それぞれ前記各モデルエッジ点の前記登録情報を用いて基準点の座標およびエッジの方向の回転角度の候補の値を求めた後、前記投票処理および前記合成ベクトルを示す数値情報の算出処理を実行する。そして、すべてのエッジ点にかかる投票が終了したときの前記数値情報が表す合成ベクトルの長さが所定のしきい値を下回るとき、前記基準点の設定および各モデルエッジ点についての登録処理を再度実行する。
このような処理によれば、対象物の位置および回転角度を求めるのに適した基準点を設定することができるから、認識対象物の形状に関わらず、精度の高い認識処理を実行することができる。
この態様では、複数の座標が異なる点を前記基準点に設定し、処理対象画像について、前記基準点の座標を求める処理および投票処理を基準点毎に実行する。
たとえば、モデルの中心点や重心のみが基準点に設定されていると、処理対象画像中に、モデルに対応する輪郭が複数重ね合わせられた形状の物体が存在する場合でも、モデルに対応する形状毎の基準点が重なって1点として抽出され、物体全体としての輪郭形状を正しく認識できない可能性がある。
認識手段は、前記抽出手段による抽出結果を用いて前記輪郭パターンの位置および回転角度を認識する。
図1は、この発明が適用された画像処理装置の設置例を示す。
この実施例の画像処理装置は、カメラ1、コントローラ2、モニタ3、コンソール4などにより構成されており、工場の検査ラインLにおいて、搬送されてくるワークWを順に撮像して画像を生成し、その画像を処理することによって、前記ワークW上の認識対象物7(この実施例では、文字列「ABC」が印刷されたラベル)の適否を判別する。
前記コントローラ2は、CPU21を制御主体として、フラッシュメモリ22、RAM23、グラフィックコントローラ24、カメラ用インターフェース25、入力用インターフェース26、外部用インターフェース27などを具備する。
カメラ用インターフェース25には、前記カメラ1の駆動回路、画像信号を受け付けるためのバッファ、A/D変換回路(いずれも図示せず。)などが含まれる。入力用インターフェース26は、前記コンソール4からの信号を受け付けるためのものである。外部用インターフェース27は、図示しない外部機器(パーソナルコンピュータ、PLCなど)と通信する際に使用される。グラフィックコントローラ24は、前記モニタに対する表示制御を実行する。
また、この実施例の画像処理装置は、モノクロ濃淡画像を処理するものであるが、これに代えて、カラー濃淡画像を生成して処理することも可能である。
この実施例の画像処理装置では、前記ワークW毎に処理対象画像を生成し、各処理対象画像に一般化ハフ変換の手法を用いた物体認識処理を行うことによって、認識対象物7を抽出している。
一般化ハフ変換を行うには、従来と同様に、ワークWのモデルを撮像して得られた画像を基準画像として、この基準画像を用いた登録処理を行う必要がある。たとえば、基準画像上のラベルのうち、前記「ABC」の文字列を含む領域を指定して、その領域の任意の1点を基準点に設定する。また、前記指定領域中に含まれる複数のエッジ点(ラベルおよびA,B,Cの各文字の輪郭線を構成する点)をモデルエッジ点として抽出し、これらについて、エッジ方向を表す角度α、基準点に対する方位を示す角度φ、基準点との距離Rをそれぞれ算出し、RAM23に登録する。なお、この実施例におけるα,φ,Rは、いずれも前記図12に示した従来例と同様に定義づけられ、前記図13に示したのと同様の構成のテーブルに登録される(以下、このテーブルを「モデルテーブル」という。)。
X=Ri*cos(φi+β)+x ・・・(1)
Y=Ri*sin(φi+β)+y ・・・(2)
Θ=β−αi ・・・(3)
すなわち、各平面S,Cには、基準点の候補として算出された座標毎に、投票された値の累積値が格納されることになる。
ここで、座標(X,Y)が基準点Oの正しい座標にあたらなければ、複数の投票があったとしても、各投票における角度Θの分散が大きくなり、その結果、合成ベクトルは小さくなると考えられる。これに対し、座標(X,Y)が基準点Oの正しい座標であれば、各投票における角度Θの分散はきわめて小さくなり、その結果、合成ベクトルの長さは、他の座標で得られるものより大きくなると考えられる。
以下、上記の一般化ハフ変換による認識対象物の抽出処理を中心に、前記画像処理装置で実行される検査の流れを説明する。
まず、図4は、検査時にコントローラ2で実施される処理手順を示す。
この図5の処理では、前記初期サーチおよび詳細サーチに使用されるモデルエッジ点の情報とともに、前記差分演算処理に用いる基準部分画像が登録される。
なお、角度αi、角度φi、距離Riは、いずれも図12の従来例に示したのと同様の基準で算出される。
この後は、ST107に戻り、新たに設定された基準点Oに基づき、各モデルエッジ点にかかる登録処理を再度実行する。
さらにST118では、前記基準画像から前記ST102で指定された領域内の画像を切り出し、これを、前記画像間差分演算用の基準部分画像として登録する。
まず最初のST201では、前記3つの投票平面S,C,Pを構成する2次元配列を初期化(ゼロクリア)する。
この結果、すべてのエッジ点に対する処理が終了すると、ST209が「YES」となってST210に進み、前記平面S,Cのすべての座標毎に、S(X,Y)とC(X,Y)との自乗和を求め、これをP(X,Y)に格納する。
この実施例の詳細サーチでは、前記基準点Oの座標および回転角度をより正確に求めることを目的として、初期サーチの結果を用いて、モデルエッジ点毎に処理対象画像の限定された範囲のエッジ点を用いた処理を実行している。
まず最初のST301において、前記モデルエッジ点を特定するためのカウンタiに初期値0をセットする。つぎにST302では、前記初期サーチで求めたXP,YP,ΘPを用いてつぎの(5)(6)式により、i番目のモデルエッジ点に対応する座標(xm、ym)を求める。
ym=Xp+Ri*sin(ΘP−φi) ・・・(6)
XV=xj+Ri*cos(βj+φi) ・・・(7)
YV=yj+Ri*sin(βj+φi) ・・・(8)
ΘV=βj−αi ・・・・(9)
このため、この実施例では、前記ST306で求めた(XV,YV,ΘV)と前記初期サーチで求めた(XP,YP,ΘP)とをそれぞれ3次元空間の1点として捉えて、これらの点の間の距離Dを求め、この距離を所定のしきい値D0と比較するようにしている(ST307,308)。ここで前記距離Dが距離D0より大きい場合には、(XV,YV,ΘV)は、ST309の演算の対象から除外される。
かくして、すべてのモデルエッジ点について上記の処理が実行されると、ST313に進み、基準点Oの座標について、前記累積値Xc,Ycおよび処理回数ncを用いて平均値を算出し、これを最終の値XR,YRとする。また回転角度についても、前記Sc,Ccを用いて、前記合成ベクトルの角度を求め、これを最終の値ΘRとする。
またいずれのモデルエッジ点についても、その対応点およびその近傍のエッジ点から求めた座標や回転角度を求めるので、最終的に算出されたXR,YR,ΘRは、初期サーチで求めたXP,YP,ΘPよりも精度の良いものとなる。
上記実施例に示した画像処理装置では、さらに以下のa,b,c,dに示すような処理を実行することができる。
前記図4に示した検査の手順では、前記初期サーチや詳細サーチによって、基準点Oの座標(XR,YR)および認識対象物の回転角度ΘRを特定した後は、画像間差分演算を実行しているが、この処理に代えて、またはこの処理に加えて、正規化相関演算による認識処理を実行してもよい。この場合、処理対象画像から基準部分画像に対応する画像を切り出して回転ずれ補正を実行し、その補正後の画像に前記基準部分画像を用いた正規化相関演算を実行することによって、基準部分画像に対する類似度を求めることができる。または、基準部分画像を前記回転角度ΘRにより補正した後に、その基準点を前記処理対象画像上の座標(XR,YR)に合わせて正規化相関演算を実行してもよい。
また、基準部分画像を複数種登録しておき、基準部分画像毎に正規化相関演算を実行してもよい。
しかし、一般化ハフ変換によって、認識対象物の位置や回転角度を求めておけば、正規化相関演算を実行する範囲を限定でき、また回転モデルを作成する必要もなくなるから、処理時間を大幅に短縮して、精度の高い認識処理を実行することができる。
前記図5に示したモデル登録処理では、認識対象物の形状に応じて複数の基準点を設定してもよい。
たとえば、図9(A)に示すように、所定の形状を有するモデルについて、その中心点が基準点Oとして設定されている場合に、モデルと同じ形状とこれに反転する形状とが重なって点対称の形状になった認識対象物が存在すると、前記したように、基準点Oに対する得票が小さくなり、基準点Oを正しく抽出できなくなる可能性がある。また、基準点Oを抽出できた場合でも、モデルに対応する形状が2つ存在することまでは認識できない。
たとえば、図10に示すように、モデルと認識対象物との間で明暗の関係が逆になっていると、処理対象画像のエッジ点における濃度勾配方向も基準画像とは反対の方向を向くことになる。このようなケースが想定される場合には、図11に示すように、処理対象画像上の各エッジ点Eについて、前記角度βが示す方向h1およびこれに反転する方向h2からそれぞれ反時計回りに角度φ回転した方向において、基準点の候補点O1,O2の座標を求める必要がある。
前記した実施例では、回転角度Θの正弦および余弦の値を投票するようにしたが、これに代えて、回転角度Θに対応するベクトルの水平成分および垂直成分を投票してもよい。この場合の各成分は、回転角度Θに応じた正または負の値で表されるから、前記図3に示したのと同様に、投票のあった座標(X,Y)毎に各成分の累積値を求め、最終的な値の自乗和を求める方法によって、認識対象物の位置や回転角度を精度良く求めることができる。
7 認識対象物
21 CPU
22 フラッシュメモリ
23 RAM
30 基準画像
31 処理対象画像
Claims (11)
- 所定の輪郭形状を有するモデルを含む基準画像を用いて、基準点の座標を設定するとともに、前記モデルの輪郭を構成する複数のモデルエッジ点に個別に着目し、画素情報を規定する1または複数の変数の中の所定の変数について、着目画素とその周辺の画素についての前記所定の変数に基づいて前記着目画素における前記所定の変数の変化の方向を求め、その変化の方向に対応する方向であるエッジ方向と、前記基準点の前記エッジ方向に対する方位と、前記基準点からの距離とを示す情報を登録し、
前記画素情報を規定する1または複数の変数の中の所定の変数について、着目画素とその周辺の画素についての前記所定の変数に基づいて着目画素における前記所定の変数の変化の勾配を求めたときに、その勾配が所定値を超える着目画素をエッジ点とする場合の当該エッジ点を含む画像を処理対象として、その処理対象画像上の複数のエッジ点に対し、当該エッジ点の座標およびエッジ方向を求めるとともに、前記複数のモデルエッジ点がそれぞれ前記エッジ点に該当するとしたときに前記登録情報から規定される基準点の座標、およびエッジ点のエッジ方向とモデルエッジ点のエッジ方向との差を示す角度を算出する処理と、算出された各値に基づく投票処理とを実行し、前記投票処理の結果を用いて前記モデルに対応する輪郭パターンの位置および前記モデルを基準にした輪郭パターンの回転角度を認識する方法であって、
前記投票処理として、前記処理対象画像上の各エッジ点につき、それぞれモデルエッジ点毎に求めた前記基準点の座標に、その座標とともに算出された角度に対応するベクトルを投票するとともに、投票のあった座標毎に、投票されたベクトルの合成ベクトルを示す数値情報を算出し、
前記投票処理および合成ベクトルを示す数値情報の算出処理が終了したことに応じて、前記数値情報を用いて前記投票のあった座標の中から前記合成ベクトルの長さが所定値を超える座標、もしくは各合成ベクトルを長さが最大のものから順にみた場合の所定数のベクトルに対応する座標を抽出し、この抽出結果を用いて前記輪郭パターンの位置および回転角度を認識することを特徴とする物体認識方法。 - 請求項1に記載された物体認識方法において、
前記投票処理では、投票される座標毎に、前記回転角度の正弦および余弦の累積値を求め、これら2種類の累積値の自乗和を前記合成ベクトルの長さとして算出する物体認識方法。 - 請求項1に記載された物体認識方法において、
前記投票処理では、投票される座標毎に、前記回転角度に対応するベクトルを水平および垂直の2方向に分解した場合の各ベクトルの向きおよび長さを表す数値情報を求め、これら2種類の累積値の自乗和を前記合成ベクトルの長さとして算出する物体認識方法。 - 請求項1〜3のいずれかに記載された物体認識方法において、
前記合成ベクトルを示す数値情報を用いて抽出された座標に基づき前記物体の仮の位置および仮の回転角度を求めた後に、各モデルエッジ点について、前記仮の位置および仮の回転角度に基づき処理対象画像上の対応点を求めるステップaと、前記対応点を含む局所領域内に含まれるエッジ点につき、前記モデルエッジ点の登録情報を用いて基準点の座標および前記エッジ方向の差を示す角度を算出するステップbとを実行し、
各モデルエッジ点につき前記ステップa,bにより求めた基準点の座標を平均化するとともに、前記回転角度を示すベクトルを合成し、平均化された基準点の座標および前記合成ベクトルの示す角度に基づき、前記物体の位置および回転角度を認識する物体認識方法。 - 請求項1〜3のいずれかに記載された物体認識方法において、
前記合成ベクトルを示す数値情報を用いて抽出された座標に基づき前記輪郭パターンの位置および回転角度を認識した後に、前記モデルに対応する輪郭形状を有する1または複数種の濃淡画像モデルを用いて、前記輪郭パターンの位置および回転角度を反映した正規化相関演算を実行する物体認識方法。 - 請求項1〜5のいずれかに記載された物体認識方法において、
前記処理対象画像上のエッジ点毎に前記基準点の座標の値を求める処理では、モデルエッジ点毎に、前記エッジ方向に対する基準点の前記登録された方位とこれに反転する方位とについて、前記基準点の座標の候補を1つずつ算出する物体認識方法。 - 請求項1〜6のいずれかに記載された物体認識方法において、
前記各モデルエッジ点についての登録処理が終了したことを条件に、前記基準画像上の各エッジ点につき、それぞれ前記各モデルエッジ点の前記登録情報を用いて基準点の座標およびエッジの方向の回転角度の値を求めた後、前記投票処理および前記合成ベクトルを示す数値情報の算出処理を実行してゆき、
すべてのエッジ点にかかる投票が終了したときの前記数値情報が表す合成ベクトルの長さが所定のしきい値を下回るとき、前記基準点を異なる座標に設定して、各モデルエッジ点についての登録処理を再度実行する物体認識方法。 - 請求項1〜7のいずれかに記載された物体認識方法において、
複数の座標が異なる点を基準点に設定し、処理対象画像について、前記基準点の座標を求める処理および投票処理を基準点毎に実行する物体認識方法。 - 所定の輪郭形状を有するモデルを含む基準画像を用いて、基準点の座標を設定するとともに、前記モデルの輪郭を構成する複数のモデルエッジ点に個別に着目し、画素情報を規定する1または複数の変数の中の所定の変数について、着目画素とその周辺の画素についての前記所定の変数に基づいて前記着目画素における前記所定の変数の変化の方向を求め、その変化の方向に対応する方向であるエッジ方向と、前記基準点の前記エッジ方向に対する方位と、前記基準点からの距離とを示す情報を登録する機能;および前記画素情報を規定する1または複数の変数の中の所定の変数について、着目画素とその周辺の画素についての前記所定の変数に基づいて着目画素における前記所定の変数の変化の勾配を求めたときに、その勾配が所定値を超える着目画素をエッジ点として抽出する場合の当該エッジ点を含む画像を処理対象として、その処理対象画像上の複数のエッジ点に対し、前記エッジ点の座標およびエッジ方向を求める機能を有するコンピュータに対し、前記処理対象画像から前記モデルに対応する輪郭パターンの位置および前記モデルを基準にした輪郭パターンの回転角度を認識する機能を、設定するためのプログラムであって、
前記処理対象画像上の複数のエッジ点につき、それぞれ前記各モデルエッジ点の登録情報を用いて、登録された各モデルエッジ点がそれぞれ前記エッジ点に該当するとしたときに規定される基準点の座標、およびエッジ点のエッジ方向とモデルエッジ点のエッジ方向との差を示す角度を算出する候補値算出手段;
前記候補値算出手段が算出した角度に対応するベクトルを基準点の座標毎に合成した場合の当該合成ベクトルを表す数値情報を記憶するための記憶手段;
前記候補値算出手段により基準点の座標および角度の算出が行われる都度、算出された基準点の座標に対応する前記記憶手段内の数値情報を、算出された角度を用いて更新する情報更新手段;
前記候補値算出手段および情報更新手段による処理が終了したことに応じて、前記記憶手段に格納された数値情報を用いて前記合成ベクトルの長さが所定値を超える座標、もしくは各合成ベクトルを長さが最大のものから順にみた場合の所定数のベクトルに対応する座標を抽出する抽出手段;
前記抽出手段による抽出結果を用いて前記輪郭パターンの位置および回転角度を認識する認識手段;
の各手段として前記コンピュータを機能させるための物体認識処理用のプログラム。 - 請求項9に記載されたプログラムが記憶された記憶媒体。
- 画素情報を規定する1または複数の変数の中の所定の変数について、着目画素とその周辺の画素についての前記所定の変数に基づいて着目画素における前記所定の変数の変化の勾配を求めたときに、その勾配が所定値を超える着目画素をエッジ点とする場合の当該エッジ点を含む画像を入力するための画像入力手段;
所定の輪郭形状を有するモデルを含む基準画像が前記画像入力手段から入力されたとき、この基準画像を用いて基準点の座標を設定するとともに、前記モデルの輪郭を構成する複数のモデルエッジ点について、前記所定の変数の変化の方向に対応する方向であるエッジ方向と、前記基準点の前記エッジ方向に対する方位と、前記基準点からの距離とを示す情報を登録する登録手段;
前記画像入力手段から処理対象画像が入力されたとき、その処理対象画像上の複数のエッジ点につき、それぞれ前記各モデルエッジ点の登録情報を用いて、登録された各モデルエッジ点がそれぞれ前記エッジ点に該当するとしたときに規定される基準点の座標、およびエッジ点のエッジ方向とモデルエッジ点のエッジ方向との差を示す角度を算出する候補値算出手段;
前記候補値算出手段が算出した角度に対応するベクトルを基準点の座標毎に合成した場合の当該合成ベクトルを表す数値情報を記憶するための記憶手段;
前記候補値算出手段により基準点の座標および角度の算出が行われる都度、算出された基準点の座標に対応する前記記憶手段内の数値情報を、算出された角度を用いて更新する情報更新手段;
前記候補値算出手段および情報更新手段による処理が終了したことに応じて、前記記憶手段に格納された数値情報を用いて前記合成ベクトルの長さが所定値を超える座標、もしくは各合成ベクトルを長さが最大のものから順にみた場合の所定数のベクトルに対応する座標を抽出する抽出手段;
前記抽出手段による抽出結果を用いて前記モデルに対応する輪郭パターンの位置および前記モデルを基準にした輪郭パターンの回転角度を認識する認識手段;
の各手段を具備する物体認識装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005321620A JP4042780B2 (ja) | 2005-11-04 | 2005-11-04 | 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 |
EP06022163A EP1783663A3 (en) | 2005-11-04 | 2006-10-23 | Object recognizing method, program and storage medium for recognizing object, and object recognizing apparatus |
US11/588,427 US20070104358A1 (en) | 2005-11-04 | 2006-10-27 | Object recognizing method, program and storage medium for recognizing object, and object recognizing apparatus |
CNB2006101432578A CN100430960C (zh) | 2005-11-04 | 2006-11-01 | 物体识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005321620A JP4042780B2 (ja) | 2005-11-04 | 2005-11-04 | 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007128374A true JP2007128374A (ja) | 2007-05-24 |
JP4042780B2 JP4042780B2 (ja) | 2008-02-06 |
Family
ID=37845298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005321620A Expired - Fee Related JP4042780B2 (ja) | 2005-11-04 | 2005-11-04 | 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20070104358A1 (ja) |
EP (1) | EP1783663A3 (ja) |
JP (1) | JP4042780B2 (ja) |
CN (1) | CN100430960C (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015082323A (ja) * | 2013-10-24 | 2015-04-27 | 株式会社リコー | 物体検出方法及び装置 |
JP2021082310A (ja) * | 2013-03-11 | 2021-05-27 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 拡張現実および仮想現実のためのシステムおよび方法 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4001162B2 (ja) * | 2005-11-04 | 2007-10-31 | オムロン株式会社 | 画像処理方法、画像処理用のプログラムならびにその記憶媒体、および画像処理装置 |
US7945117B2 (en) * | 2006-08-22 | 2011-05-17 | Siemens Medical Solutions Usa, Inc. | Methods and systems for registration of images |
JP5022045B2 (ja) * | 2007-01-24 | 2012-09-12 | 富士通株式会社 | 作業位置を特定するためのシステム、作業セル、方法、製品の製造方法、およびマーカ |
CN101388077A (zh) * | 2007-09-11 | 2009-03-18 | 松下电器产业株式会社 | 目标形状检测方法及装置 |
CN100538726C (zh) * | 2008-01-31 | 2009-09-09 | 浙江工业大学 | 基于图像矢量化技术的服装样片自动录入装置 |
CN101853514B (zh) * | 2009-04-02 | 2011-10-05 | 肖克炎 | 彩色地质图图像的交互式矢量化方法及其系统 |
US8478049B2 (en) * | 2009-04-29 | 2013-07-02 | Coherix, Inc. | Method for fixed-rotation and rotation-independent image correlation |
JP5561214B2 (ja) * | 2011-03-15 | 2014-07-30 | オムロン株式会社 | 画像処理装置および画像処理プログラム |
US9013714B2 (en) * | 2011-12-06 | 2015-04-21 | The Procter & Gamble Company | Method of analyzing video or image data of an absorbent article |
JP5928748B2 (ja) * | 2014-07-31 | 2016-06-01 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 同一種類の複数の認識対象物体が検索対象画像中に存在する場合に、それぞれの認識対象物体の位置および向きを精度良く求める手法 |
EP3109823A1 (en) * | 2015-06-22 | 2016-12-28 | Sick IVP AB | Method and arrangements for estimating one or more dominating orientations in a digital image |
WO2018151008A1 (ja) * | 2017-02-14 | 2018-08-23 | 日本電気株式会社 | 画像認識システム、画像認識方法及び記録媒体 |
CN110476037B (zh) * | 2017-04-03 | 2022-01-11 | 富士通株式会社 | 距离信息处理装置、距离信息处理方法以及距离信息处理程序 |
CN107273608B (zh) * | 2017-06-13 | 2020-06-30 | 中国石油大学(华东) | 一种油藏地质剖面图矢量化方法 |
CN112215047B (zh) * | 2019-07-12 | 2024-09-06 | 南京伶机宜动驱动技术有限公司 | 基于图像识别的穿刺打孔取样系统及方法 |
CN112238032A (zh) * | 2020-09-04 | 2021-01-19 | 上海尧崇智能科技有限公司 | 一种涂胶路径生成方法、生成装置、生成系统及计算机可读存储介质 |
CN113409370B (zh) * | 2021-06-25 | 2023-04-18 | 浙江商汤科技开发有限公司 | 图像配准方法及相关装置、设备 |
CN116036421B (zh) * | 2023-01-19 | 2023-12-22 | 成都市凯瑞医疗科技有限公司 | 一种智能可穿戴式自动穿刺设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5247587A (en) * | 1988-07-15 | 1993-09-21 | Honda Giken Kogyo Kabushiki Kaisha | Peak data extracting device and a rotary motion recurrence formula computing device |
JPH0488489A (ja) * | 1990-08-01 | 1992-03-23 | Internatl Business Mach Corp <Ibm> | 一般化ハフ変換を用いた文字認識装置および方法 |
US5638465A (en) * | 1994-06-14 | 1997-06-10 | Nippon Telegraph And Telephone Corporation | Image inspection/recognition method, method of generating reference data for use therein, and apparatuses therefor |
JP3525896B2 (ja) * | 1999-03-19 | 2004-05-10 | 松下電工株式会社 | 3次元物体認識方法および同方法を使用したビンピッキングシステム |
US6807286B1 (en) * | 2000-04-13 | 2004-10-19 | Microsoft Corporation | Object recognition using binary image quantization and hough kernels |
JP3776340B2 (ja) * | 2000-09-27 | 2006-05-17 | エムヴイテック・ソフトウェア・ゲーエムベーハー | 対象物認識システム及び方法 |
US7085432B2 (en) * | 2002-06-10 | 2006-08-01 | Lockheed Martin Corporation | Edge detection using Hough transformation |
-
2005
- 2005-11-04 JP JP2005321620A patent/JP4042780B2/ja not_active Expired - Fee Related
-
2006
- 2006-10-23 EP EP06022163A patent/EP1783663A3/en not_active Withdrawn
- 2006-10-27 US US11/588,427 patent/US20070104358A1/en not_active Abandoned
- 2006-11-01 CN CNB2006101432578A patent/CN100430960C/zh not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021082310A (ja) * | 2013-03-11 | 2021-05-27 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 拡張現実および仮想現実のためのシステムおよび方法 |
JP7002684B2 (ja) | 2013-03-11 | 2022-01-20 | マジック リープ, インコーポレイテッド | 拡張現実および仮想現実のためのシステムおよび方法 |
JP2015082323A (ja) * | 2013-10-24 | 2015-04-27 | 株式会社リコー | 物体検出方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
EP1783663A3 (en) | 2007-05-30 |
JP4042780B2 (ja) | 2008-02-06 |
EP1783663A9 (en) | 2007-07-25 |
EP1783663A2 (en) | 2007-05-09 |
CN100430960C (zh) | 2008-11-05 |
CN1959706A (zh) | 2007-05-09 |
US20070104358A1 (en) | 2007-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4042780B2 (ja) | 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置 | |
US7133572B2 (en) | Fast two dimensional object localization based on oriented edges | |
US20120082385A1 (en) | Edge based template matching | |
WO2012053521A1 (ja) | 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム | |
US20150262346A1 (en) | Image processing apparatus, image processing method, and image processing program | |
CN110926330B (zh) | 图像处理装置和图像处理方法 | |
JP2006507722A (ja) | 表面の生来の視覚的特徴を用いて3次元シーンにおける表面の追跡 | |
JPS62267610A (ja) | 対象パタ−ンの回転角検出方式 | |
JP5468332B2 (ja) | 画像特徴点抽出方法 | |
US20130058526A1 (en) | Device for automated detection of feature for calibration and method thereof | |
CN111507908A (zh) | 图像矫正处理方法、装置、存储介质及计算机设备 | |
CN111382776A (zh) | 物体识别装置以及物体识别方法 | |
JP4003465B2 (ja) | 特定パターン認識方法、特定パターン認識プログラム、特定パターン認識プログラム記録媒体および特定パターン認識装置 | |
JP4001162B2 (ja) | 画像処理方法、画像処理用のプログラムならびにその記憶媒体、および画像処理装置 | |
CN114863129A (zh) | 仪表数值分析方法、装置、设备及存储介质 | |
CN114936997A (zh) | 检测方法、装置、电子设备及可读存储介质 | |
JP2002140713A (ja) | 画像処理方法およびその装置 | |
JP4635862B2 (ja) | 画像処理装置 | |
CN116977328B (zh) | 车底机器人主动视觉中的图像质量评估方法 | |
JP2011107878A (ja) | 位置検出装置、位置検出方法 | |
JP4670994B2 (ja) | カラー画像の処理方法および画像処理装置 | |
JP5160366B2 (ja) | 電子部品のパターンマッチング方法 | |
JP4097255B2 (ja) | パターンマッチング装置、パターンマッチング方法およびプログラム | |
JP4470513B2 (ja) | 検査方法および検査装置 | |
CN113255405B (zh) | 车位线识别方法及其系统、车位线识别设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20070313 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20070409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4042780 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111122 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121122 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121122 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131122 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |