JP3915233B2 - 画像情報による物体認識方法 - Google Patents
画像情報による物体認識方法 Download PDFInfo
- Publication number
- JP3915233B2 JP3915233B2 JP07203198A JP7203198A JP3915233B2 JP 3915233 B2 JP3915233 B2 JP 3915233B2 JP 07203198 A JP07203198 A JP 07203198A JP 7203198 A JP7203198 A JP 7203198A JP 3915233 B2 JP3915233 B2 JP 3915233B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- differential
- filter
- image information
- approximate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
【発明の属する技術分野】
この発明は、画像情報における物体認識方法に関する。
【0002】
【従来の技術】
近年、画像処理システムを使用して物体を認識することが行われるようになって来た。このようなシステムで画像情報に基づいて物体を認識するときに、認識性能を低下させる一要因としては、環境光量の変化による認識対象の照度変化が挙げられる。特に、工場環境においては、対象全体の明るさが一様に変化する場合ばかりでなく、局所的な入射光によって照度のむらが生じることもあり、一般に広く用いられている二値化画像処理やパターンマッチングを用いた手法においては、認識率の低下を招く要因の一つになっていた。
【0003】
上記のような環境光量の変化に対してロバストな物体認識手法の一つにモデルベーストマッチング法がある。この手法は、画像から認識対象のエッジを検出し、検出したエッジについて線分や円弧といった特徴の抽出を行って対象の位置姿勢を認識するものである。エッジの検出に際しては、微分画像を利用するので、環境光量の一様な変化にも対応可能となる。また、不均衡な照射光によって発生する一部の特徴の誤検出や検出誤差の発生に対しても、特徴を利用したモデルベーストマッチングによって、位置姿勢認識の精度・安定性への影響は低く抑えられる。
【0004】
モデルベーストマッチング法で用いられるモデルには、保持するデータ量の少なさや抽出方法の容易さなどの理由により、線分や円弧を特徴として利用する場合が多い。特に工業製品の製造工程において、認識対象となる部品や半製品は、線分と円弧だけを特徴としてモデル化できるものが多く、また、複数の円弧だけでモデルを記述し得るものも少なくない。このように円弧を用いるのは、次のような場合に有効となる。
【0005】
例えば、対象物の照度変化を考慮するとき、ITVカメラで撮影された対象物の輪郭部分は、光量に応じて多少変化するから、過光量の場合では見かけ上対象物が膨張したように撮像されてしまう。このため、対象物の輪郭を線分を用いてモデルを記述する場合、抽出された線分の位置は、誤差を含んでしまう恐れがある。しかし、円弧を用いてモデルを記述すると、光量の変化に際して円弧自体の半径は変化するものの、円弧の中心位置は影響を受けない。このように、円弧中心位置を用いたモデルの記述には、光量変化による影響を抑える特徴がある。
【0006】
特徴抽出においては、適切なエッジ点列が得られていることを前提とするので、点列データの質(点列長、混入雑音)が認識結果に影響を及ぼす。このため、雑音や誤差によるエッジ点の欠損は特徴抽出の性能に大きく作用し、特徴の位置・方向・長さ(大きさ)に関する抽出精度を悪化させてしまう。特に、円弧の検出では、取得された点列データの質が重要であり、このため、雑音を抑えた良質な微分画像の取得が重要となる。
【0007】
【発明が解決しようとする課題】
前述したモデルベーストマッチング法の抱える課題は、画像微分に要する計算処理量が多く、二値化処理やパターンマッチングを用いた認識手法と比較して処理時間が多くかかる問題がある。特に、後者の認識手法については、ハードウェアの開発が広く進められ、パイプライン処理による高速実行が実現されているのに対して、前者のモデルベーストマッチング法では、画像微分処理が可能なハードウェアが多く開発されているものの、微分フィルタのマスクの大きさに制約があるために、雑音を抑えた良質な微分画像を取得するのに十分と言えるものが現状ではあまり多くない問題がある。
【0008】
そこで、雑音を抑えて良質な微分画像を取得するために、信号雑音比率を考慮したフィルタとして、Cannyの示した微分フィルタがある。この微分フィルタは、雑音にロバストなフィルタとして周知である。このフィルタをした方法を改良した手法として、Dericheの示した微分フィルタおよび平滑化フィルタがある。
【0009】
Dericheのフィルタは、IIR(infinite impulse response)形のフィルタで、高周波成分を低減する特長がある。このため、微分処理の高速化を考えるとき、前述のように画像処理の大幅な高速化には、ハードウェアによる処理が適しており、パイプライン処理であれば、原画像の取得と同時に微分画像を取得し得る可能性もある。しかし、前記IIR形のフィルタはマスク化に適さないので、Dericheのフィルタをそのまま導入することはできない問題がある。
【0010】
ここで、上記Dericheの微分フィルタを使用して円弧の抽出を行う処理について述べる。図13は従来の円弧抽出の基本的手順を示すフローチャートで、まず、ステップS1で入力画像を取り込む。次に、入力画像の微分画像をステップS2で取得する。この取得には、Dericheのフィルタを適用する。微分画像を取得したなら、その後、ステップS3で微分画像の二値化を行ってからステップS4で細線化し、エッジ検出をステップS5で行う。このステップS5によるエッジ検出の後、ステップS6で円弧の検出を行い、ステップS7で円弧の判断を行ってステップS8で円弧の抽出を行うことによって処理を終了する。
【0011】
上記のように、微分画像の取得に際して、Dricheの微分フィルタを適用し、かつ全ての手順についてソフトウェア処理を前提する場合、取り扱うデータ量が最大である微分画像に要する処理時間が最も大きくなる。しかし、以下の処理手順において要する計算処理量、計算時間は比較的小さいが、各ステップで生ずる計算誤差や円弧部分特定アルゴリズム、円弧推定アルゴリズムの良否などが、円弧抽出の結果に大きく影響する問題がある。
【0012】
この発明は上記の事情に鑑みてなされたもので、微分フィルタのマスク化を図って、物体認識の大幅な高速化を図るようにした画像情報による物体認識方法を提供することを課題とする。
【0013】
【課題を解決するための手段】
この発明は、上記の課題を達成するために、第1発明は、画像入力素子により取り込んだ画像情報に基づいて、その画像情報から特徴抽出を行った後、画像認識して物体を認識する方法において、
前記画像情報を近似微分フィルタで微分するとともに、得られた微分画像を近似平滑フィルタで処理して処理画像を得るときに、両フィルタを直交する方向に乗じたフィルタのマスクを形成して処理画像を生成した後、その処理画像から特徴抽出を行って画像認識するようにしたことを特徴とするものである。
【0014】
第2発明は、前記マスクを形成するときの近似微分フィルタおよび近似平滑フィルタと元のフィルタとの誤差が20%以内になるようにし、かつ近似平滑フィルタの打ち切り誤差を近似微分フィルタより大きめに設定したことを特徴とするものである。
【0015】
第3発明は、前記画像情報を微分処理した後、その微分値をベクトルとする直線の交差点を円或いは円弧成分の中心として特徴抽出を行い、その後、特徴抽出データからモデルデータに合致する箇所をモデルベーストマッチング処理により検出し、
前記微分処理は、画像情報を近似微分フィルタで微分するとともに、得られた微分画像を近似平滑フィルタで処理して処理画像を得るときに、両フィルタを直交する方向に乗じたフィルタのマスクを形成して処理画像を生成処理したことを特徴とするものである。
【0017】
第4発明は、前記マスクを形成するときの近似微分フィルタおよび近似平滑フィルタと元のフィルタとの誤差が20%以内になるようにし、かつ近似平滑フィルタの打ち切り誤差を近似微分フィルタより大きめに設定したことを特徴とするものである。
【0018】
第5発明は、前記画像情報を近似微分フィルタで微分するとともに、得られた微分画像を近似平滑フィルタで処理して処理画像を得るときに、両フィルタを直交する方向に乗じたフィルタのマスクを形成して処理画像を生成処理した後、その処理画像を1本以上走査し、その走査軸上の各点においての微分値をベクトルとする直線群を求めた後、その直線群と任意点との距離群を求めて、この距離群をベクトルとし、このベクトルのユークリッドノルムが最小となるように、円或いは円弧中心を推定し、その後、推定した円或いは円弧中心データからモデルデータに合致する箇所をモデルベーストマッチング処理により検出して画像認識したことを特徴とするものである。
【0019】
第6発明は、前記ユークリッドノルムが最小となるようにするには、重み係数を用い、その重み係数は微分ベクトルの大きさとすることを特徴とするものである。
【0020】
第7発明は、前記モデルベーストマッチング処理は、画像中の円或いは円弧中心データ群から任意の点qiを選択した後、点(qi-qj)間の距離Dijを計算し、|Dij−dkl|≦δとなるモデルの距離dklを検索して、qi,qjに対応するpk,plを探索した後、画像から抽出した円或いは円弧中心データ群の中にモデルを構成する円或いは円弧中心群に合致する点がいくつ存在するかを求めるようにしたことを特徴とするものである。
【0021】
第8発明は、前記推定する円或いは円弧が複数である場合には、微分ベクトルの走査線方向の成分の符号に基づいて微分ベクトルをグループ化し、そのグループ化により認識対象である複数の円或いは円弧を抽出することを特徴とするものである。
【0022】
【発明の実施の形態】
以下この発明の実施の形態を図面に基づいて説明する。図1はこの発明の実施の形態を示すブロック構成図で、図1において、11は画像入力素子等により画像を取り込む画像取り込み手段で、この画像取り込み手段11で取り込んだ画像は、微分処理手段12により水平方向および垂直方向の微分が行われる。なお、微分処理手段12の詳細は後述する。
【0023】
次に、上記微分処理手段12による画像の水平方向および垂直方向の微分での微分値と向きの情報に基づいて円弧中心位置を円弧中心位置推定手段13で推定し、円弧中心位置を検出する。この円弧中心位置の検出手段についても詳細は後述する。前記円弧中心位置推定手段13で円弧中心位置を検出したなら円弧位置で記述されたモデルとのマッチングをマッチング処理手段14によって対象物の位置姿勢認識を行い、その認識結果を出力手段15により出力画像として表す。図2は実施の形態の動作を述べるフローチャートで、図2において、ステップS11で入力画像を取り込んだ後、ステップS12で画像の水平方向および垂直方向の微分を行う。その後、ステップS12による微分での微分値と向きの情報により円弧中心位置をステップS13で判断し、ステップS14で円弧を抽出する。
【0024】
上記のように、この発明の実施の形態では、まず、Dericheフィルタを近似して、そのフィルタの特性を損なわない適切なマスクの設計を行い、微分フィルタのマスク化により、パイプライン処理への適用を前提とすれば、ビデオレートでの微分画像取得へと展開できる。また、エッジ点列の抽出を行わずに微分画像から円弧成分の中心位置を直接抽出する、すなわち、画像の水平方向および垂直方向の微分による微分値と向きの情報に基づいて円弧中心位置を推定する手段を採用した。このため、エッジ点列を使用しないので、エッジ点の検出やエッジ点列の抽出、点列における円弧部分の切り分けなどの処理が必要ではなくなる。この結果、処理時間の短縮およびそれらの処理による計算誤差の発生が無くなる利点が得られる。
【0025】
次に、微分処理手段12の詳細について述べる。Dericheによって示された画像微分手法は、入力画像について水平あるいは垂直方向に一次元の空間フィルタを適用することで微分画像を生成するものである。そして、平滑化手法も同様に、微分処理と直交する方向に空間フィルタを適用するものである。つまり、水平方向の微分であれば、入力画像の各行毎に微分フィルタを適用し、その微分した画像について垂直方向に各列毎に平滑化フィルタを適用することで処理画像を生成している。
【0026】
Dericheの画像微分手法の連続空間系における応答は(1)式で与えられる。
【0027】
【数1】
【0028】
(1)式をz変換すると微分フィルタFが求められる。
【0029】
【数2】
【0030】
(2)式において、ymは微分値、xmは入力画像の画素値、係数a,b1,b2はいずれも定数で、次の(3)で与えられる。
【0031】
【数3】
【0032】
上記式において、α=1,ωを略「0」とすると信号雑音比率の良い応答が得られることが知られている。また、ω=0として近似すると、次の(4)式を適用することが可能となる。
【0033】
【数4】
【0034】
以下(4)式に基づいて、マスクの構成を進めて行く。(4)式のg(x)の離散信号をg(n)とするとき、g(n)は次の(5)式で表され。z変換したフィルタGは(6)式表される。
【0035】
【数5】
【0036】
【数6】
【0037】
また、次のように無限級数
【0038】
【数7】
【0039】
とするためには、cは(7)式のように求められる。
【0040】
【数8】
【0041】
(6)式のフィルタGに対して、離散信号を有限個(k個)に限定したときの応答をGkとすると、Gkは次の(8)式のように表され、Gk +は(9)式、Gk -は(10)式でそれぞれ表される。
Gk=Gk ++Gk - …(8)
【0042】
【数9】
【0043】
【数10】
【0044】
このときゲイン係数ckは次式のように得られる。
【0045】
【数11】
【0046】
Dericheの微分フィルタを打ち切り近似したFIR(有限インパルス応答)システムであるGkについても、kの値を変えて周波数特性を比較した特性図を図3に示す。この図3において、α=1としている。また、図3には、(2)式に示した元のDericheフィルタの周波数特性を併せて記してある。この特性との比較からk=5以上において良好な近似を得ていることが分かる。この場合の近似フィルタG5は1×11のマスクによって表現される。
【0047】
微分フィルタと同様にして、平滑化フィルタも打ち切り近似することでマスクによって表現できる。連続空間系における近似平滑化フィルタは(4)式を積分したものと同形で次式(12)で表される。
【0048】
【数12】
【0049】
(12)式をz変換したフィルタHは次式(13)で表される。
【0050】
【数13】
【0051】
ここで、係数dは次の(14)式から得られる。
【0052】
【数14】
【0053】
フィルタHに対して、離散信号列を有限個(k個)に限定したときの応答Hkは、以下のように表される。なお、ゲイン係数をdkとし、pは、次式のようにした。
【0054】
【数15】
【0055】
Hk=Hk ++Hk -
【0056】
【数16】
【0057】
【数17】
【0058】
【数18】
【0059】
Hkについて、kの値を変えて周波数特性を比較したものが図4である。図4において、α=1としている。図4には、元のDericheの平滑化フィルタの周波数特性を併せて記してあり、これとの比較からk=5以上において、良好な近似を得ていることが分かる。このときの近似平滑化フィルタH5は1×11のマスクによって表現される。
【0060】
微分フィルタと平滑化フィルタを直交する方向に乗じたフィルタのマスクを考えてみる。図3、図4の結果から求められるマスクは、両図において、いずれもk=5,α=1とするとき、次の表1に示す11×11のマスクを得る。ただし、フィルタゲインを1とするためには、同表中の数値に(11)式、(18)式に示されるゲイン定数の積ck,dkを乗ずる必要がある。
【0061】
【表1】
【0062】
これら微分フィルタおよび平滑化フィルタと元のDericheのフィルタとの誤差は、ck,dkの値から知ることができる。k=5としたとき、c5=1.029,d5=1.051,c5・d5=1.081となり、およそ8%の誤差が見込まれる。同様にして、k=4のとき、つまり9×9のマスクではc4=1.070であり微分の影響は少ないものの、全体ではc4・d4=1.198となるので、約20%の誤差になる。この点から平滑化フィルタの打ち切りは、微分フィルタより大きめに設定した方が良い。
【0063】
次にこの発明の実施の形態においては、円弧の中心位置に特定して特徴抽出を行う。すなわち、実施の形態では、対象の原画像に対して水平方向および垂直方向の微分値に基づき特徴抽出を行うので、Dericheのフィルタや前述した手法などによって得られる微分画像が取得されていることを前提とする。
【0064】
例えば、図5に示すような円筒形対象物を上方より撮影し、円弧を含む原画像を生成する。生成した原画像について、微分を施して、図6に示す微分画像を得る。図6において、円の線分の太さは微分値の強さを表し、エッジ近傍にて最も微分値が大きい様子を表している。画像座標(xi,yi)に位置する画素piについて、各軸方向に沿って得られた微分値をuiおよびviとすると、piにおける微分値の強さは√(ui 2+vi 2)、微分方向ベクトルは(ui,vi)で与えられる。
【0065】
図6の矢印が示すように、円弧近傍を通過するよう微分画像を1行だけ走査するとき、走査軸上の各画素は図7に示す微分方向を有する。点pi(xi,yi)が円弧周辺の一点であるとするとき、同点を通過し同点の微分方向を傾きとする直線liは円弧中心Oを通過する。
【0066】
【数19】
【0067】
走査軸の位置をAとするとき、Bである。ただし、A,Bは次式である。
【0068】
【数20】
【0069】
図8に示すように、任意点G(s,t)を考え、li上の点でGに最寄りの点をqiとする。また、Gqi間の距離diとする直線liと点Gが図9に示す位置にあるとき、距離diは次のように求められる。
di=(s−xi)・cosθi−(t−yi)・sinθi …(20)
点Gを円弧中心へ向けて移動させるとき、∀qiも、円弧中心へと集約していく。理論的には一点の円弧中心へ集まることが期待されるが、実際には画像への雑音や誤差の混入があるため、必ずしも∀liが円弧中心を通過する訳ではないので、∀qiはある程度のばらつきをもって集まることが予測される。そこで、diが成すベクトルd=〔d1d2…dn〕Tについて、dのユークリッドノルムを最小にする点Gを推定円弧として求める。
【0070】
【数21】
【0071】
【数22】
【0072】
ここで、各画素の微分値を用いて、上式に次式を代入すると(24)式が得られる。
【0073】
【数23】
【0074】
【数24】
【0075】
ここで、Wi≡1/(ui 2+vi 2)である。このようにして、円弧中心は画素の微分値に基づいて推定することができる。なお、上記手段では点qiが集約することを利用していることから、走査した画素列piについて次の条件を満たす必要がある。
(条件)すべてのviが非零で同符号、かつ(ui/vi)>(ui+1/vi+1)
理論的には、円弧およびその周辺部分に該当する画素列は同条件を満たす。しかし、画像に含まれる雑音や微分処理に伴う誤差の程度によっては、同条件が完全に満たされる訳ではないので、雑音・誤差による値のぶれを考慮する必要がある。
【0076】
円弧の周辺部分で円弧から比較的離れた箇所の微分値は、相対的に誤差を多く含むことになる。逆に、円弧に該当する部分では相対的に誤差は少ない。そこで、上記(21)式に重み係数を乗じて推定を行い、誤差による推定への影響の低減を図る。
【0077】
【数25】
【0078】
重み係数Aiは、走査した画素毎に与えられる任意の定数とする。(25)式から、推定円弧中心は次のように求められる。
【0079】
【数26】
【0080】
(26)式において、Aiは任意なので、Ai≡ui 2+vi 2=1/Wとおくと、(26)式は以下のように簡単化される。
【0081】
【数27】
【0082】
上記の式において、Ai=ui 2+vi 2とすることは、重み係数として微分値のパワーを乗ずることになるので、微分値の大きい箇所、すなわち円弧に該当する部分および近傍に大きな重み付けがされることになる。よって、円弧位置推定に(27)式を用いることで、計算量の低減ばかりでなく、雑音、誤差の低減の効果も得ている。
【0083】
(27)式の適用により、1行の走査軸だけで円弧中心が推定されるが、複数行を走査することにより、推定精度を向上させることができる。微分画像を走査するとき、1行の走査で推定に用いた画素の数をnjとすると、行数mの複数行走査は無限級数の和nj個(jからm個まで)の画素を参照することになる。各行において、推定された円弧中心をそれぞれ(sj,tj)とするとき、複数行走査による推定円弧中心(∧s、∧t:∧記号は推定を表す)は次式のように求められる。
【0084】
【数28】
【0085】
上記(28)式の方法において、走査する行数はmであるが、各行が連続している必要はなく、任意の行を選択することができる。このことは、例えば、撮像系からインターレース・スキャン方式で対象画像を受信する場合、even/oddフレームに対してそれぞれ独立に円弧推定を適用することなどを可能にする。ただし、この場合は、微分フィルタの垂直方向の微分値を適宜調整する必要がある。また、抽出対象とする円弧の大きさによって走査する行を間引くことが可能なので、処理量の低減、すなわち、処理時間の短縮化が図れる利点がある。
【0086】
次にモデルベーストマッチング法についてのべる。一般にモデルベーストマッチング法は、入力情報群からモデルデータに合致する箇所を検出する手法であり、図10(a)に示すような円弧中心で与えられるデータ群を、画像から抽出された円弧中心データ群(図10(b))から検出する探索問題となる。
【0087】
モデルを構成する円弧中心群{pi}(i=1〜n)が与えられているとき、あらかじめ(pi−pj)間の相対距離{dij}および相対角から派生する関数値{sinθij},{cosθij}を求めておく。
【0088】
画像から円弧中心群{qi}(i=1〜m)を抽出したならば、図11に示すマッチングプロシージャ手順に従って探索する。なお、各段では上位のloopに対して下位をinner loopとしている。
【0089】
図11において、loop1は画像中の円弧中心データ群から点qiを選択する。
loop2は(qi−qj)間の距離Dijを計算する。
loop3は|Dij−dkl|≦δ(略0)となるモデルの距離dklを探索する。すなわち、qi,qjに対応するpk,plを探索する。
loop4はqi,qj,pk,plの対応が判明すると認識対象の位置姿勢を仮定できるので、{q}の中に{p}に合致する点がいくつか存在するかを求める。
【0090】
loop3にて検出されたqi,qjが対象の一部分であると仮定するとき、loop4では次の(29)式のようにしてモデル{p}の画像上の位置{P}を求める。
ここで、φij=∠(qj−qi)とする。
【0091】
【数29】
【0092】
モデルの代表点をplとするとき、対象の位置は(29)式において、h=1として求められ、姿勢は(θkl+φij−θk1)となる.すべてのloopを終えて、モデル{p}に合致する点の数が指定した閾値以上に多かった円弧群{q}の部分集合が検出された対象である。
【0093】
上述の手順によれば、計算回数オーダは0(m3n3)となる。特に(29)式でのPhは同オーダの回数だけ計算されるが、加法定理によって分解することで予め求めてある関数値{sinθij},{cosθij}を利用できるので、三角関数の計算回数は0(m2)となる。同手順は検索問題として一般化できるので、アルゴリズムの改良により計算回数オーダを低減できると考えられるが、実際の処理に要する計算時間はきわめて少なかったので、実験では上述の手順に従ってモデル検索を行った。
【0094】
上記実施の形態では、円弧が1つの場合であったが、図12(a)に示すように複数円弧にも、この発明の実施の形態は適用可能である。図12(a)に示すように走査したときの、円弧Aと円弧Bの微分ベクトルは図12(b)に示すようになる。すなわち、一つの円弧の微分ベクトルに注目すると、微分ベクトルの走査方向(図12(b)の場合はu方向)の成分の符号に着目すると符号(+)から始まり符号(−)で終わる。従って、ベクトルvは必ず符号(+)で始まり、符号(−)で終わるので、符号(+)から符号(−)でベクトルをグループ化することが可能となる。
【0095】
上述のように、画像情報による物体認識手段においては、環境光量の変化に対してロバストなモデルベーストマッチング法に基づく高速物体認識手段を採用したので、従来のモデルベーストマッチング法では処理時間の短縮化ができなかったことが、画像微分フィルタによるマスクの構成および円弧位置推定法によって物体認識の大幅な高速化ができるようになった。
【0096】
上記の実施の形態における有効性は、実験を通して検証され、マスクによる微分画像の有効性が確認された。また円弧抽出処理およびマッチング処理がきわめて短時間で達成されたことで、ビデオレート処理として十分適用できる計算時間であることが判明した。
【0097】
【発明の効果】
以上述べたように、この発明によれば、近似平滑フィルタと近似微分フィルタに基づいてマスクを構成し、このマスクをパイプライン処理により画像微分処理を行って雑音低減特性を有する画像微分を得、しかる後、画像から特徴抽出を行って画像認識するようにしたので、物体認識の大幅な高速化を図ることができる利点がある。また、特徴抽出においては、円あるいは円弧中心の抽出を行うようにして、エッジ検出や円弧部分の切り分けなどの手順を省略して高速化が達成できるようにするとともに、複数行の走査を行うことにより、抽出精度の向上を図ることができる利点もある。
【図面の簡単な説明】
【図1】この発明の実施の形態を示すブロック構成図。
【図2】実施の形態の動作を述べるフローチャート。
【図3】微分フィルタの周波数特性図。
【図4】平滑化フィルタの周波数特性図。
【図5】円筒形対象物の例を示す説明図。
【図6】微分画像上の走査軸の説明図。
【図7】走査軸上の微分方向の説明図。
【図8】円弧中心に向かう直線群の説明図。
【図9】直線と点Gの関係の説明図。
【図10】モデルと画像から抽出された円弧データを示すもので、(a)はモデルデータ説明図、(b)は抽出円弧データ説明図。
【図11】マッチングプロシージャのフローチャート。
【図12】複数円弧の場合における微分ベクトル抽出方法の説明図。
【図13】従来の円弧抽出のフローチャート。
【符号の説明】
11…画像取り込み手段
12…微分処理手段
13…円弧中心位置推定手段
14…マッチング処理手段
15…出力手段
Claims (8)
- 画像入力素子より取り込んだ画像情報に基づいて、その画像情報から特徴抽出を行った後、画像認識して物体を認識する方法において、
前記画像情報を近似微分フィルタで微分するとともに、得られた微分画像を近似平滑フィルタで処理して処理画像を得るときに、両フィルタを直交する方向に乗じたフィルタのマスクを形成して処理画像を生成した後、その処理画像から特徴抽出を行って画像認識するようにしたことを特徴とする画像情報による物体認識方法。 - 前記マスクを形成するときの近似微分フィルタおよび近似平滑フィルタと元のフィルタとの誤差が20%以内になるようにし、かつ近似平滑フィルタの打ち切り誤差を近似微分フィルタより大きめに設定したことを特徴とする請求項1記載の画像情報による物体認識方法。
- 画像入力素子より取り込んだ画像情報に基づいて、その画像情報から特徴抽出を行った後、画像認識して物体を認識する方法において、
前記画像情報を微分処理した後、その微分値をベクトルとする直線の交差点を円或いは円弧成分の中心として特徴抽出を行い、その後、特徴抽出データからモデルデータに合致する箇所をモデルベーストマッチング処理により検出し、
前記微分処理は、画像情報を近似微分フィルタで微分するとともに、得られた微分画像を近似平滑フィルタで処理して処理画像を得るときに、両フィルタを直交する方向に乗じたフィルタのマスクを形成して処理画像を生成処理したことを特徴とする画像情報による物体認識方法。 - 前記マスクを形成するときの近似微分フィルタおよび近似平滑フィルタと元のフィルタとの誤差が20%以内になるようにし、かつ近似平滑フィルタの打ち切り誤差を近似微分フィルタより大きめに設定したことを特徴とする請求項3記載の画像情報による物体認識方法。
- 画像入力素子より取り込んだ画像情報に基づいて、その画像情報から特徴抽出を行った後、画像認識して物体を認識する方法において、
前記画像情報を近似微分フィルタで微分するとともに、得られた微分画像を近似平滑フィルタで処理して処理画像を得るときに、両フィルタを直交する方向に乗じたフィルタのマスクを形成して処理画像を生成処理した後、その処理画像を1本以上走査し、その走査軸上の各点においての微分値をベクトルとする直線群を求めた後、その直線群と任意点との距離群を求めて、この距離群をベクトルとし、このベクトルのユークリッドノルムが最小となるように、円或いは円弧中心を推定し、その後、推定した円或いは円弧中心データからモデルデータに合致する箇所をモデルベーストマッチング処理により検出して画像認識したことを特徴とする画像情報による物体認識方法。 - 前記ユークリッドノルムが最小となるようにするには、重み係数を用い、その重み係数は微分ベクトルの大きさとすることを特徴とする請求項5記載の画像情報による物体認識方法。
- 前記モデルベーストマッチング処理は、画像中の円或いは円弧中心データ群から任意の点qiを選択した後、点(qi-qj)間の距離Dijを計算し、|Dij−dkl|≦δとなるモデルの距離dklを検索して、qi,qjに対応するpk,plを探索した後、画像から抽出した円或いは円弧中心データ群の中にモデルを構成する円或いは円弧中心群に合致する点がいくつ存在するかを求めるようにしたことを特徴とする請求項4〜6のいずれか1項に記載の画像情報による物体認識方法。
- 前記推定する円或いは円弧が複数である場合には、微分ベクトルの走査線方向の成分の符号に基づいて微分ベクトルをグループ化し、そのグループ化により認識対象である複数の円或いは円弧を抽出することを特徴とする請求項5又は6記載の画像情報による物体認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP07203198A JP3915233B2 (ja) | 1998-03-20 | 1998-03-20 | 画像情報による物体認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP07203198A JP3915233B2 (ja) | 1998-03-20 | 1998-03-20 | 画像情報による物体認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11272863A JPH11272863A (ja) | 1999-10-08 |
JP3915233B2 true JP3915233B2 (ja) | 2007-05-16 |
Family
ID=13477645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP07203198A Expired - Fee Related JP3915233B2 (ja) | 1998-03-20 | 1998-03-20 | 画像情報による物体認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3915233B2 (ja) |
-
1998
- 1998-03-20 JP JP07203198A patent/JP3915233B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11272863A (ja) | 1999-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Burger et al. | Scale-invariant feature transform (SIFT) | |
Cantoni et al. | Vanishing point detection: representation analysis and new approaches | |
KR100264338B1 (ko) | 패턴 화상 처리 장치 및 화상 처리 방법 | |
JP2776294B2 (ja) | 皮膚紋様画像の画像特徴抽出装置および画像処理装置 | |
US5717785A (en) | Method and apparatus for locating patterns in an optical image | |
CN111008961B (zh) | 一种输电线路设备缺陷检测方法及其系统、设备、介质 | |
WO2015035462A1 (en) | Point feature based 2d-3d registration | |
JP3438440B2 (ja) | 画像処理装置 | |
Yüksel et al. | A simple neuro-fuzzy edge detector for digital images corrupted by impulse noise | |
CN113409353A (zh) | 运动前景检测方法、装置、终端设备及存储介质 | |
JP2016171558A (ja) | マルチビュー画像に対するスーパーピクセルを生成するための方法および装置 | |
CN110349129B (zh) | 一种高密度柔性ic基板外观缺陷检测方法 | |
CN109993176A (zh) | 图像局部特征描述方法、装置、设备及介质 | |
JP3915233B2 (ja) | 画像情報による物体認識方法 | |
CN115019241B (zh) | 一种行人识别与追踪方法、装置、可读存储介质及设备 | |
JPH09128550A (ja) | 画像処理方法およびその装置 | |
JP3074292B2 (ja) | テンプレートマッチング処理方法 | |
JPH0632078B2 (ja) | 画像信号の処理方法 | |
JP2988994B2 (ja) | 位置合わせ装置 | |
JPH05314391A (ja) | 一連のディジタル影像中の影像の登録方法と登録装置 | |
JP3010588B2 (ja) | パターン位置決め装置とパターン類別装置 | |
CN111209835B (zh) | 一种改进的surf移动机器人图像匹配方法 | |
CN116309287A (zh) | 图像检测方法和图像检测装置 | |
Hans et al. | Fast Single Image super-resolution algorithm using feature based regression analysis | |
CN115205673A (zh) | 一种基于草图Gabor特征的目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070129 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110216 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110216 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120216 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130216 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140216 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |