JP2008176517A - 物体認識方法および装置 - Google Patents

物体認識方法および装置 Download PDF

Info

Publication number
JP2008176517A
JP2008176517A JP2007008613A JP2007008613A JP2008176517A JP 2008176517 A JP2008176517 A JP 2008176517A JP 2007008613 A JP2007008613 A JP 2007008613A JP 2007008613 A JP2007008613 A JP 2007008613A JP 2008176517 A JP2008176517 A JP 2008176517A
Authority
JP
Japan
Prior art keywords
contour line
learning
extracted
outline
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007008613A
Other languages
English (en)
Inventor
Takashi Terachi
隆 寺地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2007008613A priority Critical patent/JP2008176517A/ja
Publication of JP2008176517A publication Critical patent/JP2008176517A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】任意の輪郭線を有する物体であっても、抽出された輪郭線を用いて信頼性よく、しかも確実に物体を認識することを可能にする。
【解決手段】物体2の学習時、学習すべき輪郭線3を抽出する領域R1、R2を指示してこの指示した領域において輪郭線を抽出し、この抽出した輪郭線ごとに該輪郭線を抽出した領域を示すコードを付与して輪郭線を記録する。物体認識時にも、認識すべき輪郭線を抽出する領域を指示し、該指示した領域において抽出した輪郭線に対してこの輪郭線を抽出した領域を示すコードを付与し、認識時に付与された輪郭線抽出領域を示すコードと学習時に付与されたコードが一致している輪郭線を用いて物体を認識する。このような構成では、物体認識時に付与した輪郭線抽出領域コードが学習時のものと一致することが確かめられてから輪郭線の照合が行われるので、物体の認識精度が向上する。
【選択図】図1

Description

本発明は、物体認識方法および装置、更に詳細には、撮像された物体の画像の輪郭線を抽出し、抽出した輪郭線を学習輪郭線と照合し、輪郭線を用いて物体を認識する物体認識方法及び装置に関する。
従来、認識すべき物体をCCDカメラなどで撮像し、撮像された物体の画像を処理して物体の輪郭線を抽出し、その輪郭線を使用して物体の位置、姿勢、形状を認識することが行われている。図1と図2は輪郭線を使った画像による物体認識の例を示す。
図1は物体の学習場面を示すものであって、認識すべき物体2が不図示のカメラにより撮像され、画像処理装置に入力された画像1が入力画像として図示されている。このとき一般に、学習すべき範囲をオペレータが1個ないし複数個示すことが多い。この指示された学習範囲が符号R1、R2で示されている。学習物体2にはオペレータが与えた固有の座標系であるところのUV座標系が張り付いている。学習では物体2の輪郭線3を何らかの方法で抽出し、輪郭線からはさらに直線4、円5、円6、擬似円弧7を抽出する。円弧は円として扱われる。擬似円弧とは非常に緩やかな円弧もしくは卵型の一部を切り取ったような滑らかな曲線のことである。輪郭線そのもの、もしくは輪郭線から抽出された図形の集合から物体固有の特徴を抽出し、その特徴を学習データとして記憶する。このときの学習データはUV座標系で記述される。
図2は物体の認識場面を示すものであって、画像内に認識すべき物体がある。画像内の輪郭線を抽出し、そこから学習と同様に特徴を抽出したのち、抽出した特徴と図1で記憶した学習データの特徴とを照合する。認識の出力結果はたとえば画像の座標系であるXY座標系における、UV座標系の倍率、角度および平行移動量(X,Y)である。
上述した物体の認識において、輪郭線を使った認識技術は多数知られているが、本発明に近いものとしては以下のものが知られている。
特許文献1に記載された技術は、任意形状物体の認識を可能とする技術であり、輪郭線を直線、円、円弧、楕円、..などの形状要素に分解してそれらの相対的位置関係を利用する。たとえば、図3は形状要素2個の特徴の例である。学習において、与えられた直線15と円16の距離hを求め、円の半径rとの比h:rを特徴として学習データに記録する。このような形状要素同士の組み合わせを多数学習し、記録する。そして、物体認識において、直線17と円18を得たとき、直線と円の距離h´、円の半径r´の比h´:r´を調べ、この比が学習データの中に記録されていれば、局所的なマッチングが成功したことになり、座標変換式のひとつの候補を生成することができる。
一方、特許文献2に記載された技術は、任意形状物体の認識を可能とする技術であり、この技術では、輪郭線をそのまま使用している。すなわち輪郭線の頂点座標と明度勾配ベクトルを利用する。図1において、輪郭線3の頂点(黒丸)の明度勾配ベクトル(G)とはその地点において暗い方から明るい方に向かうベクトルである。当然ながら明度差が大きくなるほどベクトルの大きさも大きくなる。
図4において、輪郭線の2つの頂点の組(Pi、Pj)はひとつの特徴である。すなわち学習において、梁(ビーム)20の長さと、明度勾配ベクトル21、22について、ビームからの相対的角度θ0、θ1を特徴として学習データに記録する。このような頂点の組を多数学習しておく。そして、物体認識において、学習した頂点の組(Pi、Pj)の表に従い、すべての輪郭線のすべての頂点をくまなく巡り(Pi)、頂点Piの相方の頂点Pjを同様にすべての輪郭線のすべての頂点を対象に探す。すなわち自己の明度勾配ベクトル21を基準にビームの長さ条件と、相対的角度条件をともに満たすような相方Pjを探す。相方Pjが見つかれば局所的なマッチングが成功したことになり、座標変換式のひとつの候補を生成することができる。
また、特許文献3に記載された技術は線図形マッチング方法で、輪郭線が直線線分で構成される物体の認識を可能とする技術である。ここでは輪郭線上の1点と直線線分との相対的位置関係を利用する。たとえば、図4において、輪郭線のひとつの頂点Piと、近傍の直線線分23の組はひとつの特徴である。すなわち学習において、頂点Piを原点とするPQ座標系を張り(Q軸と明度勾配ベクトル21が一致)、PQ座標系における直線線分23の位置を特徴として学習データに記録する。このような組を多数学習しておく。物体認識時には、学習した組の表に従い、すべての輪郭線のすべての頂点をくまなく巡り(Pi)、頂点PiにPQ座標系を張り、近傍の点列をハフ変換等で直線線分に変換する。変換された直線線分が学習したものと一致すれば局所的なマッチングが成功したことになり、座標変換式のひとつの候補を生成することができる。
特許2885823 特開2001−251097号公報 特開2005−174062号公報
上述したように、輪郭線を用いた物体認識では、まず、輪郭線の抽出が行われるが、従来では、輪郭線の学習領域が区別されていないという問題がある。ここで学習領域とは、学習においてオペレータが1個ないし複数個示したところの学習すべき領域でそこで学習すべき輪郭線が抽出される領域のことであり、たとえば図1においては2個の学習領域、つまり輪郭線抽出領域R1、R2が存在する。
また、輪郭線を抽出するときには輪郭を抽出するための条件がある。輪郭抽出条件は抽出するロジックにもよるが、一般的に頂点間距離(ピッチ)P、画素明度の大きさのしきい値あるいは明度勾配ベクトルの大きさのしきい値などがある。このとき、一般的に輪郭線の抽出条件は輪郭線の抽出領域ごとに異なるべきものである。たとえば図1において領域R1のエッジ点列のピッチはP1、領域R2のピッチはP2となっている。
従来技術においては、学習において、輪郭線を各抽出領域ごとに抽出するまでは良いが、その輪郭線そのものに、従ってそれから派生する形状要素にも、さらにこれらから形成される特徴にも抽出領域R1、R2の記録がないまま学習データとして出力されている。そのため物体認識時に、認識画像から得られた輪郭線があれば、その輪郭線の抽出領域を区別することなく学習データのものと照合せざるを得なくなり、信頼性のある物体認識ができない、という問題がある。
たとえば図2において、物体のサイズ変動、回転および平行移動により、領域R1は図の広がりをもつことが予想されるので、この範囲からピッチP1の輪郭線11が抽出され、同様に領域R2も図の広がりをもちピッチP2の輪郭線12が抽出される。この場合、図1における曲線7はもともと領域R2のものであるが、図2においては領域R1からは曲線11、領域R2からは曲線12、として2重に抽出されている。このとき抽出条件(ピッチ)が異なることもあり、2つの輪郭線は必ずしも一致しない。しかし認識においてどちらの輪郭線11、12を使うかを決めることはできない。というのは、学習データの特徴に輪郭線がどの領域で抽出されたかの記録が存在しないために、輪郭線11、12のいずれを用いるかを選択できないからである。従って結局、どちらか一方、あるいは両方の輪郭線を用いて物体認識を行うことになる。そのとき、認識自体は正しく行われる可能性はあるが、学習のときと異なる条件で生成された輪郭線または特徴との照合が行われるので、位置決めの精度が低下する恐れがある。従って、物体学習時に、輪郭線の抽出領域を記録し、認識において異なる輪郭線抽出領域を排除することが重要になる。
次に、輪郭線の極性に関して問題がある。ここで輪郭線の極性とは物体上の輪郭線の進行方向をいい、物体認識時、学習時のものと輪郭線の極性、つまり、明暗(コントラスト)の向きが一致している必要がある。
輪郭線を抽出するロジックに関わらず、輪郭線には明らかな進行方向があることに注意する。それは明度勾配ベクトルの方向に対して適当に決めることができる。たとえば輪郭線の進行方向を明度勾配ベクトルの方向(向き)を時計回りに90度回転させた方向と定めることができる。
この規則によれば、図5(a)において、明度勾配ベクトル27、29が図の向きのとき、輪郭線の進行方向が矢印で示した方向に定まる。すなわち外側の輪郭線25、内側の輪郭線26(円)の進行方向はいずれも反時計回りである。
図5(b)は輪郭線の位置関係は図5(a)とまったく同じであるが、円内部が暗く外側が明るいので、暗い方から明るい方に向かう明度勾配ベクトルが、図5(a)のものとは逆転している。そのために内側の輪郭線(円)の進行方向は時計回りとなる。このとき、図5(a)の物体を学習したときに、認識時には、図5(b)の物体を認識するので、輪郭線の極性を無視して認識を行うと問題が発生する。
たとえば、特許文献1に記載の技術では、物体認識時、図3に見るように特徴は距離比h:rのみであり、これだけで位置決め可能であるので、図5(a)、(b)で示したような輪郭線の極性を区別することなく、認識が行われる。従って、図5(b)に示す物体が、図5(a)のものと異なる物体であり、区別が必要なときは問題となる。
一方、特許文献2に記載された技術では、図5(b)の物体を認識しない。すなわち図5(a)と(b)を区別する。なぜならば図4に見るように、図5(b)ではたとえばベクトル21が逆転してベクトル24になっており、ビーム20の両端のベクトル角度の条件を満たすことができないからである。もし図5(b)の物体が図5(a)と同じ物体であり、区別が不必要なときに問題となる。
同様に、特許文献3に記載の技術でも、図5(b)の物体を認識しない。すなわち図5(a)と(b)を区別する。なぜならば図4に見るように図5(b)ではたとえばベクトル21が逆転してベクトル24になっており、PQ座標系が180度回転したものとなり直線線分23を認識できないからである。もし図5(b)の物体が図5(a)と同じ物体であり、区別が不必要なときに問題となる。
このように、学習特徴に輪郭線の極性を記録し、認識時に輪郭線の極性を見るか見ないかを選択できるようにすることが精度の高い物体認識を行うのに重要な要素となる。
本発明は、以上の問題点を解決するためになされたもので、任意の輪郭線を有する物体であっても、抽出された輪郭線を用いて信頼性よく、しかも確実に物体を認識することが可能な物体認識方法および装置を提供することを課題とする。
本発明(請求項1、2)は、
撮像された物体の画像の輪郭線を抽出し、抽出した輪郭線を学習輪郭線と照合して物体を認識する物体認識方法及び装置であって、
物体学習時、学習すべき輪郭線を抽出する領域を指示して該指示した領域において輪郭線を抽出し、この抽出した輪郭線ごとに該輪郭線を抽出した領域を示すコードを付与して輪郭線を記録すること、
物体認識時、認識すべき輪郭線を抽出する領域を指示し、該指示した領域において抽出した輪郭線に対して該輪郭線を抽出した領域を示すコードを付与し、認識時に付与された輪郭線抽出領域を示すコードと学習時に付与された輪郭線抽出領域を示すコードが一致している輪郭線を用いて物体を認識することを特徴とする。
また、本発明(請求項3、4)は、
撮像された物体の画像の輪郭線を抽出し、抽出した輪郭線を学習輪郭線と照合して物体を認識する物体認識方法及び装置であって、
物体学習時、学習した輪郭線ごとに該輪郭線の極性を示すコードを付与して輪郭線を記録すること、
物体認識時、認識した輪郭線に対して該輪郭線の極性を示すコードを付与し、認識時に付与された輪郭線の極性を示すコードと学習時に付与された輪郭線の極性を示すコードが一致している輪郭線を用いて物体を認識することを特徴とする。
本発明では、学習画像並びに認識画像の輪郭線にそれぞれ輪郭線抽出領域コードが付与され、物体認識時に付与された輪郭線抽出領域コードが学習時のものと一致することが確かめられてから輪郭線の照合が行われるので、精密な照合が可能となり、物体の認識精度を向上させることができる。
また、本発明では、学習並びに認識した輪郭線にそれぞれ輪郭線の極性を示すコードが付与され、物体認識時における輪郭線の極性を示すコードが学習時のものと一致することが確かめられてから輪郭線の照合が行われるので、精密な照合が可能となり、物体の認識精度を向上させることができる。
以下、図面に示す実施例に基づいて本発明を詳細に説明する。
<全体の構成>
図6は本発明の一実施例を示す物体認識装置の構成を示すブロック図である。
同図において、制御部100は本発明により物体を学習並びに認識するときの全体を制御するもので、物体を撮像し、物体モデルのデータベースの中からひとつを選び、その物体モデルと撮像された物体の画像を照合して物体認識を行い、その認識データにより装置を駆動するときの流れを制御する。
画像入力部101は、照明光源103により照明された物体104をテレビカメラ、CCDカメラなどの撮像装置102により撮像し、その撮像された画像を画像入力部101内の画像メモリ(不図示)に取り込む。
物体学習部105は、撮像された物体の画像から学習データを生成し物体モデルのデータベース107に格納する。
物体認識部106は、認識すべき物体の画像と、データベースに格納されている学習物体の画像とを照合(パターンマッチング)し、物体の認識、つまり物体の位置、形状、姿勢などを検出して、物体の位置決めを行う。
画像輪郭線抽出部108は、撮像された画像から点列として構成される輪郭線を抽出し輪郭線の集合を生成する。
折れ線分解部109は、画像輪郭線抽出部108で抽出された複数の頂点列を結ぶ1本の折れ線を、与えられた折れ線分解長により分解し、直線、円、擬似円弧などの図形を生成する。
図形選択部110は生成された図形の集合から異なる2個以下の組み合わせを選び出す。
図形分類・特徴量抽出部111は2個以下の図形の配置の型を分類し、その特徴データを生成する。
ハッシュ関数回路112は特徴データを入力としてハッシュ表への指標(インデクス)を生成する。
<物体の学習>
以下に、物体学習部105での処理を図7の流れに沿って説明する。
認識すべき物体が図1に示されたような物体2である場合、画像入力部101は物体2をテレビカメラ102で撮像し、その画像を画像メモリに格納する。画像輪郭線抽出部108は画像メモリに格納された物体2の画像を処理して物体2の輪郭線3を抽出する。この輪郭線の抽出には、特許文献1、2に記載されているような公知の方法を用いることができ、輪郭線は、物体の画像処理により物体の輪郭線上の点(図1で黒丸の点、以下、頂点という)が抽出され、抽出された各頂点を直線で結ぶ折れ線として抽出される。このとき、抽出された輪郭線(折れ線)には、オペレータが指示した学習すべき領域で輪郭線が抽出される領域を示すコードR1、R2、、..を付加する。以上がステップT1の処理である。
次に、ステップT2において、学習LCR集合を初期化する。学習LCR集合は折れ線が分解されてできる直線(L)、擬似円弧(R)、円弧(C)の図形の格納場所であり、それぞれの格納数を0個にセットする。
続く、ステップT3〜T5で折れ線分解長Γを順に変え、それぞれのΓについて、折れ線集合の1本1本について分解を行う。折れ線分解長Γは、2つの頂点の直線距離で、その直線距離以上となると、一つの折れ線とすることを断念する長さで、学習物体に応じて所定の長さにあらかじめ定められる。分解長Γで分解された折れ線図形は、所定の判定ロジックにより、直線(L)、擬似円弧(R)、円弧(C)のいずれかの図形に分解される。そして、分解図形に折れ線の抽出領域コードを複写して学習LCR集合に格納する。このとき図形の種別L、R、Cごとに分けて格納する必要はない。
次に、ステップT6で、2個のハッシュ表を初期化する。ハッシュ表(Hash Table)はメモリであり、図10に示したような物体の特徴データを配列要素としている。2個のハッシュ表のうち、1個は認識において図形極性を見ないときのためのハッシュ表であり、もう1個は図形極性を見るときのためのハッシュ表であって、2個とも配列の全体をクリアし、初期化しておく。
続いて、ステップT7〜T9で、図形選択部110により学習LCR集合からすべての異なる2個以下の図形(L、R、C)を選び出し、それらの相対的な位置関係を調べて、特徴データとしてハッシュ表に書き込む。本実施例における図形L、R、Cの配置のうち、代表的なものが図11(一個の図形)、図12(2個の図形の組み合わせ)に図示されている。
図形の極性記述には仮想線が必要である。仮想線は位置と方向を持った仮想のラインで、図形配置ごとに定められ、図11、図12で太い点線で示されている。仮想線をどこに、どの方向に定めるかについての明確な原理はなく、実施者が自由に定義してよいもので、実施例で提示したものと異なるものを採用してもよい。
ただし、本実施例では以下の基準に従っている。
(1)円があれば円の中心回りに反時計回りの方向が仮想線、
(2)曲線は曲線に沿って、曲線の進行方向とは無関係に、曲線を左回りに回る方向が仮想線、
(3)線図形2個が交差すれば、交点近傍で反時計回りの方向が仮想線、
(4)閉じた空間があれば、空間内で反時計回りの方向が仮想線とする。
図9は異なる2個の折れ線図形が直線(L)と円(C)であった場合を示す。ここで直線Lは円Cの半径に比して比較的遠くにあるものとし、各図形の進行方向は実線矢印の向きとする。図11はその特徴データであり、特徴分類コードにはこの型が{LC}であることを示すコードを書き込む。また、図形配置コードにはこの配置が{LC遠隔型}であることを示すコードを書き込む。また、仮想線35があり、図形の定義順は「1」、「2」の順、すなわちL→Cの順である。
また、図形抽出領域コード(輪郭線抽出コード)には、図形Lの領域コード=R1、図形Cの領域コード=R1を書き込み、図形極性コードには、図形Lの図形極性コード=0、Cの図形極性コード=0を書き込む。ただし図形極性コードは進行方向が仮想方向と一致していれば0、不一致なら1と定める。続いて、図形L、Cの相対データ{r/h}を書き込む。
出来上がった特徴データ(図10)をハッシュ関数(図6のハッシュ関数回路112)に入力すると、ハッシュ表の位置指標であるところの整数(ハッシュ指標)が返される。ハッシュ指標は特徴データの全項目が入力データとなって計算される。2つの特徴データがある場合、一部でも異なるものがあればハッシュ指標も異なることに注意する。従って、図形抽出領域コードが異なれば異なるハッシュ指標すなわち異なる特徴であることがわかる。図形極性コードについても同様である。
まず、図形極性を見る方のハッシュ表について、ハッシュ指標の位置に特徴データを書き込む。次に、この特徴データの極性コード部を無効(0クリア)にする。この特徴データについても同様にハッシュ指標を得た後、今度は図形極性を見ないハッシュ表について、ハッシュ指標の位置に特徴データを書き込む。
なお、上述した図形の分類、特徴量(特徴データ)の生成(ステップT8)は、図6の図形分類、特徴量抽出部111で行われる。
以上でこの特徴1個分の処理が終了する。ステップT7に戻り同じことを繰り返す。これは異なる2個以下がすべて取り出されるまで繰り返す。
続いて、ステップT10で、生成された2個のハッシュ表を外部の物体モデルデータベース107に出力して学習を終了する。
<物体の認識>
次に、物体認識部106での物体認識の流れを図8の流れに従って詳述する。物体認識部106は、カメラ102により撮像された物体2の画像(図2)から輪郭線を抽出し、その輪郭線から物体の特徴データを抽出し、学習モデルと照合する。このとき、オペレータから図形極性を見るか見ないかの指示が出ているものとする。
ステップU1では、図2に示したような物体の画像から輪郭線を抽出する。物体の拡大/縮小、回転、平行移動を考慮して画像に対する抽出領域R1、R2の位置と大きさを決める。各抽出領域ごとに学習時と同じ仕様で輪郭線を抽出する。
ステップU2では、認識LCR集合を初期化する。学習時と同様に格納数を0個にセットする。
ステップU3〜U5では、図2において、折れ線分解長Γを順に変え、それぞれの折れ線分解長Γについて、折れ線集合の1本1本について分解を行い、直線(L)、擬似円弧(R)、円弧(C)の図形を生成する。生成された分解図形に折れ線(輪郭線)の抽出領域コードを複写して学習LCR集合に格納する。このときの折れ線分解長Γの個数と値は適当でよい。
続いて、ステップU6で倍率・回転・平行移動投票空間を初期化する。すなわち投票数を0クリアする。
続くステップU7〜U8では、認識LCR集合からすべての異なる2個以下の図形を選び出し、学習時と全く同様にそれらの相対的な位置関係を調べて、特徴データを生成する。ただしこのときの特徴データは図形極性を見るか否かにより、どちらか一方のみを生成することに注意する。
続くステップU9では、上記の特徴データをハッシュ関数に入力するとハッシュ指標が返される。図形極性を見るか否かにより、いずれか一方のハッシュ表におけるその位置のデータを読み出す。そして、ハッシュ表のデータと今回生成した特徴データを較べ、もし異なれば、この特徴データは学習されていない特徴データであるので無視し、一方、一致した場合、この特徴データは学習されている特徴データであり、図形同士の重ねあいを行うことができるので、UV座標系からXY座標系への座標変換式を生成し、そのパラメータを投票空間に投票する。
ステップU10では、すべての図形の組み合わせが終了するので、投票空間に分布する点集合を調べて、局所的に集中する点集合を探す。その中心座標をもとに目的とするUV座標系からXY座標系への初期座標変換式、つまり非常に粗い写像を得ることができるので、この座標変換式を出力し、物体の認識を終了する。
<効果>
以上説明したように、本実施例では、従来技術で問題であったところの、認識において誤って学習時のときと異なる輪郭線抽出領域から得た輪郭線で位置決めするという問題が原理的に解決されているので、物体の認識、つまり位置決め精度が高くなる。すなわち、本実施例では、物体の学習時に学習画像の輪郭線に輪郭線抽出領域コードが記録され、学習特徴データとして記録されるとともに、物体認識時においても、認識画像の輪郭線に輪郭線抽出領域コードが記録され、その認識特徴データと学習特徴データ同士の照合において、輪郭線抽出領域コードが一致することが特徴データが一致するための必要条件となっている。従って、物体認識時において、輪郭線が学習時と同じ条件で抽出されているためにより正確であり、従って特徴データもより正確であり、従って精密な照合が可能となる。
また、本実施例では、従来技術で問題であったところの、極性の違いを見るべき物体なのに見ることができずに同じ物体として認識してしまうという問題と、逆に極性の違いを無視すべき物体なのに無視することができずに異なる物体として排除してしまうという問題とがいずれも原理的に解決されているので、極性の違いについて柔軟な処理をすることができる。たとえば、本実施例では、輪郭線に輪郭線抽出ロジック固有の輪郭線の進行方向が付加され、さらに輪郭線または派生した図形からなる特徴データに位置と方向をもつところの仮想線が設定される。極性とはこの仮想線に対する輪郭線の進行方向の一致/不一致のことであり、特徴データに極性を付加したものと付加しないものの2種類の特徴データが作成されている。従って、認識特徴データと学習特徴データ同士の照合において、極性の違いを見るべき物体であれば極性を付加した方の特徴データ同士を照合すればよいし、逆に極性の違いを無視すべき物体であれば極性を付加しなかった方の特徴データ同士を照合すればよいことになる。
また、認識時、輪郭線抽出領域コードと輪郭線の極性を示すコードの両方のコードが学習時のものとそれぞれ一致することをが特徴データが一致するための必要条件とすることにより、更に認識精度を向上させることができる。
<他の実施例>
なお、上述した実施例では、認識時に極性を見るか見ないかを選択できるようにするために、学習においてハッシュ表を2個用意したが、極性を見るか見ないかの選択をオペレータが学習時に行い、認識時には学習時の選択に従うような操作の構成をとることも可能であり、その場合はハッシュ表は1個で済み、メモリ資源が少なくて好都合であるとともに、極性を見るか見ないかに関わらず上述した効果と同様な効果を得ることができる。
また、上述した実施例ではハッシュ表を使用したが、ハッシュ表を使わずに構成することもできる。その場合特徴データ(図10)を単純な配列に格納して学習データとすればよい。この場合もハッシュ表を使用した効果と同様な効果を得ることができる。しかも、このときの配列は1個で済むので好都合である。すなわち特徴データの極性コードは認識において極性を見るときのためのデータとしておくと良く、認識において特徴データを照合するときは、学習特徴配列の先頭から順に照合する。認識において極性を見るときは極性コードを照合し、極性を見ないときは極性コードを無視すればよい。
物体の学習のとき撮像された物体の画像を示す説明図である。 物体の認識のとき撮像された物体の画像を示す説明図である。 2個の形状要素を用いての照合を説明する説明図である。 輪郭線の頂点座標と明度勾配ベクトルを用いての照合を説明する説明図である。 輪郭線の極性を説明する説明図である。 物体の学習並びに認識を行う構成を示すブロック図である。 物体の学習の流れを示すフローチャートである。 物体の認識の流れを示すフローチャートである。 選択された2個の図形の特徴データを説明する説明図である。 図形の特徴データを示すハッシュ表である。 選択された1個の図形の特徴を示す図形分類図である。 選択された2個の図形の組み合わせのパターン並びにその特徴データを示した図形分類図である。
符号の説明
1 入力画像
2 物体
3 輪郭線
100 制御部
101 画像入力部
102 撮像装置
103 照明光源
104 物体
105 物体学習部
106 物体認識部
107 物体モデルデータベース
108 画像輪郭線抽出部
109 折れ線分解部
110 図形選択部
111 図形分類・特徴量抽出部
112 ハッシュ関数回路

Claims (4)

  1. 撮像された物体の画像の輪郭線を抽出し、抽出した輪郭線を学習輪郭線と照合して物体を認識する物体認識方法であって、
    物体学習時、学習すべき輪郭線を抽出する領域を指示して該指示した領域において輪郭線を抽出し、
    抽出した輪郭線ごとに該輪郭線を抽出した領域を示すコードを付与して輪郭線を記録し、
    物体認識時、認識すべき輪郭線を抽出する領域を指示し、該指示した領域において抽出した輪郭線に対して該輪郭線を抽出した領域を示すコードを付与し、
    認識時に付与された輪郭線抽出領域を示すコードと学習時に付与された輪郭線抽出領域を示すコードが一致している輪郭線を用いて物体を認識することを特徴とする物体認識方法。
  2. 撮像された物体の画像の輪郭線を抽出し、抽出した輪郭線を学習輪郭線と照合して物体を認識する物体認識装置であって、
    物体の画像の指示した領域において輪郭線を抽出する輪郭線抽出部と、
    物体学習時、抽出した輪郭線ごとに該輪郭線を抽出した領域を示すコードを付与して輪郭線を記録する物体学習部と、
    物体認識時、指示した領域において抽出した輪郭線に対して該輪郭線を抽出した領域を示すコードを付与し、該付与された輪郭線抽出領域を示すコードと学習時に付与された輪郭線抽出領域を示すコードが一致している輪郭線を用いて物体を認識する物体認識部と、
    を有することを特徴とする物体認識装置。
  3. 撮像された物体の画像の輪郭線を抽出し、抽出した輪郭線を学習輪郭線と照合して物体を認識する物体認識方法であって、
    物体学習時、学習した輪郭線ごとに該輪郭線の極性を示すコードを付与して輪郭線を記録し、
    物体認識時、認識した輪郭線に対して該輪郭線の極性を示すコードを付与し、認識時に付与された輪郭線の極性を示すコードと学習時に付与された輪郭線の極性を示すコードが一致している輪郭線を用いて物体を認識することを特徴とする物体認識方法。
  4. 撮像された物体の画像の輪郭線を抽出し、抽出した輪郭線を学習輪郭線と照合して物体を認識する物体認識装置であって、
    物体学習時、学習した輪郭線ごとに該輪郭線の極性を示すコードを付与して輪郭線を記録する物体学習部と、
    物体認識時、認識した輪郭線に対して該輪郭線の極性を示すコードを付与し、認識時に付与された輪郭線の極性を示すコードと学習時に付与された輪郭線の極性を示すコードが一致している輪郭線を用いて物体を認識する物体認識部と、
    を有することを特徴とする物体認識装置。
JP2007008613A 2007-01-18 2007-01-18 物体認識方法および装置 Pending JP2008176517A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007008613A JP2008176517A (ja) 2007-01-18 2007-01-18 物体認識方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007008613A JP2008176517A (ja) 2007-01-18 2007-01-18 物体認識方法および装置

Publications (1)

Publication Number Publication Date
JP2008176517A true JP2008176517A (ja) 2008-07-31

Family

ID=39703498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007008613A Pending JP2008176517A (ja) 2007-01-18 2007-01-18 物体認識方法および装置

Country Status (1)

Country Link
JP (1) JP2008176517A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102496136A (zh) * 2011-12-08 2012-06-13 中国人民解放军国防科学技术大学 基于图形处理单元的相位编组直线提取方法
JP2019121258A (ja) * 2018-01-10 2019-07-22 国立研究開発法人情報通信研究機構 情報処理装置およびセンシングシステム
JP7468472B2 (ja) 2021-07-08 2024-04-16 Jfeスチール株式会社 学習済みモデル生成方法、認識方法、及び情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002008186A (ja) * 2000-06-23 2002-01-11 Mitsubishi Heavy Ind Ltd 車種識別装置
JP2002319022A (ja) * 2001-04-23 2002-10-31 Mitsubishi Electric Corp 画像処理装置
JP2005128635A (ja) * 2003-10-21 2005-05-19 Sumitomo Bakelite Co Ltd 画像処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002008186A (ja) * 2000-06-23 2002-01-11 Mitsubishi Heavy Ind Ltd 車種識別装置
JP2002319022A (ja) * 2001-04-23 2002-10-31 Mitsubishi Electric Corp 画像処理装置
JP2005128635A (ja) * 2003-10-21 2005-05-19 Sumitomo Bakelite Co Ltd 画像処理装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102496136A (zh) * 2011-12-08 2012-06-13 中国人民解放军国防科学技术大学 基于图形处理单元的相位编组直线提取方法
CN102496136B (zh) * 2011-12-08 2013-04-17 中国人民解放军国防科学技术大学 基于图形处理单元的相位编组直线提取方法
JP2019121258A (ja) * 2018-01-10 2019-07-22 国立研究開発法人情報通信研究機構 情報処理装置およびセンシングシステム
JP7468472B2 (ja) 2021-07-08 2024-04-16 Jfeスチール株式会社 学習済みモデル生成方法、認識方法、及び情報処理装置

Similar Documents

Publication Publication Date Title
Wu et al. Image copy-move forgery detection via an end-to-end deep neural network
US7200270B2 (en) Pattern recognition apparatus and method using distributed model representation of partial images
Sun et al. Rethinking domain generalization for face anti-spoofing: Separability and alignment
US9418313B2 (en) Method for searching for a similar image in an image database based on a reference image
Yeh et al. Fast concurrent object localization and recognition
JP2006252162A (ja) パターン認識装置及びその方法
JP6104198B2 (ja) 物体認識装置
JP3914864B2 (ja) パターン認識装置及びその方法
Sulc et al. Kernel-mapped histograms of multi-scale lbps for tree bark recognition
CN112750107A (zh) 基于轮廓边数拟合与凸包处理的球形工件识别方法及系统
Manjunatha et al. Deep learning-based technique for image tamper detection
JP2017151797A (ja) 幾何検証装置、プログラム及び方法
JP6558803B2 (ja) 幾何検証装置及びプログラム
JPH11232306A (ja) ドキュメント突合せ方法およびシステム
JP2008176517A (ja) 物体認識方法および装置
Ho et al. Catastrophic child's play: Easy to perform, hard to defend adversarial attacks
Buniatyan et al. Weakly supervised deep metric learning for template matching
US9305235B1 (en) System and method for identifying and locating instances of a shape under large variations in linear degrees of freedom and/or stroke widths
JP5868005B2 (ja) 撮像装置、撮像条件設定方法、プログラム
US11580766B2 (en) Method for detecting at least one biometric trait visible in an input image by means of a convolutional neural network
Boffy et al. Real-Time Feature Matching using Adaptive and Spatially Distributed Classification Trees.
Doughan et al. Logic-based neural network for pattern correction
Aini et al. Object detection of surgical instruments for assistant robot surgeon using knn
Ali et al. MC2PS: Cloud-based 3-D place recognition using map segmentation coordinates points
JP4792939B2 (ja) パターンマッチング方法、パターンマッチング装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100115

A977 Report on retrieval

Effective date: 20110811

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Effective date: 20110823

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Effective date: 20120821

Free format text: JAPANESE INTERMEDIATE CODE: A02