JP6017335B2 - パターン認識装置、その方法、及び、そのプログラム - Google Patents

パターン認識装置、その方法、及び、そのプログラム Download PDF

Info

Publication number
JP6017335B2
JP6017335B2 JP2013021395A JP2013021395A JP6017335B2 JP 6017335 B2 JP6017335 B2 JP 6017335B2 JP 2013021395 A JP2013021395 A JP 2013021395A JP 2013021395 A JP2013021395 A JP 2013021395A JP 6017335 B2 JP6017335 B2 JP 6017335B2
Authority
JP
Japan
Prior art keywords
component
components
vector
reduced
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013021395A
Other languages
English (en)
Other versions
JP2014153814A (ja
Inventor
智一 河原
智一 河原
小坂谷 達夫
達夫 小坂谷
山口 修
修 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013021395A priority Critical patent/JP6017335B2/ja
Priority to US14/169,242 priority patent/US9342757B2/en
Publication of JP2014153814A publication Critical patent/JP2014153814A/ja
Application granted granted Critical
Publication of JP6017335B2 publication Critical patent/JP6017335B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、パターン認識装置、その方法、及び、そのプログラムに関するものである。
パターン認識に用いる特徴ベクトルの次元削減方法として、次のような方法がある。
第1の方法は、予め用意した学習データから主成分分析で得られる射影行列を用いて、高次元から低次元への次元削減を行う方法である。しかし、この第1の方法では、射影行列を記憶するために次元の2乗のメモリと、射影の計算に次元の2乗の積和演算のための大量のメモリや計算量が必要となる。
大量のメモリや計算量を必要としない第2の方法として、特徴ベクトルの成分をランダム抽出して次元削減する方法がある。しかし、この第2の方法は、認識性能が抽出する成分数に依存するため、大幅に次元削減を行うと認識性能も大幅に低下する。
第3の方法としては、画像縮小方法である面積平均法のように特徴ベクトルの成分を複数の区間に分け、各区間の平均値を次元削減した特徴ベクトルの成分とする方法である。しかし、この第3の方法は、平均値を取る成分の相関が高いと認識性能が低下する。
特開2010−44439号公報
"Pattern Classification", Richard O. Duda, Peter E. Hart, David G. Stork 著、Wiley-Interscience Page 115-117
上記のような従来の方法では、認識性能を維持しながら、パターン認識に用いる特徴ベクトルの次元削減を少量のメモリと計算量で行い難いいう問題点があった。
そこで本発明の実施形態は、上記問題点を解決するために、認識性能を維持しながら、パターン認識に用いる特徴ベクトルの次元削減を少量のメモリと計算量で行うことができるパターン認識装置、その方法、及び、そのプログラムを提供することを目的とする。
本発明の実施形態は、画像をパターンとして取得する取得部と、横方向がW列、縦方向がK行のラスタースキャンを前記パターンに行って、M個の成分を有するM次元の特徴ベクトルを抽出する抽出部と、前記M次元の特徴ベクトルを次元削減して、d次元(但し、M>d>0)の縮小ベクトルに変換する変換部と、カテゴリと、前記カテゴリに対応するように予め学習した縮小学習ベクトルの組を保持する記憶部と、変換した前記縮小ベクトルと、前記カテゴリ毎の前記縮小学習ベクトルとの類似度を計算する認識部と、前記類似度に基づいて、前記縮小ベクトルに類似する前記縮小学習ベクトルに対応した前記カテゴリを、前記パターンが属する前記カテゴリと判定する判定部と、を有し、前記変換部は、前記特徴ベクトルのM個の前記成分からN個(但し、M>N>0)の注目成分をサンプリングし、N個の前記注目成分から前記縮小ベクトルの一つの成分を計算する処理をd回実行して、d次元の前記縮小ベクトルを生成し、さらに、前記変換部は、前記注目成分をサンプリングする場合に、(1)前回サンプリングした前回の前記注目成分と同じ行では、予め定めた距離D内にある前記成分を除外し、(2)前回の前記注目成分と同じ列で、k行(但し、K>k>0)離れた前記成分を含み、かつ、前記k行離れた前記成分から前記距離(D−k)内にある前記成分を除外し、(3)除外して残った成分から今回の前記注目成分をサンプリングする、パターン認識装置である。
一実施形態に係るパターン認識装置のブロック図。 ラスタースキャンによるベクトル化の図。 特徴ベクトルの変換を示す図。 D<2のときのサンプリングを示す図。 D<5のときのサンプリングを示す図。 記憶部に記憶された認識テーブルを表す図。 パターン認識装置の処理を示すフローチャート。 パターン認識装置のハードウェア構成の一例を表すブロック図。 変換部の変更例のブロック図。 テーブル記憶部に記憶されたサンプリングテーブルを表す図。
以下、一実施形態のパターン認識装置1について図面に基づいて説明する。本実施形態に係るパターン認識装置1は、入力されたパターンから、そのパターンが属するカテゴリを出力する。
実施形態1
実施形態1のパターン認識装置1について図1〜図8に基づいて説明する。
パターン認識装置1の構成について図1に基づいて説明する。図1は、パターン認識装置1を表すブロック図である。
パターン認識装置1は、取得部11、抽出部12、変換部13、記憶部14、認識部15、判定部16、出力部17とを備え、変換部13はサンプル部131と計算部132とを備える。
パターン認識装置1は、取得部11が、入力としてパターンを取得し、抽出部12が、パターンからそのパターンの特徴を数値化したM次元の特徴ベクトルを抽出し、変換部13が、M次元の特徴ベクトルの次元を削減したd次元(但し、M>d>0)のベクトル(以下、「縮小ベクトル」という)に変換し、記憶部14が予め保持したカテゴリに対応した縮小ベクトルと、変換部13が変換した前記縮小ベクトルとの類似度を認識部15が計算し、判定部16が、全てのカテゴリに対応した類似度の中で、閾値を超え、かつ、最も類似度が高いカテゴリを、入力したパターンのカテゴリと判定し、出力部17が、そのカテゴリを出力する。
取得部11は、入力としてパターンをカメラ、記憶媒体、その他の機器から取得する。パターンは画像である。なお、この画像には静止画、又は、動画を含む。また、画像の中から認識対象を切り出した画像のデータでもよい。
例えば、認識するカテゴリが、顔や物体の場合は、画像中から顔領域や物体領域を検出し、その顔領域や物体領域を切り出した画像を入力パターンとする。
以下、本実施形態では、顔領域を認識対象としては顔であり、パターンは、顔領域が写った画像をパターンとする。顔以外の物体としては、例えば、人間の全身又は一部(例えば、上半身、下半身、手、足など)、自動車、自転車、標識など路上にあるものや、野菜、果物、肉、魚、パン、弁当、惣菜、菓子などの食品、花、木などの植物、犬、猫、鳥、魚などの動物、その他、建物や雲などである。
以下の説明では、パターンに用いる画像は静止画であり、この画像は縦方向がK=100画素(=100行)、横方向がW=50画素(=50列)の計5000個の画素から構成されているとする。
抽出部12は、パターン(1枚の静止画)から1個の特徴ベクトルのM個の成分と、各成分の位置を特徴抽出する。すなわち、図2に示すように、パターンが画像であるので、1枚の画像の各画素の成分をラスタースキャンして、M個の成分が一方向に並んだ1次元構造のM次元の特徴ベクトルを特徴抽出する。
「成分」とは、画素の画素値を意味し、例えば、輝度値である。画像が100×50画素の場合には、1枚の画像から5000個の成分を有する5000次元の特徴ベクトルが、特徴抽出できる。すなわち、M=5000である。
図2に示すように、一枚の画像の各画素の成分(輝度値)をラスタースキャンして、ベクトル化するものであり、ラスタースキャンする縦方向の画素数(=行数)は、K=100個(=行)である。ラスタースキャンする横方向の画素数(=列数、又は、1行の長さ)は、W=50個(=50列)である。
図2に示すように、1行目の成分は左側から順番にA1、A2、・・・、A50とし、2行目の成分は左側から順番にB1、B2、・・・、B50とする。そして、この特徴ベクトルは、1行目の50個(=50列)の成分、2行目の50個の成分、以下、順番に100行目の50個の成分までを横に並べて1次元の構造にしたものである。また、各成分の位置は、1次元の構造であるため、左端部の成分から数えて何番目に存在するかで決定され、例えば、成分B2の位置は左端部から52番目である。
変換部13は、サンプル部131と計算部132を有し、パターンから抽出した1個のM次元の特徴ベクトルを、その特徴ベクトルの次元よりも小さいd次元の縮小ベクトルに変換する。図3は、変換部13が行うM次元の特徴ベクトルの変換を図示したものである。例えば、変換部13は、5000次元の特徴ベクトルを500次元の縮小ベクトルに変換する。すなわち、d=500である。
図3(a)(b)に示すように、サンプル部131は、M次元の特徴ベクトルの成分(すなわち、M個の成分)からN個の成分をサンプリングする。Nは、予め設定しておくものであり、M>N>0であり、例えば、N=4である。このサンプリングは、特徴ベクトルの固有の性質を考慮し、N個の成分の相関が低くなるように行う。なお、相間が高いとは、比較する成分同士の類似し、相間が低いとは、比較する成分同士が類似しないという意味である。本明細書では、サンプリングされるN個の成分を「注目成分」という。
画像中の任意の画素の成分と、その近傍の画素の成分とは、相関が高い傾向がある。図2に示すように、画像をラスタースキャンによって注目成分をサンプリングする場合に、成分A2を注目成分とすると、同じ行(横方向)に関しては、注目成分A2の両隣の成分A1、成分A3とは、注目成分A2と相間が高い。また、同じ列(縦方向)に関しては、上下の行にある成分B2と注目成分A2とは相関が高い。この縦方向の相間に関しての見方を、1次元構造の特徴ベクトルから見ると、注目成分A2から画像の幅W(1行分の画素数が50個)離れた成分B2と注目成分A2とは相関が高い。
そのため、サンプル部131は、注目成分(例えば、成分A2とする)と横方向に並んだ近傍の位置にある成分(例えば、成分A1、A3である。以下、これら成分を「横近傍成分」という)を除外する。
また、サンプル部131は、注目成分(例えば、成分A2とする)と縦方向に並んだ近傍の位置にある成分、すなわち、注目成分の位置から距離が画像の幅Wの定数倍k離れた位置の近傍の位置にある成分(例えば、成分B1,B2,B3である。以下、これら成分を「縦近傍成分」という)を除外する。
図3(a)(b)に示すように、サンプル部131は、最初の注目成分の横近傍成分と縦近傍成分を除外して、残った成分から次の注目成分をサンプリングする。これをN回繰り返してN個の注目成分をサンプリングする。
図4は、相間が高い成分間の距離をDと予め定め、注目成分から距離D以上離れた成分のみをサンプリングする方法の一例を図示したものである。図4はD<2の例である。相間が高い成分間の距離Dは、画像上での距離と一致するように計算する。
サンプル部131は、画像の横方向の距離をR、縦方向の距離をkとすると、注目成分から距離D(=r+k<2)に存在する成分を除外して、残りの成分をサンプリングする。なお、距離Dは、画像上のL1距離を意味している。また、kは画像の縦方向の行数、すなわち、ラスタースキャンにおける行数を意味する。
以下、そのサンプリング方法を順番に説明する。
第1の処理において、サンプル部131は、図4(a)に示すように、M次元の特徴ベクトルの成分から第1の注目成分A2をランダムでサンプリングする。例えば、第1の注目成分A2には、図4(a)では白丸を記載する。
第2の処理において、サンプル部131は、図4(b)に示すように、第1の注目成分A2と距離D未満の横近傍成分をサンプリングから除外するために、これら横近傍成分A1,A3に除外フラグを立てる。この場合に、横近傍成分A1,A3は、第1の注目成分A2と同じ行であるためk=0であり、サンプル部131は、D=r<2の成分に除外フラグを立てる。除外フラグを立てた成分A1,A3には、図4(b)ではバツを記載する。
第3の処理において、サンプル部131は、第1の注目成分A2から画像の幅Wの定数k倍(k行後)の位置の距離(D−k)内の縦近傍成分B2をサンプリングから除外するために、この成分B2に除外フラグを立てる。図4(b)では成分B2にバツを記載する。D<2であるので、第1の注目成分A2の次の行の場合には、k=1であるので、D=r+k=r+1<2の成分B2に除外フラグを立てる。言い換えると、第1の注目成分A2の上下の縦近傍成分B2に除外フラグを立てる。
第4の処理において、サンプル部131は、図4(b)に示すように、M次元の特徴ベクトルの成分から第2の注目成分B6をランダムでサンプリングする。この場合に、第1の注目成分A2と第2、第3の処理で除外した成分A1,A3,B2は除外フラグに基づいてサンプリング対象から除く。第2の注目成分B6に図4(b)では白丸を記載する。
第5の処理において、サンプル部131は、図4(c)に示すように、第2の注目成分B6と距離D未満の横近傍成分と縦近傍成分をサンプリングから除外するために、これら横近傍成分B5,B7と縦近傍成分A6,C6・・・に除外フラグを立てる。
第6の処理において、サンプル部131は、図4(c)に示すように、M次元の特徴ベクトルの成分から第3の注目成分A50をランダムでサンプリングする。この場合に、第1の注目成分A2、第2の注目成分B6と、第2、第3、第5の処理で除外した成分A1,A3・・・・は除外フラグに基づいてサンプリング対象から除く。第3の注目成分A50に図4(b)では白丸を記載する。
以下、同様にして、N個の注目画素A2,B6,A50・・・をサンプリングする。
さらに、わかりやすく説明するために、例えば、D<5の例を図5に示す。注目画素をA10とする。そして、A、B、C、E、F、Gの成分が縦方向に並んでいるとする。なお、D行は、距離Dと符号が重なるため使用しない。
第1の処理において、サンプル部131は、図5に示すように、M次元の特徴ベクトルの成分から第1の注目成分A10をランダムでサンプリングする。第1の注目成分A10には、図5では白丸を記載する。
第2の処理において、サンプル部131は、第1の注目成分A10と同じ行ではk=0であるのでD=r+0となり、D<5を満たすには、D=4のA6、D=3のA7、D=2のA8、D=1のA9、D=1のA11、D=2のA12、D=3のA13、D=4のA14の成分に除外フラグを立てる。なお、これら除外フラグを立てた成分は横近傍成分であって、図5ではバツを記載する。
第3の処理において、サンプル部131は、第1の注目成分A10の次の行ではk=1であるのでD=r+1となり、D<5を満たすには、D=4のB7、D=3のB8、D=2のB9、D=1のB10、D=2のB11、D=3のB12、D=4のB13の成分に除外フラグを立てる。なお、これら除外フラグを立てた成分は縦近傍成分であって、図5ではバツを記載する。
第4の処理において、サンプル部131は、第1の注目成分A10の2行後ではk=2であるのでD=r+2となり、D<5を満たすには、D=4のC8、D=3のC9、D=2のC10、D=3のC11、D=4のC12の成分に除外フラグを立てる。なお、これら除外フラグを立てた成分は縦近傍成分であって、図5ではバツを記載する。
第5の処理において、サンプル部131は、第1の注目成分A10の3行後ではk=3であるのでD=r+3となり、D<5を満たすには、D=4のE9、D=3のE10、D=4のE11の成分に除外フラグを立てる。なお、これら除外フラグを立てた成分は縦近傍成分であって、図5ではバツを記載する。
第6の処理において、サンプル部131は、第1の注目成分A10の4行後ではk=4であるのでD=r+4となり、D<5を満たすには、D=4のF10の成分に除外フラグを立てる。なお、この除外フラグを立てた成分は縦近傍成分であって、図5ではバツを記載する。
第7の処理において、サンプル部131は、第1の注目成分A10の5行後ではk=5であるのでD=r+5となり、D<5を満たす成分はなく、G行の成分には除外フラグを立てない。
上記説明では、画像の最上部の行の注目画像A10で説明したため、下の行に向かって説明したが、画像の中央の行における注目画像の場合には、注目画素から見て上の行も同様にサンプリングを行い除去フラグを立てる。
計算部132は、図3(c)に示すように、サンプリングしたN個の注目成分(輝度値)の平均値(平均輝度値)を計算し、d次元の縮小ベクトルの成分の一つとする。
変換部13は、M次元の特徴ベクトルをd次元の縮小ベクトルに変換するため、サンプル部131が行うN個の注目成分のサンプリング処理と、計算部132が行うN個の注目成分の平均値を計算する処理とをd回行う。この場合に、2〜d回目の第1の注目成分のサンプリングは、M個の成分の中からランダムに決定する。
最後に、変換部13は、d次元の縮小ベクトルのノルムを1に正規化する。
記憶部14は、カテゴリを識別するためのカテゴリIDと、各カテゴリに対応するように予め学習しているd次元の縮小ベクトル(以下、「縮小学習ベクトル」という)の組を備えた認識テーブルを保持する。図6は認識テーブルの例である。なお、保持したd次元の縮小学習ベクトルは、ノルムを1に予め正規化されている。
認識部15は、変換部13が求めた縮小ベクトルと、認識テーブルに保持された縮小学習ベクトルとの類似度QをカテゴリID毎に計算する。類似度は0から1までの値を取り、1に近いほど対応するカテゴリに近い。例えば、縮小ベクトルと縮小学習ベクトルの内積を類似度Qとし、認識部15は、式(1)を用いて類似度Qを算出する。本実施形態では、いずれの特徴量も長さ(ノルム)が1の縮小ベクトルと縮小学習ベクトルであるため、この内積は単純類似度となる。

Qj=s1*tj1+s2*tj2+・・・+sd*tjd ・・・(1)

但し、s1,・・・,sdは、変換部13により抽出された縮小ベクトルを表し、tj1,・・・,tjdは、カテゴリID=1〜Jの記憶部14に記憶された縮小学習ベクトルを表す。また、1<j<Jである。
そして、認識部15は、全てのカテゴリについて、類似度Qjを計算する。
判定部16は、記憶部14に記憶された全てのカテゴリに対応する類似度Qの中から予め定めた閾値以上で、かつ、類似度Qjが最も高いカテゴリを、入力したパターンが属するカテゴリと判定する。判定部16は、閾値以上の類似度Qがない場合は、入力パターンに対応するカテゴリが無いと判定する。
出力部17は、判定したカテゴリを出力する。
パターン認識装置1の処理について図7に基づいて説明する。図7はパターン認識装置1の処理を表すフローチャートである。なお、図7のフローチャートに示す処理は取得部11がパターンを取得するたびに行われる。
ステップS11において、取得部11は、パターンを取得する(S11)。取得部11は、取得したパターンを抽出部12に供給する。
ステップS12において、抽出部12は、パターンからM次元の特徴ベクトルを抽出する(S12)。取得部12は、特徴ベクトルを変換部13のサンプル部131に供給する。
ステップS13において、サンプル部131は、M次元の特徴ベクトルからN個の注目成分をサンプリングする(S13)。サンプル部131は、サンプリングしたN個の注目成分を計算部132に供給する。
ステップS14において、計算部132は、サンプリングしたN個の注目成分の平均値を計算し、d次元の縮小ベクトルの一つの成分として代入する(S14)。
ステップS15において、計算部132は、d次元の縮小ベクトルの全ての成分(d個の成分)を算出したか否かを判定する(S15)。d次元の縮小ベクトルの全ての成分を算出していない場合は(S15:NO)、ステップS13に遷移し、サンプル部131は次のN個の注目成分を特徴ベクトルからサンプリングする。d次元の縮小ベクトルのd個の成分を算出した場合は(S15:YES)、d次元の縮小ベクトルを認識部15に供給し、ステップS16を実行する。
ステップ16において、認識部15は、変換した縮小ベクトルをノルム1に正規化する。
ステップ17において、認識部15は、変換した縮小ベクトルと、記憶部14が保持しているカテゴリID毎の縮小学習ベクトルとの類似度Qをそれぞれ計算する(S16)。そして、認識部15は、全カテゴリについて、カテゴリIDに対応する類似度Qを判定部16に供給する。
ステップ18において、判定部16は、カテゴリIDに対応する類似度Qからパターンが属するカテゴリを判定する(S17)。判定部16は、判定結果であるカテゴリを出力部17に供給する。
ステップ19において、出力部17は、判定結果であるカテゴリを出力する(S18)。
本実施形態によれば、入力されたパターンから抽出した特徴ベクトルを少ないメモリで高速に次元削減できる。また、平均値をとる成分は相関が低くなるようにサンプリングされているため、認識性能を維持できる。
図8は、パターン認識装置1のハードウェア構成の一例を表すブロック図である。図8に示すように、パターン認識装置1はCPU801と、パターンからそのパターンが属するカテゴリの認識を行う認識プログラムなどを記憶するROM802と、RAM803と、認識テーブルなどを記憶するHDD804と、HDD804とのインタフェイスであるI/F805と、パターン入力用のインタフェイスであるI/F806と、マウスやキーボードなどの入力装置807と、入力装置807とのインタフェイスであるI/F806と、ディスプレイなどの表示装置808と、表示装置808とのインタフェイスであるI/F810と、バス811とを備えており、通常のコンピュータを利用したハードウェア構成となっている。なおCPU801、ROM802、RAM803、I/F805、I/F806、I/F816、及びI/F810は、バス811を介して互いに接続されている。
パターン認識装置1では、CPU801が、ROM802からプログラムをRAM803上に読み出して実行することにより、上記各部(取得部、抽出部、計算部等)がコンピュータ上で実現され、HDD804に記憶されている照合データ等を用いて、I/F806から入力パターンの処理を行う。
なお、プログラムはHDD804に記憶されていてもよい。また、プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供されるようにしてもよい。また、プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、プログラムを、インターネット等のネットワーク経由で提供又は配布するようにしてもよい。また、図7のテーブルは、ROM802に記憶されていてもよい。また、画像をHDD804に記憶しておき、I/F805から画像を入力するようにしてもよい。
実施形態2
実施形態2のパターン認識装置1について図9と図10に基づいて説明する。
本実施形態の変換部13は、図9に示すように、サンプリングテーブルを記憶したテーブル記憶部133もさらに備える。このサンプリングテーブルは、図10に示すように、サンプリングの順番を保持するテーブルである。サンプリングの順番とは、M次元の特徴ベクトルにおける成分の位置を表す番号を意味する。そしてサンプル部131は、このサンプリングテーブルの番号に基づいて、N個の成分をサンプリングする。この順番は、サンプリング部131がサンプリングする処理に基づいて、予め順番が決められた順番が保持されている。
サンプル部131は、1番目は第n1成分、2番目は第n2成分とN番目の第nN成分までサンプリングを行う。次のサンプリングは第n(N+1)成分から開始する。
変更例
上記実施形態では、抽出部12は、画像をラスタースキャンして特徴ベクトルを抽出したが、これに代えて、画像をラスタースキャンする前に、画像にガボールやソーベルなどのファイルを施し、その後にラスタースキャンして特徴ベクトルを抽出してもよい。また、特許文献1で使用されている輝度勾配の共起関係の組合せのヒストグラムをベクトル化したものを特徴ベクトルとして使用してもよい。
上記実施形態では、サンプル部131が、注目画素に基づいて除外フラグを立てる成分を決定する場合に画像上のL1距離を用いたが、これに代えて、L2距離や他の距離を用いても良い。L2距離を用いる場合には、距離D=√(r+k)となる。
上記実施形態では、計算部132は、サンプリングしたN個の注目成分の平均値を計算し、d次元の縮小ベクトルの成分の一つとしたが、これに代えて、平均値ではなく注目成分(例えば、輝度値)の和を計算してもよい。
上記実施形態では、サンプル部131がサンプリングを行うための設計には計算コストがかかる可能性がある。そのため、少量であれば相関の高い成分が入っても認識性能の低下は軽微であることを利用し、サンプル部131は、区間平均値の場合よりも、画像の縦方向距離に関する相関が低くなるようにサンプリングしてもよい。例えば、サンプル部131が、ランダムにサンプリングすることで、縦方向距離に関する相関を区間平均値の場合に比べ低くできる。
上記実施形態では、変換部13がd次元の縮小ベクトルのノルムを1に正規化したが、正規化せず、そのまま使用してもよい。
上記実施形態では、認識度15のカテゴリーの認識のために単純類似度を用いたが、これに代えて、比較する縮小ベクトル間の距離を用いてもよい。その場合は、距離0に近いほど、入力パターンが対応するカテゴリに類似する。
上記では本発明の一実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の主旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1・・・パターン認識装置、11・・・取得部、12・・・抽出部、13・・・変換部、14・・・記憶部、15・・・認識部、16・・・判定部、17・・・出力部、131・・・サンプル部、132・・・計算部

Claims (6)

  1. 画像をパターンとして取得する取得部と、
    横方向がW列、縦方向がK行のラスタースキャンを前記パターンに行って、M個の成分を有するM次元の特徴ベクトルを抽出する抽出部と、
    前記M次元の特徴ベクトルを次元削減して、d次元(但し、M>d>0)の縮小ベクトルに変換する変換部と、
    カテゴリと、前記カテゴリに対応するように予め学習した縮小学習ベクトルの組を保持する記憶部と、
    変換した前記縮小ベクトルと、前記カテゴリ毎の前記縮小学習ベクトルとの類似度を計算する認識部と、
    前記類似度に基づいて、前記縮小ベクトルに類似する前記縮小学習ベクトルに対応した前記カテゴリを、前記パターンが属する前記カテゴリと判定する判定部と、
    を有し、
    前記変換部は、前記特徴ベクトルのM個の前記成分からN個(但し、M>N>0)の注目成分をサンプリングし、N個の前記注目成分から前記縮小ベクトルの一つの成分を計算する処理をd回実行して、d次元の前記縮小ベクトルを生成し、
    さらに、前記変換部は、前記注目成分をサンプリングする場合に、(1)前回サンプリングした前回の前記注目成分と同じ行では、予め定めた距離D内にある前記成分を除外し、(2)前回の前記注目成分と同じ列で、k行(但し、K>k>0)離れた前記成分を含み、かつ、前記k行離れた前記成分から前記距離(D−k)内にある前記成分を除外し、(3)除外して残った成分から今回の前記注目成分をサンプリングする、
    パターン認識装置。
  2. 前記変換部は、前記縮小ベクトルの一つの成分を計算するときに、前記サンプリングしたN個の前記注目成分の平均値、又は、和の値を求める、
    請求項1に記載のパターン認識装置。
  3. 前記変換部は、N個の前記注目成分を前記特徴ベクトルからサンプリングする場合に、前記特徴ベクトルにおける前記サンプリングする前記成分の位置と前記サンプリングの順番を定めたサンプリングテーブルに基づいてサンプリングする、
    請求項1又は2に記載のパターン認識装置。
  4. 前記カテゴリは人物、又は、一般物体である、
    請求項1乃至3のいずれか一項に記載のパターン認識装置。
  5. 画像をパターンとして取得し、
    横方向がW列、縦方向がK行のラスタースキャンを前記パターンに行って、M個の成分を有するM次元の特徴ベクトルを抽出し、
    前記M次元の特徴ベクトルを次元削減して、d次元(但し、M>d>0)の縮小ベクトルに変換し、
    カテゴリと、前記カテゴリに対応するように予め学習した縮小学習ベクトルの組を保持し、
    変換した前記縮小ベクトルと、前記カテゴリ毎の前記縮小学習ベクトルとの類似度を計算し、
    前記類似度に基づいて、前記縮小ベクトルに類似する前記縮小学習ベクトルに対応した前記カテゴリを、前記パターンが属する前記カテゴリと判定し、
    前記変換するときは、前記特徴ベクトルのM個の前記成分からN個(但し、M>N>0)の注目成分をサンプリングし、N個の前記注目成分から前記縮小ベクトルの一つの成分を計算する処理をd回実行して、d次元の前記縮小ベクトルを生成し、
    さらに、前記変換するときは、前記注目成分をサンプリングする場合に、(1)前回サンプリングした前回の前記注目成分と同じ行では、予め定めた距離D内にある前記成分を除外し、(2)前回の前記注目成分と同じ列で、k行(但し、K>k>0)離れた前記成分を含み、かつ、前記k行離れた前記成分から前記距離(D−k)内にある前記成分を除外し、(3)除外して残った成分から今回の前記注目成分をサンプリングする、
    パターン認識方法。
  6. 画像をパターンとして取得する取得機能と、
    横方向がW列、縦方向がK行のラスタースキャンを前記パターンに行って、M個の成分を有するM次元の特徴ベクトルを抽出する抽出機能と、
    前記M次元の特徴ベクトルを次元削減して、d次元(但し、M>d>0)の縮小ベクトルに変換する変換機能と、
    カテゴリと、前記カテゴリに対応するように予め学習した縮小学習ベクトルの組を保持する記憶機能と、
    変換した前記縮小ベクトルと、前記カテゴリ毎の前記縮小学習ベクトルとの類似度を計算する認識機能と、
    前記類似度に基づいて、前記縮小ベクトルに類似する前記縮小学習ベクトルに対応した前記カテゴリを、前記パターンが属する前記カテゴリと判定する判定機能と、
    をコンピュータに実現させ、
    前記変換機能は、前記特徴ベクトルのM個の前記成分からN個(但し、M>N>0)の注目成分をサンプリングし、N個の前記注目成分から前記縮小ベクトルの一つの成分を計算する処理をd回実行して、d次元の前記縮小ベクトルを生成し、
    さらに、前記変換機能は、前記注目成分をサンプリングする場合に、(1)前回サンプリングした前回の前記注目成分と同じ行では、予め定めた距離D内にある前記成分を除外し、(2)前回の前記注目成分と同じ列で、k行(但し、K>k>0)離れた前記成分を含み、かつ、前記k行離れた前記成分から前記距離(D−k)内にある前記成分を除外し、(3)除外して残った成分から今回の前記注目成分をサンプリングする、
    パターン認識プログラム。
JP2013021395A 2013-02-06 2013-02-06 パターン認識装置、その方法、及び、そのプログラム Active JP6017335B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013021395A JP6017335B2 (ja) 2013-02-06 2013-02-06 パターン認識装置、その方法、及び、そのプログラム
US14/169,242 US9342757B2 (en) 2013-02-06 2014-01-31 Pattern recognition apparatus, method thereof, and program product therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013021395A JP6017335B2 (ja) 2013-02-06 2013-02-06 パターン認識装置、その方法、及び、そのプログラム

Publications (2)

Publication Number Publication Date
JP2014153814A JP2014153814A (ja) 2014-08-25
JP6017335B2 true JP6017335B2 (ja) 2016-10-26

Family

ID=51259260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013021395A Active JP6017335B2 (ja) 2013-02-06 2013-02-06 パターン認識装置、その方法、及び、そのプログラム

Country Status (2)

Country Link
US (1) US9342757B2 (ja)
JP (1) JP6017335B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8769584B2 (en) 2009-05-29 2014-07-01 TVI Interactive Systems, Inc. Methods for displaying contextually targeted content on a connected television
US9449090B2 (en) 2009-05-29 2016-09-20 Vizio Inscape Technologies, Llc Systems and methods for addressing a media database using distance associative hashing
US10116972B2 (en) 2009-05-29 2018-10-30 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
US10949458B2 (en) 2009-05-29 2021-03-16 Inscape Data, Inc. System and method for improving work load management in ACR television monitoring system
US9071868B2 (en) 2009-05-29 2015-06-30 Cognitive Networks, Inc. Systems and methods for improving server and client performance in fingerprint ACR systems
US10375451B2 (en) 2009-05-29 2019-08-06 Inscape Data, Inc. Detection of common media segments
US9838753B2 (en) 2013-12-23 2017-12-05 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
US10192138B2 (en) 2010-05-27 2019-01-29 Inscape Data, Inc. Systems and methods for reducing data density in large datasets
US9955192B2 (en) 2013-12-23 2018-04-24 Inscape Data, Inc. Monitoring individual viewing of television events using tracking pixels and cookies
CA2973740C (en) 2015-01-30 2021-06-08 Inscape Data, Inc. Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device
MX2017013128A (es) 2015-04-17 2018-01-26 Inscape Data Inc Sistemas y metodos para reducir densidad de los datos en grandes conjuntos de datos.
JP6903653B2 (ja) 2015-07-16 2021-07-14 インスケイプ データ インコーポレイテッド 共通メディアセグメントの検出
US10080062B2 (en) 2015-07-16 2018-09-18 Inscape Data, Inc. Optimizing media fingerprint retention to improve system resource utilization
CA2992529C (en) 2015-07-16 2022-02-15 Inscape Data, Inc. Prediction of future views of video segments to optimize system resource utilization
WO2017011768A1 (en) 2015-07-16 2017-01-19 Vizio Inscape Technologies, Llc Systems and methods for partitioning search indexes for improved efficiency in identifying media segments
JP7118998B2 (ja) 2017-04-06 2022-08-16 インスケイプ データ インコーポレイテッド メディア視聴データを使用してデバイスマップの精度を改善させるためのシステムおよび方法
CN114677549A (zh) * 2020-12-24 2022-06-28 安徽寒武纪信息科技有限公司 规约多维向量的方法、电子设备以及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160885A (ja) * 1993-12-10 1995-06-23 Ricoh Co Ltd カラー画像認識方法
US6134344A (en) * 1997-06-26 2000-10-17 Lucent Technologies Inc. Method and apparatus for improving the efficiency of support vector machines
US7254269B2 (en) * 2000-08-31 2007-08-07 Hewlett-Packard Development Company, L.P. Character recognition system
US20030012435A1 (en) * 2001-06-15 2003-01-16 Datacard Corporation Apparatus and method for machine vision
US7233692B2 (en) * 2002-11-14 2007-06-19 Lockheed Martin Corporation Method and computer program product for identifying output classes with multi-modal dispersion in feature space and incorporating multi-modal structure into a pattern recognition system
KR100734849B1 (ko) * 2005-11-26 2007-07-03 한국전자통신연구원 얼굴 인식 방법 및 그 장치
WO2007065221A1 (en) * 2005-12-07 2007-06-14 Commonwealth Scientific And Industrial Research Organisation Linear feature detection method and apparatus
JP5231839B2 (ja) * 2008-03-11 2013-07-10 株式会社東芝 パターン認識装置及びその方法
JP5214367B2 (ja) * 2008-08-08 2013-06-19 株式会社東芝 特徴量抽出装置、特徴量抽出方法、画像処理装置、及び、プログラム
JP4547639B2 (ja) * 2008-08-26 2010-09-22 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8254699B1 (en) * 2009-02-02 2012-08-28 Google Inc. Automatic large scale video object recognition
JP5214679B2 (ja) * 2010-08-30 2013-06-19 株式会社東芝 学習装置、方法及びプログラム
KR20130000828A (ko) * 2011-06-24 2013-01-03 엘지이노텍 주식회사 얼굴 피쳐 검출 방법

Also Published As

Publication number Publication date
JP2014153814A (ja) 2014-08-25
US20140219554A1 (en) 2014-08-07
US9342757B2 (en) 2016-05-17

Similar Documents

Publication Publication Date Title
JP6017335B2 (ja) パターン認識装置、その方法、及び、そのプログラム
Dileep et al. AyurLeaf: a deep learning approach for classification of medicinal plants
EP2905724B1 (en) Object detection system and method
Owomugisha et al. Automated vision-based diagnosis of banana bacterial wilt disease and black sigatoka disease
EP2450850B1 (en) System and method for extracting representative feature
KR101917369B1 (ko) 컨볼루션 신경망을 이용한 영상 검색 방법 및 그 장치
US20210034907A1 (en) System and method for textual analysis of images
US9165220B2 (en) Image object recognition based on a feature vector with context information
JP6937508B2 (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
JP2006323507A (ja) 属性識別システムおよび属性識別方法
JP2017041206A (ja) 学習装置、探索装置、方法、及びプログラム
EP3239897A1 (en) Method and apparatus for determining the similarity between multivariate data sets
JP2020095408A (ja) リスト生成装置、被写体識別装置、リスト生成方法、及びプログラム
US8611695B1 (en) Large scale patch search
Prasetio et al. Identification of Malaria Parasite Patterns With Gray Level Co-Occurance Matrix Algorithm (GLCM)
US20160292529A1 (en) Image collation system, image collation method, and program
Da Silva et al. Application of wavelet transform in the classification of pollen grains
Li et al. Tree trunk detection in urban scenes using a multiscale attention-based deep learning method
JP6017005B2 (ja) 画像検索装置、画像検索方法及びプログラム
KR101667877B1 (ko) 물고기 영상의 특징 정보 추출 방법 및 물고기 영상의 특징 정보를 이용한 물고기 식별 방법
JP6486084B2 (ja) 画像処理方法、画像処理装置、及びプログラム
JP2019021100A (ja) 画像探索装置、商品認識装置および画像探索プログラム
JP2016001387A (ja) 画像分類前処理装置、画像分類装置、画像分類前処理方法、画像分類方法及びプログラム
US10810744B2 (en) Image processing device, image processing method and image processing program
Ponti et al. Color description of low resolution images using fast bitwise quantization and border-interior classification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160928

R151 Written notification of patent or utility model registration

Ref document number: 6017335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151