JP2012221070A - 特徴選択情報作成装置、画像識別装置、特徴選択情報作成方法、および特徴選択情報作成プログラム - Google Patents
特徴選択情報作成装置、画像識別装置、特徴選択情報作成方法、および特徴選択情報作成プログラム Download PDFInfo
- Publication number
- JP2012221070A JP2012221070A JP2011084104A JP2011084104A JP2012221070A JP 2012221070 A JP2012221070 A JP 2012221070A JP 2011084104 A JP2011084104 A JP 2011084104A JP 2011084104 A JP2011084104 A JP 2011084104A JP 2012221070 A JP2012221070 A JP 2012221070A
- Authority
- JP
- Japan
- Prior art keywords
- identification
- feature
- image
- selection information
- feature selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】識別率の低下を防止するとともに、特徴量から作成される、元の画像を類推するための閲覧用の画像の視認性を低減することができる特徴選択情報作成装置、画像識別装置、特徴選択情報作成方法、および特徴選択情報作成プログラムを提供する。
【解決手段】識別対象の特徴を示す識別辞書データと、入力する画像の特徴情報とを照合して、識別対象に対する識別率を取得する個別評価値算出手段と、前記識別率に基づき、遺伝的アルゴリズムに用いられる前記特徴選択情報の適応度を算出する特徴選択情報評価制御手段と、前記適応度に基づき、前記識別率が予め決められている基準識別率以上であるか否かを判定し、前記識別率が前記基準識別率以上である場合、当該適応度に対応する特徴選択情報を格納手段に書き込む特徴選択情報作成手段と、前記格納手段に書き込まれた特徴選択情報のうち、適応度に基づき、一の前記特徴選択情報を選択する制御手段と、を備える。
【選択図】図8
【解決手段】識別対象の特徴を示す識別辞書データと、入力する画像の特徴情報とを照合して、識別対象に対する識別率を取得する個別評価値算出手段と、前記識別率に基づき、遺伝的アルゴリズムに用いられる前記特徴選択情報の適応度を算出する特徴選択情報評価制御手段と、前記適応度に基づき、前記識別率が予め決められている基準識別率以上であるか否かを判定し、前記識別率が前記基準識別率以上である場合、当該適応度に対応する特徴選択情報を格納手段に書き込む特徴選択情報作成手段と、前記格納手段に書き込まれた特徴選択情報のうち、適応度に基づき、一の前記特徴選択情報を選択する制御手段と、を備える。
【選択図】図8
Description
本発明は、特徴選択情報作成装置、画像識別装置、特徴選択情報作成方法、および特徴選択情報作成プログラムに関するものである。
入力する画像を予め決められているカテゴリーに分類する際、画像の特徴量に基づき、どのカテゴリーに属する画像であるかを識別する装置がある。この装置は、入力する画像の特徴量と、データベース内に保管されている識別辞書と呼ばれるデータとを照合して、該当するカテゴリーを判定する。識別辞書は、複数の画像から抽出した特徴量のデータベースを統計的に解析して得られる情報であり、この識別辞書の情報から元の画像を類推することはできないため、仮にこの統計的な解析の対象とした画像が複数の人物の顔画像であっても、この識別辞書には個人情報は含まれない。しかしながら、識別辞書を作成するために統計的な解析の対象として用いた、特徴量のデータベースには、それが人物の顔画像から抽出された特徴量であった場合には、個人情報が含まれる場合がある。それは、特徴量の種類として、元の画像を類推できる特徴量を用いる場合である。
仮に、そのような種類の特徴量を用いて、かつ、それが複数の人物の顔画像から抽出した特徴量であった場合には、その特徴量のデータベースの情報が漏洩したときには当該人物のプライバシーが害されるおそれがある。
上記のデータベースに保管されている特徴量のデータが万一漏洩しても、その特徴量が示す元の画像を類推できないようにするため、例えば、暗号化した特徴量のデータをデータベース内に保存し、データベースから読み出す際に復号化する装置がある(例えば、特許文献1参照)。
仮に、そのような種類の特徴量を用いて、かつ、それが複数の人物の顔画像から抽出した特徴量であった場合には、その特徴量のデータベースの情報が漏洩したときには当該人物のプライバシーが害されるおそれがある。
上記のデータベースに保管されている特徴量のデータが万一漏洩しても、その特徴量が示す元の画像を類推できないようにするため、例えば、暗号化した特徴量のデータをデータベース内に保存し、データベースから読み出す際に復号化する装置がある(例えば、特許文献1参照)。
しかしながら、暗号化にどれほど強度の高い技術を用いたとしても、技術進歩により、今後解読されるようになるかもしれないという問題がある。この場合、データベース内に保存されている特徴量により、元の画像が類推されるおそれがある。
一方、元の画像の視認性を低減するような特徴量を用意したとしても、重要な特徴量を示す情報が欠落している場合、カテゴリーに分類する際の識別率が低下するおそれがある。
一方、元の画像の視認性を低減するような特徴量を用意したとしても、重要な特徴量を示す情報が欠落している場合、カテゴリーに分類する際の識別率が低下するおそれがある。
本発明は、このような事情を考慮してなされたものであり、その目的は、識別率の低下を防止するとともに、特徴量から作成される、元の画像を類推するための閲覧用の画像の視認性を低減することができる特徴選択情報作成装置、画像識別装置、特徴選択情報作成方法、および特徴選択情報作成プログラムを提供することにある。
上述の課題を鑑み、本発明に係る特徴選択情報作成装置は、画像識別装置において用いられる特徴選択情報を作成する特徴選択情報作成装置であって、前記画像識別装置の識別対象の特徴を示す識別辞書データと、入力する画像の特徴を示す特徴情報とを照合することにより、前記画像を正しい前記識別対象と識別する確率を示す識別率を取得する個別評価値算出手段と、前記識別率に基づき、遺伝的アルゴリズムに用いられる前記特徴選択情報の適応度を算出する特徴選択情報評価制御手段と、前記適応度に基づき、前記識別率が予め決められている基準識別率以上であるか否かを判定し、前記識別率が前記基準識別率以上である場合、当該適応度に対応する特徴選択情報を格納手段に書き込む特徴選択情報作成手段と、前記格納手段に書き込まれた特徴選択情報のうち、適応度に基づき、一の前記特徴選択情報を選択する制御手段と、を備えることを特徴とする。
上述の特徴選択情報作成装置において、前記個別評価値算出手段は、画像の画質の評価を示す画質評価情報を算出し、当該画質評価情報と前記識別率に基づき、前記適応度を算出することを特徴とする。
上述の課題を鑑み、本発明に係る画像識別装置は、上述のいずれか一つの特徴選択情報作成装置から出力する前記特徴選択情報を入力する入力部と、学習画像用の画像データから、当該学習用画像の特徴を示す特徴情報を抽出する特徴抽出手段と、前記特徴抽出手段によって抽出された前記学習用画像の特徴を示す特徴情報のうち、前記特徴選択情報が選択することを示す情報に対応する情報を用いて、前記特徴情報のうち一部の情報量が低減された圧縮特徴情報を作成する特徴選択手段と、前記圧縮特徴情報に基づき、識別対象の特徴を示す識別辞書データを作成する辞書作成手段と、を備えることを特徴とする。
上述の画像識別装置において、前記特徴抽出手段は、前記学習画像用の画像データに対して、異なる方向の勾配を有する勾配フィルタを重畳して積和計算を行うことにより算出される勾配画像データを作成し、当該勾配画像データに基づき、前記学習用画像の特徴を示す特徴情報を算出することを特徴とする。
上述の課題を鑑み、本発明に係る特徴選択情報作成方法は、画像識別装置において用いられる特徴選択情報を作成する特徴選択情報作成方法であって、前記画像識別装置の識別対象の特徴を示す識別辞書データと、入力する画像の特徴を示す特徴情報とを照合することにより、前記画像を正しい前記識別対象と識別する確率を示す識別率を取得するステップと、前記識別率に基づき、遺伝的アルゴリズムに用いられる前記特徴選択情報の適応度を算出するステップと、前記適応度に基づき、前記識別率が予め決められている基準識別率以上であるか否かを判定し、前記識別率が前記基準識別率以上である場合、当該適応度に対応する特徴選択情報を格納手段に書き込むステップと、前記格納手段に書き込まれた特徴選択情報のうち、適応度に基づき、一の前記特徴選択情報を選択するステップと、を備えることを特徴とする。
上述の課題を鑑み、本発明に係る特徴選択情報作成プログラムは、コンピュータを、画像識別装置の識別対象の特徴を示す識別辞書データと、入力する画像の特徴を示す特徴情報とを照合することにより、前記画像を正しい前記識別対象と識別する確率を示す識別率を取得する個別評価値算出手段、前記画像識別装置において用いられる特徴選択情報についての遺伝的アルゴリズムに用いられる適応度を前記識別率に基づき算出する特徴選択情報評価制御手段、前記適応度に基づき、前記識別率が予め決められている基準識別率以上であるか否かを判定し、前記識別率が前記基準識別率以上である場合、当該適応度に対応する特徴選択情報を格納手段に書き込む特徴選択情報作成手段、前記格納手段に書き込まれた特徴選択情報のうち、適応度に基づき、一の前記特徴選択情報を選択する制御手段、として機能させるための特徴選択情報作成プログラムであることを特徴とする。
本発明によると、識別率の低下を防止するとともに、元の画像の視認性を低減することができる。
[第1実施形態]
以下、本発明の一実施形態にかかる画像識別システムの一例について説明する。図1は、本実施形態にかかる画像識別システムの構成の一例を示す図である。
図1に示す通り、本実施形態に係る画像識別システムは、特徴選択情報作成装置1と画像識別装置2とを備える。
特徴選択情報作成装置1は、画像識別装置2によって利用される特徴選択情報を作成し、画像識別装置2に出力する。この特徴選択情報とは、画像識別装置2によって識別される識別対象の特徴を示す特徴情報から、識別率の低下を防止し、かつ、視認性を低下させるための特徴情報を選択的に取得するための情報である。画像識別装置2は、この特徴選択情報を用いて、元の画像の特徴情報から、識別率への寄与が低い情報を削除して、識別用特徴情報を作成する。これにより、適当な識別率を確保することができるとともに、この識別用特徴情報を用いて画像を再現することにより視認性を低くすることができる。
この特徴選択情報作成装置1については、図8〜13を参照して、以下に詳細に説明する。
以下、本発明の一実施形態にかかる画像識別システムの一例について説明する。図1は、本実施形態にかかる画像識別システムの構成の一例を示す図である。
図1に示す通り、本実施形態に係る画像識別システムは、特徴選択情報作成装置1と画像識別装置2とを備える。
特徴選択情報作成装置1は、画像識別装置2によって利用される特徴選択情報を作成し、画像識別装置2に出力する。この特徴選択情報とは、画像識別装置2によって識別される識別対象の特徴を示す特徴情報から、識別率の低下を防止し、かつ、視認性を低下させるための特徴情報を選択的に取得するための情報である。画像識別装置2は、この特徴選択情報を用いて、元の画像の特徴情報から、識別率への寄与が低い情報を削除して、識別用特徴情報を作成する。これにより、適当な識別率を確保することができるとともに、この識別用特徴情報を用いて画像を再現することにより視認性を低くすることができる。
この特徴選択情報作成装置1については、図8〜13を参照して、以下に詳細に説明する。
画像識別装置2は、学習処理部201と、識別処理部202と、入力部203と、識別辞書記憶部204と、出力部205とを備える。この画像識別装置2は、例えば、人物の顔が映った画像データに基づき、当該人物の性別を識別する。つまり、画像識別装置2は、入力する識別用画像が、女性の顔を含む女性カテゴリーに属する画像であるか、あるいは、男性の顔を含む男性カテゴリーに属する画像であるかを判定する。なお、本発明に係る画像識別装置2はこれに限られず、予め決められているカテゴリーのうち、どのカテゴリーに属する画像であるかを識別するものであればよい。
学習処理部201は、学習用画像データベース2011と、特徴抽出手段2012と、特徴選択手段2013と、辞書作成手段2014とを含む。この学習処理部201は、学習対象である複数の画像データから識別対象の特徴を示す特徴量を抽出し、識別対象の特徴を学習して、識別の基準となるデータ(以下、識別辞書データという)を作成する処理部である。
学習用画像データベース2011は、学習対象である画像データ(以下、学習用画像データEという)を格納するデータベースである。この学習用の画像は、例えば、人物の顔を含む画像である。この学習用画像データベース2011は、正解カテゴリーがわかっている学習用画像の画像データを複数枚格納する。例えば、正解カテゴリーがわかっている学習用画像として、男性の顔を含む男性カテゴリーに属する画像の画像データを複数枚格納する。また、学習用画像データベース2011は、正解カテゴリーがわかっている学習用画像として、女性の顔を含む女性カテゴリーに属する画像の画像データを複数枚格納する。
特徴抽出手段2012は、図2に示す通り、顔検出手段2121と、勾配画像作成手段2122と、原特徴ベクトル算出手段2123と、閲覧画像作成手段2124とを備える。
図2は特徴抽出手段2012の構成の一例を示す図である。
顔検出手段2121は、学習用画像データベース2011から学習用画像データEを一枚ずつ読み出し、識別対象である人物の顔を検出する。例えば、顔検出手段2121は、人物の顔を検出するためのパターンデータを内蔵するメモリに記憶しておき、このパターンデータを参照して、顔のパターン認識を実行する。これにより、顔検出手段2121は、学習用画像データEから人物の顔を検出する。
この顔検出手段2121は、検出した人物の顔および若干の周辺を含む領域を顔領域画像の画像データ(以下、顔画像データJという)を学習用画像データから切り出す。この顔検出手段2121は、切り出す顔画像データの画像サイズを、例えば、縦と横の大きさを80×80画素のサイズに正規化する。顔検出手段2121は、この正規化された画像データである顔画像データJを、勾配画像作成手段2122に出力する。
図2は特徴抽出手段2012の構成の一例を示す図である。
顔検出手段2121は、学習用画像データベース2011から学習用画像データEを一枚ずつ読み出し、識別対象である人物の顔を検出する。例えば、顔検出手段2121は、人物の顔を検出するためのパターンデータを内蔵するメモリに記憶しておき、このパターンデータを参照して、顔のパターン認識を実行する。これにより、顔検出手段2121は、学習用画像データEから人物の顔を検出する。
この顔検出手段2121は、検出した人物の顔および若干の周辺を含む領域を顔領域画像の画像データ(以下、顔画像データJという)を学習用画像データから切り出す。この顔検出手段2121は、切り出す顔画像データの画像サイズを、例えば、縦と横の大きさを80×80画素のサイズに正規化する。顔検出手段2121は、この正規化された画像データである顔画像データJを、勾配画像作成手段2122に出力する。
なお、顔検出手段2121による顔画像データの取得処理は、これに限られず、例えば、参考文献(1)に記述された方法を用いるものであってもよい。
参考文献(1)
Li Tian, Shingo Ando, Akira Suzuki, Hideki Koike:”A probabilistic approach for fast and robustmulti-view face detection using compact local patterns ”proceedings of IEVC2010
参考文献(1)
Li Tian, Shingo Ando, Akira Suzuki, Hideki Koike:”A probabilistic approach for fast and robustmulti-view face detection using compact local patterns ”proceedings of IEVC2010
この顔検出手段2121によって取得された顔画像データJの一例を図3に示す。図3(a)には、顔画像データJ1を、図3(b)には、顔画像データJ2を、それぞれ示す。
図3に示す通り、顔画像データJ1、J2は、異なる人物の顔を含む画像であって、人物はともに男性である。
図3に示す通り、顔画像データJ1、J2は、異なる人物の顔を含む画像であって、人物はともに男性である。
勾配画像作成手段2122は、入力する顔画像データJに基づき、勾配画像データIgを作成し、原特徴ベクトル算出手段2123に出力する。この勾配画像作成手段2122の処理について、図4を参照して説明する。図4は、勾配画像作成手段2122による処理を説明するための図である。
入力データである顔画像データJは、N×N画素(例えば、N=80)の画像サイズを有する。つまり、顔画像データJは、N2個の画素(0,0)〜(N−1,N−1)によって構成される画像データである。この顔画像データJにおける座標(i,j)は、図4に示す通り、垂直方向の座標がi、水平方向の座標がjである。
入力データである顔画像データJは、N×N画素(例えば、N=80)の画像サイズを有する。つまり、顔画像データJは、N2個の画素(0,0)〜(N−1,N−1)によって構成される画像データである。この顔画像データJにおける座標(i,j)は、図4に示す通り、垂直方向の座標がi、水平方向の座標がjである。
勾配画像作成手段2122は、顔画像データJを代表する画素として予め決められている位置の画素をサンプル点S(図において●で示す画素)として抽出する。このサンプル点Sは、顔画像データJの全画素から均一的に選択される画素である。本実施形態において、勾配画像作成手段2122は、例えば、i、jの両方に対して1画素置きにサンプル点Sを設定し、かつ、顔画像データJの端(最も外側の1周分の画素)にはサンプル点Sを設定しない。つまり、勾配画像作成手段2122は、{(N−2)/2}2=M2個のサンプル点S1(i,j)〜SM2(i,j)を、顔画像データJから抽出する。なお、SM2(i,j)は、M2番目のサンプル点である。
勾配画像作成手段2122は、これらサンプル点S1〜SM2により構成される画像に対して、例えば、異なる方向の勾配を有する勾配フィルタを重畳して積和計算を行う。本実施形態において、この勾配フィルタは、3×3画素の4種類のフィルタであって、例えば、水平方向の勾配を有する勾配フィルタf1、垂直方向の勾配を有する勾配フィルタf2、左斜め方向の勾配を有する勾配フィルタf3、右斜め方向の勾配を有する勾配フィルタf4である。
つまり、勾配画像作成手段2122は、顔画像データJに対して、勾配フィルタf1〜f4を重畳して積和計算を行うことにより、水平、垂直、左斜め、および右斜め、の4方向の微分演算を実施する。勾配画像作成手段2122は、演算結果の数値の絶対値を、対応する4枚の勾配画像データIg1〜Ig4に書き込む。この勾配画像データIgの一辺のサイズは、M=(N−2)/2であり、本実施形態において、M=39である。
つまり、この勾配画像作成手段2122は、サンプル点Sの座標(i,j)に対応する演算結果を、勾配画像データIgの座標(i/2,j/2)に書き込む。
つまり、勾配画像作成手段2122は、顔画像データJに対して、勾配フィルタf1〜f4を重畳して積和計算を行うことにより、水平、垂直、左斜め、および右斜め、の4方向の微分演算を実施する。勾配画像作成手段2122は、演算結果の数値の絶対値を、対応する4枚の勾配画像データIg1〜Ig4に書き込む。この勾配画像データIgの一辺のサイズは、M=(N−2)/2であり、本実施形態において、M=39である。
つまり、この勾配画像作成手段2122は、サンプル点Sの座標(i,j)に対応する演算結果を、勾配画像データIgの座標(i/2,j/2)に書き込む。
このようにして、勾配画像作成手段2122は、各フィルタfxに対応する勾配画像データIgxを作成する。例えば、勾配画像作成手段2122は、水平方向の勾配を有する勾配フィルタf1に対応する勾配画像データIg1を生成する。勾配画像作成手段2122は、垂直方向の勾配を有する勾配フィルタf2に対応する勾配画像データIg2を生成する。勾配画像作成手段2122は、左斜め方向の勾配を有する勾配フィルタf3に対応する勾配画像データIg3を生成する。勾配画像作成手段2122は、右斜め方向の勾配を有する勾配フィルタf4に対応する勾配画像データIg4を生成する。
これら勾配画像データIg1〜Ig4は、原画像である顔画像データJと同様に、垂直方向の座標をi、水平方向の座標をjと表わす。そして、勾配画像データIgx(x=1,2,3,4)の座標(i,j)の画素値を、画素値Igx(i,j)と表わす。
勾配画像作成手段2122は、作成した勾配画像データIg1〜Ig4を、原特徴ベクトル算出手段2123に出力する。
これら勾配画像データIg1〜Ig4は、原画像である顔画像データJと同様に、垂直方向の座標をi、水平方向の座標をjと表わす。そして、勾配画像データIgx(x=1,2,3,4)の座標(i,j)の画素値を、画素値Igx(i,j)と表わす。
勾配画像作成手段2122は、作成した勾配画像データIg1〜Ig4を、原特徴ベクトル算出手段2123に出力する。
原特徴ベクトル算出手段2123は、入力する勾配画像データIg1〜Ig4に基づき、原特徴ベクトルGを算出し、閲覧画像作成手段2124に出力する。
原特徴ベクトル算出手段2123は、例えば、勾配画像データIg1〜Ig4に含まれる値を中間的なベクトルgとして記述する。この原特徴ベクトル算出手段2123は、このベクトルgを、以下の式に従って正規化して、原特徴ベクトルGを作成する。
原特徴ベクトル算出手段2123は、例えば、勾配画像データIg1〜Ig4に含まれる値を中間的なベクトルgとして記述する。この原特徴ベクトル算出手段2123は、このベクトルgを、以下の式に従って正規化して、原特徴ベクトルGを作成する。
なお、原特徴ベクトルGの要素の並べ方は、以下に示す通り、勾配画像データIg1〜Ig4の座標(i,j)に対応する4つの値をまとめたものを座標(i,j)の順番に配列することが好ましい。
なお、式(1)における各要素は、以下のように示すことができる。
原特徴ベクトルGの次元数をKで表わす。K=4M2である。
閲覧画像作成手段2124は、入力する原特徴ベクトルGに基づき、閲覧画像データIgDを作成し、特徴選択手段1213に出力する。
この閲覧画像作成手段2124は、原特徴ベクトルGにおける要素のうち、座標(i,j)が同一の以下の4つの要素
この閲覧画像作成手段2124は、原特徴ベクトルGにおける要素のうち、座標(i,j)が同一の以下の4つの要素
を一つの値にまとめることで1枚の画像に統合する。かつ、閲覧画像作成手段2124は、画像の輝度を反転させることで閲覧画像データIgDを生成する。この閲覧画像データIgDの画像サイズは、勾配画像データIg1〜Ig4と同じくM2=39×39画素である。なお、閲覧画像データIgDの座標(i,j)の画素に該当する値を、画素値IgD(i,j)と表す。閲覧画像作成手段2124は、以下の式(2)に従って、画素値IgD(i,j)を算出する。
なお、式(2)において、「Imax」は、閲覧画像データIgDに含まれる画素値のうち最大値の画素値である。本実施形態では、画素値を8ビットで表すため、最大画素値Imax=255である。また、「α」は、閲覧画像データIgDで表示するエッジの強さを調整するためのパラメータであり、人が目視により確認して実験的に調整した値である。
また、パラメータαを乗算することで、式(2)の右辺の二項目の数値が最大画素値Imaxを超えてしまう可能性がある。このため、式(2)では、2引数の中の最小値を出力する関数minを導入して、最大値をImaxとした。つまり、関数minは、式(2)の右辺の二項目の数値が最大画素値Imaxを超えないようにするための関数であって、予め決められている。
また、パラメータαを乗算することで、式(2)の右辺の二項目の数値が最大画素値Imaxを超えてしまう可能性がある。このため、式(2)では、2引数の中の最小値を出力する関数minを導入して、最大値をImaxとした。つまり、関数minは、式(2)の右辺の二項目の数値が最大画素値Imaxを超えないようにするための関数であって、予め決められている。
図3に示す顔画像データJ1、J2から生成される閲覧画像データIgD1と閲覧画像データIgD2の一例を図5に示す。
図5に示す通り、閲覧画像データIgD1に示される人物の顔は、ある程度視認できるものであり、顔画像データJ1に映る人物の顔であると視認される可能性が高い。また、閲覧画像データIgD2に示される人物の顔も、ある程度視認できるものであり、顔画像データJ2に映る人物の顔であると視認される可能性が高い。
図5に示す通り、閲覧画像データIgD1に示される人物の顔は、ある程度視認できるものであり、顔画像データJ1に映る人物の顔であると視認される可能性が高い。また、閲覧画像データIgD2に示される人物の顔も、ある程度視認できるものであり、顔画像データJ2に映る人物の顔であると視認される可能性が高い。
特徴選択手段2013は、入力する原特徴ベクトルGに対して、特徴選択情報である染色体ベクトルFを適用して、圧縮特徴ベクトルHを作成し、辞書作成手段2014に出力する。この特徴選択手段2013は、特徴選択情報である染色体ベクトルFを用いて、原特徴ベクトルGのうち、識別率への寄与が低い情報を削除することにより、圧縮特徴ベクトルHを作成する。
この特徴選択手段2013による圧縮特徴ベクトルHの作成の一例について、図6を参照して説明する。図6は、特徴選択情報を適用して圧縮特徴ベクトルHの作成方法の一例を説明するための参考図である。
この特徴選択手段2013による圧縮特徴ベクトルHの作成の一例について、図6を参照して説明する。図6は、特徴選択情報を適用して圧縮特徴ベクトルHの作成方法の一例を説明するための参考図である。
特徴選択ベクトルFは、例えば、原特徴ベクトルGと同じ長さM2のビット列である。この特徴選択ベクトルFは、個々のビットを要素とするM2次元のベクトルで表すことができる。この特徴選択ベクトルFは、原特徴ベクトルGの上記の4つの要素
を一括して選択する値を表すビット
をすべてのi,jについて並べた構成とする。
本実施形態において、特徴選択ベクトルFは、要素Fi jの値が“0”である場合、この要素Fi jに対応する原特徴ベクトルGの要素xGi j{x=1〜4}の値を圧縮特徴ベクトルHの要素xHi jとして使用しないことを意味する。一方、特徴選択ベクトルFは、要素Fi jの値が“1”である場合、この要素Fi jに対応する原特徴ベクトルGの要素xGi j{x=1〜4}の値を圧縮特徴ベクトルHの要素xHi jとして使用することを意味する。
よって、特徴選択手段2013は、特徴選択ベクトルFを原特徴ベクトルGに適用することにより、特徴選択ベクトルFの要素Fi j=0である場合、この要素Fi jに対応する原特徴ベクトルGの要素xGi j{x=1〜4}の値を0に書き換えて圧縮特徴ベクトルHの要素xHi jとする。また、特徴選択手段2013は、特徴選択ベクトルFを原特徴ベクトルGに適用することにより、特徴選択ベクトルFの要素Fi j=1である場合、この要素Fi jに対応する原特徴ベクトルGの要素xGi j{x=1〜4}の値をそのまま圧縮特徴ベクトルHの要素xHi jとする。
圧縮特徴ベクトルHの要素xHi jは、原特徴ベクトルGの要素xGi jと一対一で対応している。
特徴選択手段2013は、このようにして作成した圧縮特徴ベクトルHを辞書作成手段2014に出力する。
特徴選択手段2013は、このようにして作成した圧縮特徴ベクトルHを辞書作成手段2014に出力する。
原特徴ベクトルGから閲覧画像データIgDを作成した手順により、原特徴ベクトルGと圧縮特徴ベクトルHから作成した閲覧画像データIgDの一例を図7に示す.
図7(a)は、原特徴ベクトルGに基づき再現した画像の一例を示す。
図7(b)は、圧縮特徴ベクトルHに基づき再現した画像の一例を示す。
図7(b)に示す圧縮特徴ベクトルHに基づき再現した画像は、図7(a)に示す原特徴ベクトルGに基づき再現した画像に比べて、大きく視認性が低下していることがわかる。
このように、特徴選択情報を適用することにより、識別率が低下せずに視認性ができる限り低下させることができる。
図7(a)は、原特徴ベクトルGに基づき再現した画像の一例を示す。
図7(b)は、圧縮特徴ベクトルHに基づき再現した画像の一例を示す。
図7(b)に示す圧縮特徴ベクトルHに基づき再現した画像は、図7(a)に示す原特徴ベクトルGに基づき再現した画像に比べて、大きく視認性が低下していることがわかる。
このように、特徴選択情報を適用することにより、識別率が低下せずに視認性ができる限り低下させることができる。
辞書作成手段2014は、入力する圧縮特徴ベクトルHに基づき識別辞書データを作成する。本実施例において、辞書作成手段2014は、例えば、各カテゴリーにおける学習データの特徴ベクトルの平均値とのユークリッド距離の大小を比較する方法を用いている。このため、辞書作成手段2014は、圧縮特徴ベクトルHを正解カテゴリーによって2つの集合に分け、各々の集合で平均ベクトルを作成してこれを識別辞書データとする。
この辞書作成手段2014は、男性の顔を含む画像の学習用画像データEに基づく作成した圧縮特徴ベクトルHの辞書画像データとして、例えば、識別辞書ベクトルD1=D11,D12,・・・D1Nを識別辞書記憶部204に格納する。この識別辞書ベクトルD1に対しては、それぞれ、正解カテゴリー番号C1が対応付けられている。
また、辞書作成手段2014は、女性の顔を含む画像の学習用画像データEに基づく作成した圧縮特徴ベクトルHの辞書画像データとして、例えば、識別辞書ベクトルD2=D21,D22,・・・D2Nを識別辞書記憶部204に格納する。この識別辞書ベクトルD2に対しては、それぞれ、正解カテゴリー番号C2が対応付けられている。
この辞書作成手段2014は、男性の顔を含む画像の学習用画像データEに基づく作成した圧縮特徴ベクトルHの辞書画像データとして、例えば、識別辞書ベクトルD1=D11,D12,・・・D1Nを識別辞書記憶部204に格納する。この識別辞書ベクトルD1に対しては、それぞれ、正解カテゴリー番号C1が対応付けられている。
また、辞書作成手段2014は、女性の顔を含む画像の学習用画像データEに基づく作成した圧縮特徴ベクトルHの辞書画像データとして、例えば、識別辞書ベクトルD2=D21,D22,・・・D2Nを識別辞書記憶部204に格納する。この識別辞書ベクトルD2に対しては、それぞれ、正解カテゴリー番号C2が対応付けられている。
上述の通り、特徴選択情報作成装置1の特徴抽出手段2012は、顔画像データJに基づき、勾配画像データIg1〜Ig4を作成する。
勾配ベースの画像では低周波成分が抑制されるので、原理的に照明の不均一性の影響を受けにくい特長がある。また、ぼかしや小ブロックへの分割・ヒストグラム化により位置ずれへのロバスト性もある。したがって、勾配ベースの特徴は、シンプルな特徴量であるにもかかわらず識別能力が高い。
勾配ベースの画像では低周波成分が抑制されるので、原理的に照明の不均一性の影響を受けにくい特長がある。また、ぼかしや小ブロックへの分割・ヒストグラム化により位置ずれへのロバスト性もある。したがって、勾配ベースの特徴は、シンプルな特徴量であるにもかかわらず識別能力が高い。
例えば、勾配ベースの特徴量の例としては、以下の参考文献(2)において、画像の輝度値を対数に変換した画像に対して水平方向と垂直方向の微分とぼかしを行った画像が特徴として用いられている。
参考文献(2)
高橋裕子、 田中久子、 鈴木章、 塩昭夫、 大塚作一: ”多値テンプレートマッチングを用いたナンバープレート認識法: 雑音抑制フィルタと文字配置規則の効果的利用”、 電子情報通信学会論文誌、Vol.J87DII,No.7,pp.1451-1461(2004)
参考文献(2)
高橋裕子、 田中久子、 鈴木章、 塩昭夫、 大塚作一: ”多値テンプレートマッチングを用いたナンバープレート認識法: 雑音抑制フィルタと文字配置規則の効果的利用”、 電子情報通信学会論文誌、Vol.J87DII,No.7,pp.1451-1461(2004)
また、勾配ベクトルの角度を量子化し、画像を小ブロックに分割してブロック内でヒストグラム化した特徴が以下の参考文献(3)にある。
参考文献(3)
・N.Danal,B.Triggs: ”Histgram of oriented gradients for human detection ”, Proc.of IEEE Conferenceon Conputer Vision and Pattern Recognition(CVPR),pp.886- 893(2005)
参考文献(3)
・N.Danal,B.Triggs: ”Histgram of oriented gradients for human detection ”, Proc.of IEEE Conferenceon Conputer Vision and Pattern Recognition(CVPR),pp.886- 893(2005)
本実施形態に係る画像識別装置2は、識別辞書データを作成するために、学習用の画像データである顔画像データJに基づき、勾配画像データIg1〜Ig4を作成することにより、画像認識のための有力な特徴量である、画像から生成された勾配ベクトルの画像をベースとする特徴量(勾配ベースの特徴量)を保護することができる。
次に、識別処理部202について説明する。この識別処理部202は、特徴抽出手段2021と、特徴選択手段2022と、識別手段2023とを含む。
特徴抽出手段2021は、入力する画像に基づき、この画像の特徴を示す原特徴ベクトルGを算出し、特徴選択手段2022に出力する。この特徴抽出手段2021は、特徴抽出手段2012と同様に、顔検出手段2121と、勾配画像作成手段2122と、原特徴ベクトル算出手段2123と、閲覧画像作成手段2124とを備える構成を備え、上述のようにして、原特徴ベクトルGを算出する。
特徴抽出手段2021は、入力する画像に基づき、この画像の特徴を示す原特徴ベクトルGを算出し、特徴選択手段2022に出力する。この特徴抽出手段2021は、特徴抽出手段2012と同様に、顔検出手段2121と、勾配画像作成手段2122と、原特徴ベクトル算出手段2123と、閲覧画像作成手段2124とを備える構成を備え、上述のようにして、原特徴ベクトルGを算出する。
特徴選択手段2022は、入力する原特徴ベクトルGに対して、特徴選択情報である染色体ベクトルFを適用して、圧縮特徴ベクトルHを作成し、識別手段2023に出力する。この特徴選択手段2022は、上述の特徴選択手段2013のようにして、圧縮特徴ベクトルHを作成する。
識別手段2023は、入力する圧縮特徴ベクトルHに基づき、識別辞書記憶部204を参照して、圧縮特徴ベクトルHと識別辞書ベクトルD1とのユークリッド距離r1と、圧縮特徴ベクトルHと識別辞書ベクトルD2とのユークリッド距離r2とを算出する。
識別手段2023は、圧縮特徴ベクトルHごとに、算出したユークリッド距離r1とユークリッド距離r2とを比較する。
例えば、圧縮特徴ベクトルHに対応するユークリッド距離r1、r2を比較した結果、ユークリッド距離r1<r2である場合、識別手段2023は、この圧縮特徴ベクトルHに基づく顔画像データJは、男性の顔を含む画像であり、識別結果としてカテゴリー番号=1を示す情報を、出力部205に出力する。
一方、圧縮特徴ベクトルHに対応するユークリッド距離r1、r2を比較した結果、ユークリッド距離r1≧r2である場合、識別手段2023は、この圧縮特徴ベクトルHに基づく顔画像データJは、女性の顔を含む画像であり、識別結果としてカテゴリー番号=2を示す情報を、出力部205に出力する。
識別手段2023は、圧縮特徴ベクトルHごとに、算出したユークリッド距離r1とユークリッド距離r2とを比較する。
例えば、圧縮特徴ベクトルHに対応するユークリッド距離r1、r2を比較した結果、ユークリッド距離r1<r2である場合、識別手段2023は、この圧縮特徴ベクトルHに基づく顔画像データJは、男性の顔を含む画像であり、識別結果としてカテゴリー番号=1を示す情報を、出力部205に出力する。
一方、圧縮特徴ベクトルHに対応するユークリッド距離r1、r2を比較した結果、ユークリッド距離r1≧r2である場合、識別手段2023は、この圧縮特徴ベクトルHに基づく顔画像データJは、女性の顔を含む画像であり、識別結果としてカテゴリー番号=2を示す情報を、出力部205に出力する。
このような特徴を用いて画像を識別するには、一般に、次の2段階の処理を行う。
まず、正解カテゴリーがわかっている大量の画像から特徴を抽出し、正解カテゴリーの情報が付与された特徴のデータベースを作成する。これを学習用特徴データベースと呼ぶ。そして学習用特徴データベースのデータを学習して識別の基準となるデータを作成する処理をあらかじめ行っておく。この識別の基準となるデータを識別辞書データと呼ぶ。
そして正解の不明な画像の識別を行う際には、特徴抽出を行い、抽出した特徴と識別辞書を照合して正解の可能性の高いカテゴリーを結果として出力する。
まず、正解カテゴリーがわかっている大量の画像から特徴を抽出し、正解カテゴリーの情報が付与された特徴のデータベースを作成する。これを学習用特徴データベースと呼ぶ。そして学習用特徴データベースのデータを学習して識別の基準となるデータを作成する処理をあらかじめ行っておく。この識別の基準となるデータを識別辞書データと呼ぶ。
そして正解の不明な画像の識別を行う際には、特徴抽出を行い、抽出した特徴と識別辞書を照合して正解の可能性の高いカテゴリーを結果として出力する。
特徴量の学習と識別の技術は非常に多くが提案されているが、説明の例として、ここではカテゴリー内の学習サンプルの特徴量の平均を識別辞書とし、未知サンプルの識別の際には、未知サンプルの特徴と識別辞書とのユークリッド距離を測定し、最小のユークリッド距離が得られたカテゴリーを識別結果とする方法を用いる。
学習処理は、男女の正解付の顔画像領域が蓄積された画像のデータベースから一枚ずつ画像を取り出し、特徴抽出と特徴選択を行って特徴ベクトルを生成し、特徴データベースに蓄積する。
学習処理は、男女の正解付の顔画像領域が蓄積された画像のデータベースから一枚ずつ画像を取り出し、特徴抽出と特徴選択を行って特徴ベクトルを生成し、特徴データベースに蓄積する。
すべての画像に対して以上の処理が完了した後で、特徴データベースに蓄積された特徴ベクトルを基に学習処理が動作し、識別辞書を作成する。識別対象とするカテゴリーを区別する情報として番号を用い、カテゴリー番号と呼ぶ。男性をカテゴリー番号=1、女性をカテゴリー番号=2で表わす。男性のカテゴリーの学習サンプルの特徴の平均をM1、女性のカテゴリーの学習サンプルの特徴の平均をM2とする。
識別処理は、未知の顔領域画像の入力に対して、特徴抽出を行い、抽出された特徴とM1とのユークリッド距離r1およびM2とのユークリッド距離r2を測定し、r1<r2であれば、識別結果をカテゴリー番号=1とし、それ以外であればカテゴリー番号=2とする。
◇勾配ベースの特徴量からの閲覧用画像の構成
この特徴量を顔画像から性別や年代の識別に用いた場合には、上記のように、最初に識別辞書を作成する必要がある。ただし、一度作成するとは限らず、識別性能を高めるために後に学習用の画像を追加して再度識別辞書を作成する場合がある。
この場合、学習処理で用いる原画像の集合もしくは学習用特徴データベースを一定期間保存しておく必要がある。本特許では、学習用特徴データベースを保管することを想定する。
学習用特徴データベースを構成する個々の特徴は、顔領域の画像1枚分に相当するが、特徴の種類によっては元の画像をある程度類推できるように構成することができる場合がある。
この特徴量を顔画像から性別や年代の識別に用いた場合には、上記のように、最初に識別辞書を作成する必要がある。ただし、一度作成するとは限らず、識別性能を高めるために後に学習用の画像を追加して再度識別辞書を作成する場合がある。
この場合、学習処理で用いる原画像の集合もしくは学習用特徴データベースを一定期間保存しておく必要がある。本特許では、学習用特徴データベースを保管することを想定する。
学習用特徴データベースを構成する個々の特徴は、顔領域の画像1枚分に相当するが、特徴の種類によっては元の画像をある程度類推できるように構成することができる場合がある。
次に、図8を参照して、本実施形態に係る特徴選択情報作成装置1の構成の一例について説明する。図8は、本実施形態に係る特徴選択情報作成装置1の構成の一例について説明するための図である。
特徴選択情報作成装置1は、染色体評価手段10と、全体制御手段20と、世代数カウンター30と、初期染色体集合作成手段40と、全世代染色体集合格納手段50と、選択確率値算出手段60と、個別世代実行部70とを備える。この特徴選択情報作成装置1は、遺伝的アルゴリズムを用いて、適応度の高い固体を優先的に選択して、交叉や突然変異等の操作を繰り返しながら、最も適用度の高い固体を解として算出する。特徴選択情報作成装置1は、算出された解である固体の「染色体」を、特徴選択情報として、出力部80を介して、画像識別装置2に出力する。ここで示す「遺伝子」、「染色体」等の用語は、遺伝的アルゴリズムにおいて用いられる用語を意味する。
染色体評価手段10は、特徴選択情報である染色体が特徴選択手段によって適用された場合に、識別率の低下を抑制する特徴選択情報として評価を示す情報を作成する。本実施形態において、染色体評価手段10は、識別率PαとPSNRを示す情報を作成する。なお、識別率Pαとは、識別対象の特徴を示す識別辞書データと、入力する画像の特徴を示す特徴情報とを識別率Pαとが照合することにより、当該画像を正しい識別対象と識別する確率である。また、PSNRは、当該画像の画質の評価を示す情報(以下、画質評価情報という)の一例である。
この染色体評価手段10は、例えば、図9に示す通り、染色体評価制御手段11と、個別評価値算出手段12とを含む。図9は、染色体評価手段10の構成の一例を示す図である。
染色体評価制御手段11は、動作制御手段111と、評価値統合手段112と、基準識別率格納手段113とを備える。
染色体評価制御手段11は、動作制御手段111と、評価値統合手段112と、基準識別率格納手段113とを備える。
この染色体評価制御手段11は、個別評価値算出手段12を制御する機能を有する。染色体評価制御手段11は、この機能を使う際には、個別評価値算出手段12に対して、1個の「染色体」を出力する。個別評価値算出手段12は、入力する「染色体」に基づき、処理結果として識別率PαとPSNRを、染色体評価制御手段11に出力する。
染色体評価制御手段11の動作としては、以下に示す2種類方法を適用することができる。
1種類目は、特徴選択情報作成装置1全体が動作を開始した時に、外部からの指示無しで自動的に1回だけ動作するもので、染色体評価制御手段11が、全ビットに1を設定した「染色体」を個別評価値算出手段12に出力する。
染色体評価制御手段11は、結果として、個別評価値算出手段12から返された識別率PαとPSNRの中で、識別率Pαを基準識別率格納手段133に格納することで動作を完了する。
この動作を「基準識別率格納手段設定処理」という。基準識別率格納手段133に格納された値を基準識別率Pα0という。すなわち、基準識別率格納手段133に格納される基準識別率Pα0とは、全ビットに1を設定した「染色体」を用いたときに個別評価値算出手段12で算出される識別率Pαである。
染色体評価制御手段11の動作としては、以下に示す2種類方法を適用することができる。
1種類目は、特徴選択情報作成装置1全体が動作を開始した時に、外部からの指示無しで自動的に1回だけ動作するもので、染色体評価制御手段11が、全ビットに1を設定した「染色体」を個別評価値算出手段12に出力する。
染色体評価制御手段11は、結果として、個別評価値算出手段12から返された識別率PαとPSNRの中で、識別率Pαを基準識別率格納手段133に格納することで動作を完了する。
この動作を「基準識別率格納手段設定処理」という。基準識別率格納手段133に格納された値を基準識別率Pα0という。すなわち、基準識別率格納手段133に格納される基準識別率Pα0とは、全ビットに1を設定した「染色体」を用いたときに個別評価値算出手段12で算出される識別率Pαである。
もう1種類は、特徴選択情報作成装置1内の染色体評価手段10以外の他の機能ブロックから1個の「染色体」が入力された時に染色体評価制御手段11が動作するものである。染色体評価制御手段11は、入力する「染色体」を、個別評価値算出手段12に送り、個別評価値算出手段12の処理結果として返された識別率PαとPSNR(Peak Signal−to−Noise−Ratio)に基づき、以下の式(3)に従って単一の評価値ψに統合する。そして、染色体評価制御手段11は、算出した評価値ψを、「染色体」を送ってきた他機能ブロックに返すことで動作を完了する。この評価値ψは、遺伝的アルゴリズムにおける適応度である。また、この動作を「個別染色体評価処理」と呼ぶ。
式(3)において、「sign」は符号関数であり、この符号関数は、入力が正であれば1、入力が負であれば−1、入力が0であれば0を出力する関数である。PSNRは、負になることはないので、ψ≧0であれば「識別率Pαが基準識別率Pα0と同一もしくは上回る(Pα≧Pα0)」という範囲に収まっていることを意味する。一方、ψ<0であれば、識別率Pαがこの範囲の外に出ていることを意味する。つまり、「識別率Pαが基準識別率Pα0未満(Pα<Pα0)」という範囲に収まっていることを意味する。
個別評価値算出手段12の構成の一例を図10に示す。図10は、個別評価値算出手段12の構成の一例を図である。
図10に示す通り、個別評価値算出手段12は、「学習およびPSNR算出部121」と「識別率算出部122」と、識別辞書記憶部123とを備える。
図10に示す通り、個別評価値算出手段12は、「学習およびPSNR算出部121」と「識別率算出部122」と、識別辞書記憶部123とを備える。
学習およびPSNR算出部121は、学習用画像データベース1211と、特徴抽出手段1212と、特徴選択手段1213と、辞書作成手段1214と、PSNR算出手段1215とを含む。
識別率算出部122は、識別率算出対象画像データベース1221と、特徴抽出手段1222と、特徴選択手段1223と、辞書作成手段1224と、識別率集計手段1225とを含む。
なお、学習およびPSNR算出部121と識別率算出部122に含まれる構成は、上述した画像識別装置2の構成を適用することができる。同様の機能を有する構成については、同一名称を付すことにより、詳細な説明は省略する。
識別率算出部122は、識別率算出対象画像データベース1221と、特徴抽出手段1222と、特徴選択手段1223と、辞書作成手段1224と、識別率集計手段1225とを含む。
なお、学習およびPSNR算出部121と識別率算出部122に含まれる構成は、上述した画像識別装置2の構成を適用することができる。同様の機能を有する構成については、同一名称を付すことにより、詳細な説明は省略する。
特徴選択情報作成装置1全体が動作する前に、事前の準備段階において、学習用画像データベース1211と、識別率算出対象画像データベース1221には、それぞれ異なる顔画像データJを格納しておく。学習用画像データベース1211は、L枚の顔画像データJ11〜J1Lを格納する。識別率算出対象画像データベース1221は、Nt枚の顔画像データJ21〜J2Ntを格納する。
本実施例においても、男性の顔を含む画像のカテゴリーをカテゴリー番号=1で示す。また、女性の顔を含む画像のカテゴリーをカテゴリー番号=2で示す。学習用画像データベース1211に格納されている顔画像データJ11〜J1Lを識別するための固有の通番を1〜Lとし、通番iの顔画像データJ1iの正解カテゴリー番号をCiで表わす。例えば、顔画像データJ1iが、男性の顔を含む画像の画像データであれば、正解カテゴリー番号をCi=1である。一方、顔画像データJ1iが、女性の顔を含む画像の画像データであれば、正解カテゴリー番号をCi=2である。
また、個別評価値算出手段12における評価対象の「染色体」をFと示す。
また、個別評価値算出手段12における評価対象の「染色体」をFと示す。
◇「学習およびPSNR算出部」の動作
特徴抽出手段1212は、例えば、特徴抽出手段2012の勾配画像作成手段2122と原特徴ベクトル算出手段2123とを備える構成を備え、上述のようにして、原特徴ベクトルGを算出する。なお、特徴抽出手段1212は、特徴抽出手段2012と同様に、顔検出手段2121と閲覧画像作成手段2124をさらに備える構成であってもよい。
勾配画像作成手段2122は、学習用画像データベース1211から顔画像データJ11〜J1Lを読み出す。勾配画像作成手段2122は、各顔画像データJ11〜J1Lに対応する勾配画像データIg1〜IgLを作成し、原特徴ベクトル算出手段2123に出力する。
特徴抽出手段1212は、例えば、特徴抽出手段2012の勾配画像作成手段2122と原特徴ベクトル算出手段2123とを備える構成を備え、上述のようにして、原特徴ベクトルGを算出する。なお、特徴抽出手段1212は、特徴抽出手段2012と同様に、顔検出手段2121と閲覧画像作成手段2124をさらに備える構成であってもよい。
勾配画像作成手段2122は、学習用画像データベース1211から顔画像データJ11〜J1Lを読み出す。勾配画像作成手段2122は、各顔画像データJ11〜J1Lに対応する勾配画像データIg1〜IgLを作成し、原特徴ベクトル算出手段2123に出力する。
この勾配画像作成手段2122は、図4を参照して上述したような処理を実行する。
つまり、勾配画像作成手段2122は、例えば、顔画像データJ11を代表する画素として予め決められている位置の画素をサンプル点S1〜SM2として抽出する。勾配画像作成手段2122は、これらサンプル点S1〜SM2からなる画像に対して、例えば、異なる方向の勾配を有する勾配フィルタf1〜f4を重畳して積和計算を行う。勾配画像作成手段2122は、演算結果の数値の絶対値を、対応する4枚の勾配画像データIg1〜Ig4に書き込む。勾配画像作成手段2122は、作成した勾配画像データIg1〜Ig4を、原特徴ベクトル算出手段2123に出力する。
この勾配画像作成手段2122は、顔画像データJ11〜J1Lのそれぞれに対応する勾配画像データIg1〜IgLを作成する。
つまり、勾配画像作成手段2122は、例えば、顔画像データJ11を代表する画素として予め決められている位置の画素をサンプル点S1〜SM2として抽出する。勾配画像作成手段2122は、これらサンプル点S1〜SM2からなる画像に対して、例えば、異なる方向の勾配を有する勾配フィルタf1〜f4を重畳して積和計算を行う。勾配画像作成手段2122は、演算結果の数値の絶対値を、対応する4枚の勾配画像データIg1〜Ig4に書き込む。勾配画像作成手段2122は、作成した勾配画像データIg1〜Ig4を、原特徴ベクトル算出手段2123に出力する。
この勾配画像作成手段2122は、顔画像データJ11〜J1Lのそれぞれに対応する勾配画像データIg1〜IgLを作成する。
原特徴ベクトル算出手段2123は、入力する勾配画像データIg1〜Ig4に基づき、顔画像データJ11〜J1Lのそれぞれに対応する原特徴ベクトルG1〜GLを算出し、特徴選択手段1213に出力する。
原特徴ベクトル算出手段2123は、例えば、上述の通り、式(1)に従って原特徴ベクトルG1〜GLを作成する。
原特徴ベクトル算出手段2123は、例えば、上述の通り、式(1)に従って原特徴ベクトルG1〜GLを作成する。
特徴選択手段1213は、入力する原特徴ベクトルG1〜GLに対して染色体ベクトルFを適用して、圧縮特徴ベクトルH1〜HLを作成し、辞書作成手段1214とPSNR算出手段1215に出力する。
PSNR算出手段1215は、圧縮特徴ベクトルH1〜HLに基づき、それぞれ、閲覧画像データI^ gD1〜I^ gDLを作成する。
このPSNR算出手段1215は、閲覧画像作成手段2124が閲覧画像データIgDを作成する方法と同様の方法を用いて、閲覧画像データI^ gD1〜I^ gDLを作成する。
つまり、PSNR算出手段1215は、圧縮特徴ベクトルH1〜HLにおける要素のうち、座標(i,j)が同一の4つの要素
このPSNR算出手段1215は、閲覧画像作成手段2124が閲覧画像データIgDを作成する方法と同様の方法を用いて、閲覧画像データI^ gD1〜I^ gDLを作成する。
つまり、PSNR算出手段1215は、圧縮特徴ベクトルH1〜HLにおける要素のうち、座標(i,j)が同一の4つの要素
を一つの値にまとめることで1枚の画像に統合する。かつ、PSNR算出手段1215は、画像の輝度を反転させることで閲覧画像データI^ gD1〜I^ gDLを生成する。この閲覧画像データI^ gD1〜I^ gDLの画像サイズは、勾配画像データIg1〜Ig4と同じくM2=39×39画素である。なお、閲覧画像データI^ gD1〜I^ gDLの座標(i,j)の画素に該当する値を、画素値I^ gDL(i,j)と表す。PSNR算出手段1215は、上述の式(2)に従って、画素値I^ gDL(i,j)を算出する。
このPSNR算出手段1215は、閲覧画像データI^ gD1〜I^ gDLに基づき、以下に示す式(4)に従って、PSNRを算出する。
このPSNR算出手段1215は、閲覧画像データI^ gD1〜I^ gDLに基づき、以下に示す式(4)に従って、PSNRを算出する。
式(4)において、MSEは、以下に示す式(5)によって算出される値である。
なお、上記PSNRは、静止画像の品質測定に一般的に用いられる値である。これを説明した文献の例としては、以下の参考文献(4)が挙げられる。
参考文献(4)
「ベクトル量子化と情報圧縮」Allen Gersho 他著、古井貞煕、田崎三郎、小寺博、渡辺裕 訳 コロナ社 1998 年発行 (461頁)
参考文献(4)
「ベクトル量子化と情報圧縮」Allen Gersho 他著、古井貞煕、田崎三郎、小寺博、渡辺裕 訳 コロナ社 1998 年発行 (461頁)
辞書作成手段1214は、入力する圧縮特徴ベクトルH1〜HLに基づき識別辞書データを作成する。本実施例において、辞書作成手段1214は、例えば、各カテゴリーにおける学習データの特徴ベクトルの平均値とのユークリッド距離の大小を比較する方法を用いている。このため、辞書作成手段1214は、圧縮特徴ベクトルH1〜HLを正解カテゴリーによって2つの集合に分け、各々の集合で平均ベクトルを作成してこれを識別辞書とする。
正解カテゴリー番号C1の識別辞書データは、例えば、識別辞書ベクトルD1=D11,D12,・・・D1Nを含む。
正解カテゴリー番号C2の識別辞書データは、例えば、識別辞書ベクトルD2=D21,D22,・・・D2Nを含む。
正解カテゴリー番号C1の識別辞書データは、例えば、識別辞書ベクトルD1=D11,D12,・・・D1Nを含む。
正解カテゴリー番号C2の識別辞書データは、例えば、識別辞書ベクトルD2=D21,D22,・・・D2Nを含む。
識別率算出部122は、識別率算出対象画像データベース1221と、特徴抽出手段1222と、特徴選択手段1223と、識別手段1224と、識別率集計手段1225とを備える。
識別率算出部122は、識別率算出対象画像データベース1221から顔画像データJ21〜J2Ntを読み出し、顔画像データJ21〜J2Ntの画像1枚ずつに対して特徴抽出を行い、その画像に含まれる1つずつの特徴に対して以下の(a)、(b)、(c)の処理を行う。なお、1個の特徴を、ベクトルWで表わす。
(a)特徴Wに対して染色体ベクトルFを用いた特徴選択を行い、これをW1とする。
(b)W1とD1とD2のユークリッド距離を測定し、それをr1、r2で表わす。
(c)r1<r2であれば、識別結果をカテゴリー番号=1とし、それ以外であればカテゴリー番号=2とする。
(b)W1とD1とD2のユークリッド距離を測定し、それをr1、r2で表わす。
(c)r1<r2であれば、識別結果をカテゴリー番号=1とし、それ以外であればカテゴリー番号=2とする。
(a)の処理
特徴抽出部手段1222は、例えば、特徴抽出手段2012の勾配画像作成手段2122と原特徴ベクトル算出手段2123とを備える構成を備え、上述のようにして、原特徴ベクトルGを算出する。なお、特徴抽出手段1222は、特徴抽出手段2012と同様に、顔検出手段2121と閲覧画像作成手段2124をさらに備える構成であってもよい。
勾配画像作成手段2122は、読み出した顔画像データJ21〜J2Ntに対応する勾配画像データIg1〜IgNtを作成し、原特徴ベクトル算出手段2123に出力する。
勾配画像作成手段2122は、図4を参照して上述したような処理を実行する。
つまり、勾配画像作成手段2122は、例えば、顔画像データJ21を代表する画素として予め決められている位置の画素をサンプル点S1〜SM2として抽出する。勾配画像作成手段2122は、これらサンプル点S1〜SM2からなる画像に対して、例えば、異なる方向の勾配を有する勾配フィルタf1〜f4を重畳して積和計算を行う。勾配画像作成手段2122は、演算結果の数値の絶対値を、対応する4枚の勾配画像データIg1〜Ig4に書き込む。勾配画像作成手段2122は、作成した勾配画像データIg1〜Ig4を、原特徴ベクトル算出手段2123に出力する。
特徴抽出部手段1222は、例えば、特徴抽出手段2012の勾配画像作成手段2122と原特徴ベクトル算出手段2123とを備える構成を備え、上述のようにして、原特徴ベクトルGを算出する。なお、特徴抽出手段1222は、特徴抽出手段2012と同様に、顔検出手段2121と閲覧画像作成手段2124をさらに備える構成であってもよい。
勾配画像作成手段2122は、読み出した顔画像データJ21〜J2Ntに対応する勾配画像データIg1〜IgNtを作成し、原特徴ベクトル算出手段2123に出力する。
勾配画像作成手段2122は、図4を参照して上述したような処理を実行する。
つまり、勾配画像作成手段2122は、例えば、顔画像データJ21を代表する画素として予め決められている位置の画素をサンプル点S1〜SM2として抽出する。勾配画像作成手段2122は、これらサンプル点S1〜SM2からなる画像に対して、例えば、異なる方向の勾配を有する勾配フィルタf1〜f4を重畳して積和計算を行う。勾配画像作成手段2122は、演算結果の数値の絶対値を、対応する4枚の勾配画像データIg1〜Ig4に書き込む。勾配画像作成手段2122は、作成した勾配画像データIg1〜Ig4を、原特徴ベクトル算出手段2123に出力する。
原特徴ベクトル算出手段2123は、入力する勾配画像データIg1〜Ig4に基づき、顔画像データJ21〜J2Ntのそれぞれに対応する特徴ベクトルW1〜WNtを算出し、特徴選択手段1223に出力する。
原特徴ベクトル算出手段2123は、例えば、上述の通り、式(1)に従って原特徴ベクトルGを作成するようにして、特徴ベクトルW1〜WNtを算出する。
特徴選択手段1223は、入力する特徴ベクトルW1〜WNtに対して染色体ベクトルFを適用して、圧縮特徴ベクトルW11〜W1Ntを作成し、識別手段1224に出力する。
原特徴ベクトル算出手段2123は、例えば、上述の通り、式(1)に従って原特徴ベクトルGを作成するようにして、特徴ベクトルW1〜WNtを算出する。
特徴選択手段1223は、入力する特徴ベクトルW1〜WNtに対して染色体ベクトルFを適用して、圧縮特徴ベクトルW11〜W1Ntを作成し、識別手段1224に出力する。
(b)の処理
識別手段1224は、入力する圧縮特徴ベクトルW11〜W1Ntに基づき、識別辞書123を参照して、圧縮特徴ベクトルW11〜W1Ntと識別辞書ベクトルD1とのユークリッド距離r1と、圧縮特徴ベクトルW11〜W1Ntと識別辞書ベクトルD2とのユークリッド距離r2とを算出する。
識別手段1224は、入力する圧縮特徴ベクトルW11〜W1Ntに基づき、識別辞書123を参照して、圧縮特徴ベクトルW11〜W1Ntと識別辞書ベクトルD1とのユークリッド距離r1と、圧縮特徴ベクトルW11〜W1Ntと識別辞書ベクトルD2とのユークリッド距離r2とを算出する。
(c)の処理
識別手段1224は、圧縮特徴ベクトルW11〜W1Ntごとに、算出したユークリッド距離r1とユークリッド距離r2とを比較する。
例えば、圧縮特徴ベクトルW11に対応するユークリッド距離r1、r2を比較した結果、ユークリッド距離r1<r2である場合、識別手段1224は、この圧縮特徴ベクトルW11に基づく顔画像データJ21は、男性の顔を含む画像であり、識別結果としてカテゴリー番号=1を示す情報を識別率集計手段1225に出力する。
一方、圧縮特徴ベクトルW11に対応するユークリッド距離r1、r2を比較した結果、ユークリッド距離r1≧r2である場合、識別手段1224は、この圧縮特徴ベクトルW11に基づく顔画像データJ21は、女性の顔を含む画像であり、識別結果としてカテゴリー番号=2を示す情報を識別率集計手段1225に出力する。
識別手段1224は、圧縮特徴ベクトルW11〜W1Ntごとに、算出したユークリッド距離r1とユークリッド距離r2とを比較する。
例えば、圧縮特徴ベクトルW11に対応するユークリッド距離r1、r2を比較した結果、ユークリッド距離r1<r2である場合、識別手段1224は、この圧縮特徴ベクトルW11に基づく顔画像データJ21は、男性の顔を含む画像であり、識別結果としてカテゴリー番号=1を示す情報を識別率集計手段1225に出力する。
一方、圧縮特徴ベクトルW11に対応するユークリッド距離r1、r2を比較した結果、ユークリッド距離r1≧r2である場合、識別手段1224は、この圧縮特徴ベクトルW11に基づく顔画像データJ21は、女性の顔を含む画像であり、識別結果としてカテゴリー番号=2を示す情報を識別率集計手段1225に出力する。
識別率集計手段1225は、例えば、識別手段1224による識別結果を出力する出力部(例えば、ディスプレイやプリンター)と、管理者からの操作入力を受け付ける入力部とを備える。
識別率集計手段1225は、出力部に識別結果を出力する。例えば、顔画像データJ21の画像と、識別結果であるカテゴリー番号を対応付けて出力する。この出力部による出力を、人間が目視により確認し、識別手段1224による識別結果が正解か否かを判断する。カテゴリー番号が正解である場合、顔画像データJ21の画像の識別結果が正解であることを示す情報を入力部を介して識別率集計手段1225に入力する。一方。カテゴリー番号が不正解である場合、顔画像データJ21の画像の識別結果が不正解であることを示す情報を入力部を介して識別率集計手段1225に入力する。
識別率集計手段1225は、識別結果の正解率を集計し、この正解率を識別率Pαとして染色体評価制御手段11に出力する。この識別率集計手段1225は、例えば、顔画像データJ21〜J2Ntの全画像に対する識別が行われた後、識別結果が正解であったときは正解、誤っていたときは不正解として集計し、入力パターン数をNt、入力パターンの中で正解となったパターンを数NCとすると、識別率PαをPα=NC/NTで算出する。
識別率集計手段1225は、出力部に識別結果を出力する。例えば、顔画像データJ21の画像と、識別結果であるカテゴリー番号を対応付けて出力する。この出力部による出力を、人間が目視により確認し、識別手段1224による識別結果が正解か否かを判断する。カテゴリー番号が正解である場合、顔画像データJ21の画像の識別結果が正解であることを示す情報を入力部を介して識別率集計手段1225に入力する。一方。カテゴリー番号が不正解である場合、顔画像データJ21の画像の識別結果が不正解であることを示す情報を入力部を介して識別率集計手段1225に入力する。
識別率集計手段1225は、識別結果の正解率を集計し、この正解率を識別率Pαとして染色体評価制御手段11に出力する。この識別率集計手段1225は、例えば、顔画像データJ21〜J2Ntの全画像に対する識別が行われた後、識別結果が正解であったときは正解、誤っていたときは不正解として集計し、入力パターン数をNt、入力パターンの中で正解となったパターンを数NCとすると、識別率PαをPα=NC/NTで算出する。
次に、図11を参照して、本実施形態に係る画像識別方法の一例について説明する。図11は、本実施形態に係る画像識別方法の一例について説明するためのフローチャートである。上述の通り、本実施形態に係る画像識別システムは、遺伝的アルゴリズム(以下、GAという)に基づいて動作することを基本とするものである。また、装置全体の制御は全体制御手段20によって行われる。
(ステップST1)
装置を起動した後の最初の処理は、全体制御手段20とは無関係に、染色体評価手段10が行う「基準識別率格納手段設定処理」の動作である。この「基準識別率格納手段設定処理」により基準識別率Pα0が算出される。この基準識別率Pα0は、染色体評価手段10の染色体評価制御手段11の基準識別率格納手段113に格納される。
装置を起動した後の最初の処理は、全体制御手段20とは無関係に、染色体評価手段10が行う「基準識別率格納手段設定処理」の動作である。この「基準識別率格納手段設定処理」により基準識別率Pα0が算出される。この基準識別率Pα0は、染色体評価手段10の染色体評価制御手段11の基準識別率格納手段113に格納される。
例えば、特徴選択情報作成装置1が起動した場合、染色体評価手段10の染色体評価制御手段11は、全ビットに“1”を設定した染色体ベクトルFを個別評価値算出手段12に出力する。
そして、個別評価値算出手段12は、事前に作成された識別辞書を参照して、識別率算出対象である顔画像データJの識別を実行する。そして、識別率集計手段1225は、識別手段1224の識別率Pα0を、染色体評価制御手段11に出力する。また、個別評価値算出手段12の学習およびPSNR算出部121のPSNR算出手段1215は、PSNRを算出し、染色体評価制御手段11に出力する。
そして、個別評価値算出手段12は、事前に作成された識別辞書を参照して、識別率算出対象である顔画像データJの識別を実行する。そして、識別率集計手段1225は、識別手段1224の識別率Pα0を、染色体評価制御手段11に出力する。また、個別評価値算出手段12の学習およびPSNR算出部121のPSNR算出手段1215は、PSNRを算出し、染色体評価制御手段11に出力する。
染色体評価制御手段11の動作制御手段111は、個別評価値算出手段12から入力する識別率PαとPSNRの中で、全ビットに1を設定した染色体を用いたときに個別評価値算出手段12で算出される識別率Pαを基準識別率格納手段133に格納する。この基準識別率格納手段133に格納された値が基準識別率Pα0である。
(ステップST2)
次に、全体制御手段20により制御された動作に移る。GAにおける世代の番号をGNとする。全体制御手段20は、まず、GN=1とし、この値を世代数カウンター30にセットする。
そして、全体制御手段20は、初期染色体集合作成手段40に動作開始を指示する。
次に、全体制御手段20により制御された動作に移る。GAにおける世代の番号をGNとする。全体制御手段20は、まず、GN=1とし、この値を世代数カウンター30にセットする。
そして、全体制御手段20は、初期染色体集合作成手段40に動作開始を指示する。
ここで、図12を参照して、全世代染色体集合格納手段50の構成の一例を説明する。図12(a)は、全世代染色体集合格納手段50の構成例であり、GNmax個の染色体集合格納手段500を含む。全世代染色体集合格納手段50における個別の染色体集合格納手段500は各世代番号GNに対応しており、GNの染色体集合格納手段500をA(GN)で表わす。
個別の染色体集合格納手段500のそれぞれに格納するのは、図12(b)に示すような染色体格納手段501である。この染色体格納手段501は、1個の染色体格納手段501は、染色体を示す情報を格納する染色体格納領域501aと、適応度を示す情報を格納する適応度領域501bと、選択される確率を示す情報を格納する選択確率領域501cとを含む。
個別の染色体集合格納手段500には、最大Kβ個の染色体格納手段501を格納できる。個別の染色体集合格納手段500は、すべて、特徴選択情報作成装置1の起動時は空である。
個別の染色体集合格納手段500には、最大Kβ個の染色体格納手段501を格納できる。個別の染色体集合格納手段500は、すべて、特徴選択情報作成装置1の起動時は空である。
ここで、図11に戻って、処理の続きについて説明する。
(ステップST3)
初期染色体集合作成手段40は、以下のようにして、最初の染色体集合格納手段500であるA(1)を設定する。まず、初期染色体集合作成手段40は、1個の染色体の全ビットを1に設定した後で、一定の確率Pdで染色体のビット列に反転を生じさせることで染色体ベクトルFを生成する。そして、初期染色体集合作成手段40は、生成した染色体ベクトルFを染色体評価手段10に出力する。染色体評価手段10は、この染色体ベクトルFに対応する適応度ψを算出する。
(ステップST3)
初期染色体集合作成手段40は、以下のようにして、最初の染色体集合格納手段500であるA(1)を設定する。まず、初期染色体集合作成手段40は、1個の染色体の全ビットを1に設定した後で、一定の確率Pdで染色体のビット列に反転を生じさせることで染色体ベクトルFを生成する。そして、初期染色体集合作成手段40は、生成した染色体ベクトルFを染色体評価手段10に出力する。染色体評価手段10は、この染色体ベクトルFに対応する適応度ψを算出する。
初期染色体集合作成手段40は、染色体評価手段10から入力する適応度ψに基づき、識別率Pαが予め決められている基準識別率Pα0以上であるか否かを判定する。つまり、初期染色体集合作成手段40は、適応度ψの符号に応じて、識別率Pαが予め決められている基準識別率Pα0以上であるか否かを判定する。
ψ≧0であれば、初期染色体集合作成手段40は、適応度ψの値とあわせて1個の染色体格納手段501を作成して染色体集合格納手段A(1)に追加する。
一方ψ<0であれば、初期染色体集合作成手段40は、設定した染色体ベクトルFが、致死性の染色体とみなして不採用とする。つまり、初期染色体集合作成手段40は、この染色体ベクトルFに対応する染色体集合格納手段500を全世代染色体集合格納手段50に作成することなく、この染色体ベクトルFと適応度ψを保存しない。
ψ≧0であれば、初期染色体集合作成手段40は、適応度ψの値とあわせて1個の染色体格納手段501を作成して染色体集合格納手段A(1)に追加する。
一方ψ<0であれば、初期染色体集合作成手段40は、設定した染色体ベクトルFが、致死性の染色体とみなして不採用とする。つまり、初期染色体集合作成手段40は、この染色体ベクトルFに対応する染色体集合格納手段500を全世代染色体集合格納手段50に作成することなく、この染色体ベクトルFと適応度ψを保存しない。
初期染色体集合作成手段40は、この処理を初期の染色体集合格納手段A(1)の個体数(染色体格納手段501)がKβに達するまで繰り返す。その後で、初期染色体集合作成手段40は、全世代染色体集合格納手段50に格納されている染色体集合格納手段A(1)の各個体を、適応度ψの大きさの降順に並べ替える。
そして、各順位の染色体が選択される確率を選択確率値算出手段60により算出し、染色体格納手段501の選択確率領域501cに書き込む。
そして、各順位の染色体が選択される確率を選択確率値算出手段60により算出し、染色体格納手段501の選択確率領域501cに書き込む。
ここで選択確率値算出手段60の動作を説明する。選択確率値算出手段60は、第r位の染色体が選択される確率値PS(r)を、下記に示す式(6)に従って算出する。
式(6)においてMaxは、2変数の中の最大値を出力する関数である。
(ステップST4)
初期染色体集合作成手段40の動作完了後、個別世代実行部70の動作に移る。
全体制御手段20は、まず世代数カウンター30に格納されたGNの値を+1する。そして、全体制御手段20は、GN=GNmaxであるか否かを確認し、GN=GNmaxであればそこで動作を完了して、全世代染色体集合格納手段50において、A(GNmax)の第1位の染色体格納手段501の染色体を取り出して、最終結果として出力部80を介して出力する。GN=GNmaxで無ければ、全体制御手段20は、以下の動作を行う。
初期染色体集合作成手段40の動作完了後、個別世代実行部70の動作に移る。
全体制御手段20は、まず世代数カウンター30に格納されたGNの値を+1する。そして、全体制御手段20は、GN=GNmaxであるか否かを確認し、GN=GNmaxであればそこで動作を完了して、全世代染色体集合格納手段50において、A(GNmax)の第1位の染色体格納手段501の染色体を取り出して、最終結果として出力部80を介して出力する。GN=GNmaxで無ければ、全体制御手段20は、以下の動作を行う。
(ステップST5)
まず、全体制御手段20は、交叉実行手段701に実行を指示する。
交叉実行手段701は、全世代染色体集合格納手段50に格納されている染色体集合格納手段A(GN−1)から、各染色体格納手段501の選択確率領域501cに書かれた確率値によりランダムに染色体格納手段501のペアを選ぶ。言い換えると、選択確率領域501cに書かれた確率値は、交叉実行手段701が染色体格納手段501のペアを選択する確率である。この確率値が高い染色体格納手段501は、交叉実行手段701によって選択されやすい。すなわち、各染色体格納手段501の中では確率値の高い染色体ほど多くの頻度で選ばれてペアの要素となることになる。そして、交叉実行手段701は、選択した2つの染色体を複製し、複製した染色体のペアを用いて、遺伝的アルゴリズムにおける交叉操作を行い、新たに2つの染色体を生成する。そして、交叉実行手段701は、それら新たに生成された2つの染色体を染色体評価手段10に出力し、各々染色体の適応度ψを算出させる。
次いで、染色体評価手段10は、各々染色体の適応度ψを算出し、交叉実行手段701に出力する。
まず、全体制御手段20は、交叉実行手段701に実行を指示する。
交叉実行手段701は、全世代染色体集合格納手段50に格納されている染色体集合格納手段A(GN−1)から、各染色体格納手段501の選択確率領域501cに書かれた確率値によりランダムに染色体格納手段501のペアを選ぶ。言い換えると、選択確率領域501cに書かれた確率値は、交叉実行手段701が染色体格納手段501のペアを選択する確率である。この確率値が高い染色体格納手段501は、交叉実行手段701によって選択されやすい。すなわち、各染色体格納手段501の中では確率値の高い染色体ほど多くの頻度で選ばれてペアの要素となることになる。そして、交叉実行手段701は、選択した2つの染色体を複製し、複製した染色体のペアを用いて、遺伝的アルゴリズムにおける交叉操作を行い、新たに2つの染色体を生成する。そして、交叉実行手段701は、それら新たに生成された2つの染色体を染色体評価手段10に出力し、各々染色体の適応度ψを算出させる。
次いで、染色体評価手段10は、各々染色体の適応度ψを算出し、交叉実行手段701に出力する。
そして、交叉実行手段701は、各々の染色体について適応度ψの符号を判定する。ψ≧0であれば適応度ψの値とともに染色体を染色体集合格納手段A(GN)に追加する。
例えば、染色体ベクトルFGN1の適応度ψGN1が、ψGN1≧0であれば、交叉実行手段701は、全世代染色体集合格納手段50の染色体集合格納手段A(GN)に対して、その染色体格納手段501の染色体領域501aに染色体ベクトルFGN1を示す情報を書き込み、適応度領域501bに適応度ψGN1を示す情報を書き込む。一方、ψ<0であれば、交叉実行手段701は、致死性の染色体とみなして不採用とする。
すなわち、1回の交叉操作の結果として、0個〜2個の染色体が染色体集合格納手段A(GN)の染色体格納手段501の染色体領域501aに追加されることとなる。
例えば、染色体ベクトルFGN1の適応度ψGN1が、ψGN1≧0であれば、交叉実行手段701は、全世代染色体集合格納手段50の染色体集合格納手段A(GN)に対して、その染色体格納手段501の染色体領域501aに染色体ベクトルFGN1を示す情報を書き込み、適応度領域501bに適応度ψGN1を示す情報を書き込む。一方、ψ<0であれば、交叉実行手段701は、致死性の染色体とみなして不採用とする。
すなわち、1回の交叉操作の結果として、0個〜2個の染色体が染色体集合格納手段A(GN)の染色体格納手段501の染色体領域501aに追加されることとなる。
交叉実行手段701は、この交叉操作を染色体集合格納手段A(GN)の染色体格納手段501の染色体領域501aに追加された染色体の個体数(染色体格納手段501)がK1に達するまで繰り返す。
本実施例では、交叉操作の方法として、染色体の2箇所をランダムに選んで中間ビット列を交換する二点交叉を採用する。二点交叉の一例を図13に示す。
本実施例では、交叉操作の方法として、染色体の2箇所をランダムに選んで中間ビット列を交換する二点交叉を採用する。二点交叉の一例を図13に示す。
(ステップST6)
次に、全体制御手段20は、突然変異実行手段702に実行を指示する。
突然変異実行手段702は、全世代染色体集合格納手段50に格納されている染色体集合格納手段A(GN−1)から各染色体格納手段501の選択確率領域501cに書かれた確率値によりランダムに1個の染色体格納手段501を選ぶ。そして、突然変異実行手段702は、選択した1つの染色体格納手段501の染色体の複製を行い、複製した染色体に対して一定の確率Pmで染色体のビット列に反転を生じさせる。その後、突然変異実行手段702は、ビット列に反転を生じさせた染色体を染色体評価手段10に出力し、この染色体の適応度ψを算出させる。
次いで、染色体評価手段10は、当該染色体の適応度ψを算出し、突然変異実行手段702に出力する。
次に、全体制御手段20は、突然変異実行手段702に実行を指示する。
突然変異実行手段702は、全世代染色体集合格納手段50に格納されている染色体集合格納手段A(GN−1)から各染色体格納手段501の選択確率領域501cに書かれた確率値によりランダムに1個の染色体格納手段501を選ぶ。そして、突然変異実行手段702は、選択した1つの染色体格納手段501の染色体の複製を行い、複製した染色体に対して一定の確率Pmで染色体のビット列に反転を生じさせる。その後、突然変異実行手段702は、ビット列に反転を生じさせた染色体を染色体評価手段10に出力し、この染色体の適応度ψを算出させる。
次いで、染色体評価手段10は、当該染色体の適応度ψを算出し、突然変異実行手段702に出力する。
そして、突然変異実行手段702は、当該染色体の適応度ψの符号を判定する。ψ≧0であれば適応度ψの値とともに染色体を染色体集合格納手段A(GN)に追加する。
例えば、染色体ベクトルFGN1の適応度ψGN1が、ψGN1≧0であれば、突然変異実行手段702は、全世代染色体集合格納手段50の染色体集合格納手段A(GN)に対して、その染色体格納手段501の染色体領域501aに染色体ベクトルFGN1を示す情報を書き込み、適応度領域501bに適応度ψGN1を示す情報を書き込む。一方、ψ<0であれば、突然変異実行手段702はは、致死性の染色体とみなして不採用とする。
突然変異実行手段702は、この突然変異操作を、染色体集合格納手段A(GN)の染色体格納手段501の染色体領域501aに追加された個体数(染色体格納手段501)がK2に達するまで繰り返す。
例えば、染色体ベクトルFGN1の適応度ψGN1が、ψGN1≧0であれば、突然変異実行手段702は、全世代染色体集合格納手段50の染色体集合格納手段A(GN)に対して、その染色体格納手段501の染色体領域501aに染色体ベクトルFGN1を示す情報を書き込み、適応度領域501bに適応度ψGN1を示す情報を書き込む。一方、ψ<0であれば、突然変異実行手段702はは、致死性の染色体とみなして不採用とする。
突然変異実行手段702は、この突然変異操作を、染色体集合格納手段A(GN)の染色体格納手段501の染色体領域501aに追加された個体数(染色体格納手段501)がK2に達するまで繰り返す。
(ステップST7)
次に、全体制御手段20は、複製実行手段703に実行を指示する。
複製実行手段703は、全世代染色体集合格納手段50に格納されている染色体集合格納手段A(GN−1)から、各染色体格納手段501の選択確率領域501cに書かれた確率値によりランダムにK3個の染色体格納手段501を選び、各々の染色体と適応度を全世代染色体集合格納手段50に格納されている染色体集合格納手段A(GN)に追加する。
以上の中で、K1,K2,K3の合計はKβに等しい値とする。なお、K1、K2、K3は、これらの合計がKβになるように予め決められている値である。
次に、全体制御手段20は、複製実行手段703に実行を指示する。
複製実行手段703は、全世代染色体集合格納手段50に格納されている染色体集合格納手段A(GN−1)から、各染色体格納手段501の選択確率領域501cに書かれた確率値によりランダムにK3個の染色体格納手段501を選び、各々の染色体と適応度を全世代染色体集合格納手段50に格納されている染色体集合格納手段A(GN)に追加する。
以上の中で、K1,K2,K3の合計はKβに等しい値とする。なお、K1、K2、K3は、これらの合計がKβになるように予め決められている値である。
(ステップST8)
最後に、全体制御手段20は、染色体集合並べ替え手段704に実行を指示する。
染色体集合並べ替え手段704は、全世代染色体集合格納手段50に格納されている染色体集合格納手段A(GN)の各個体を適応度ψの大きさの降順に並べ替える。
以上が1つの世代の遺伝的アルゴリズム(GA)の処理である。
(ステップST9)
全体制御手段20は、このステップST4〜9を繰り返し、世代数がGNMAXになるまで、各世代の各個体を算出する。
(ステップST10)
全体制御手段20は、染色体集合格納手段A(GN)に格納されている複数の染色体格納手段501のうち、最も高い確率値が格納されている選択確率領域501cと対応付けられている染色体格納領域501aに格納されている染色体を“1位の染色体”と決定し、出力する。なお、全体制御手段20は、全世代の染色体集合格納手段A(1)〜A(GNmax)のそれぞれに対応する“1位の染色体”と決定する。
最後に、全体制御手段20は、染色体集合並べ替え手段704に実行を指示する。
染色体集合並べ替え手段704は、全世代染色体集合格納手段50に格納されている染色体集合格納手段A(GN)の各個体を適応度ψの大きさの降順に並べ替える。
以上が1つの世代の遺伝的アルゴリズム(GA)の処理である。
(ステップST9)
全体制御手段20は、このステップST4〜9を繰り返し、世代数がGNMAXになるまで、各世代の各個体を算出する。
(ステップST10)
全体制御手段20は、染色体集合格納手段A(GN)に格納されている複数の染色体格納手段501のうち、最も高い確率値が格納されている選択確率領域501cと対応付けられている染色体格納領域501aに格納されている染色体を“1位の染色体”と決定し、出力する。なお、全体制御手段20は、全世代の染色体集合格納手段A(1)〜A(GNmax)のそれぞれに対応する“1位の染色体”と決定する。
したがって、原特徴ベクトルGを変換処理して新たな圧縮特徴ベクトルHを作成することができる。この変換処理が満足する条件としては、原特徴ベクトルGと同様な方法で圧縮特徴ベクトルHから閲覧用画像を作成した場合、その視認性が非常に低いことと、原特徴ベクトルGの代わりに学習と識別に用いた場合に識別能力は低下しないこと、の2点である。
本発明では、特徴選択ベクトルFというデータを用いて、特徴抽出手段の処理の後段に、原特徴ベクトルの一部の要素を強制的に0に設定する「特徴選択手段」を置いたことである。つまり、特徴抽出手段によって抽出された学習用画像の特徴を示す特徴情報のうち、特徴選択情報が選択することを示す情報に対応する情報を用いて、特徴情報のうち一部の情報量が低減された圧縮特徴情報を作成する。これにより、識別率の低減を抑制するとともに、視認性を低減させることができる。
本発明では、特徴選択ベクトルFというデータを用いて、特徴抽出手段の処理の後段に、原特徴ベクトルの一部の要素を強制的に0に設定する「特徴選択手段」を置いたことである。つまり、特徴抽出手段によって抽出された学習用画像の特徴を示す特徴情報のうち、特徴選択情報が選択することを示す情報に対応する情報を用いて、特徴情報のうち一部の情報量が低減された圧縮特徴情報を作成する。これにより、識別率の低減を抑制するとともに、視認性を低減させることができる。
以上のように、本発明によれば、GAの各世代の処理における染色体の生成ではすべて、「ψ≧0であれば採用し、ψ<0であれば致死性の染色体とみなして不採用とする」という基準を用いている。このため、特徴選択情報を行わずに原特徴ベクトルGを用いた場合と比べて、識別率は下がらないという条件は満足する。また、その条件を満足する範囲内で適応度ψを最大化する、すなわちPSNRを最大化する探索を行う処理をGAにより効率的に行うことができるという顕著な効果を有する。
なお、この特徴量を顔画像から性別や年代の識別に用いた場合には、上記のように最初に識別辞書を作成する必要がある。ただし、一度作成するとは限らず、識別性能を高めるために後に学習用の画像を追加して再度識別辞書を作成する場合がある。
この場合、学習処理で用いる原画像の集合もしくは学習用特徴データベースを一定期間保存しておく必要がある。本特許では、学習用特徴データベースを保管することを想定する。
学習用特徴データベースを構成する個々の特徴は、顔領域の画像1枚分に相当するが、特徴の種類によっては元の画像をある程度類推できるように構成することができる場合がある。
この場合、学習処理で用いる原画像の集合もしくは学習用特徴データベースを一定期間保存しておく必要がある。本特許では、学習用特徴データベースを保管することを想定する。
学習用特徴データベースを構成する個々の特徴は、顔領域の画像1枚分に相当するが、特徴の種類によっては元の画像をある程度類推できるように構成することができる場合がある。
なお、上述の特徴選択情報作成装置1と画像識別装置2は、内部にコンピュータシステムを有している。そして、特徴選択情報作成装置1と画像識別装置2の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいう「コンピュータシステム」とは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、また、特徴選択情報作成装置1と画像識別装置2はこの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、検出対象物の形状情報の推定値を算出する処理を行ってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
1・・・特徴選択情報作成装置、2・・・画像識別装置、201・・・学習処理部、202・・・識別処理部、203・・・入力部、204・・・識別辞書記憶部、205・・・出力部
Claims (6)
- 画像識別装置において用いられる特徴選択情報を作成する特徴選択情報作成装置であって、
前記画像識別装置の識別対象の特徴を示す識別辞書データと、入力する画像の特徴を示す特徴情報とを照合することにより、前記画像を正しい前記識別対象と識別する確率を示す識別率を取得する個別評価値算出手段と、
前記識別率に基づき、遺伝的アルゴリズムに用いられる前記特徴選択情報の適応度を算出する特徴選択情報評価制御手段と、
前記適応度に基づき、前記識別率が予め決められている基準識別率以上であるか否かを判定し、前記識別率が前記基準識別率以上である場合、当該適応度に対応する特徴選択情報を格納手段に書き込む特徴選択情報作成手段と、
前記格納手段に書き込まれた特徴選択情報のうち、適応度に基づき、一の前記特徴選択情報を選択する制御手段と、
を備えることを特徴とする特徴選択情報作成装置。 - 前記個別評価値算出手段は、
画像の画質の評価を示す画質評価情報を算出し、当該画質評価情報と前記識別率に基づき、前記適応度を算出することを特徴とする請求項1に記載の特徴選択情報作成装置。 - 上述の請求項1あるいは2に記載の特徴選択情報作成装置から出力する前記特徴選択情報を入力する入力部と、
学習画像用の画像データから、当該学習用画像の特徴を示す特徴情報を抽出する特徴抽出手段と、
前記特徴抽出手段によって抽出された前記学習用画像の特徴を示す特徴情報のうち、前記特徴選択情報が選択することを示す情報に対応する情報を用いて、前記特徴情報のうち一部の情報量が低減された圧縮特徴情報を作成する特徴選択手段と、
前記圧縮特徴情報に基づき、識別対象の特徴を示す識別辞書データを作成する辞書作成手段と、
を備えることを特徴とする画像識別装置。 - 前記特徴抽出手段は、
前記学習画像用の画像データに対して、異なる方向の勾配を有する勾配フィルタを重畳して積和計算を行うことにより算出される勾配画像データを作成し、当該勾配画像データに基づき、前記学習用画像の特徴を示す特徴情報を算出することを特徴とする請求項3に記載の画像識別装置。 - 画像識別装置において用いられる特徴選択情報を作成する特徴選択情報作成方法であって、
前記画像識別装置の識別対象の特徴を示す識別辞書データと、入力する画像の特徴を示す特徴情報とを照合することにより、前記画像を正しい前記識別対象と識別する確率を示す識別率を取得するステップと、
前記識別率に基づき、遺伝的アルゴリズムに用いられる前記特徴選択情報の適応度を算出するステップと、
前記適応度に基づき、前記識別率が予め決められている基準識別率以上であるか否かを判定し、前記識別率が前記基準識別率以上である場合、当該適応度に対応する特徴選択情報を格納手段に書き込むステップと、
前記格納手段に書き込まれた特徴選択情報のうち、適応度に基づき、一の前記特徴選択情報を選択するステップと、
を備えることを特徴とする特徴選択情報作成方法。 - コンピュータを、
画像識別装置の識別対象の特徴を示す識別辞書データと、入力する画像の特徴を示す特徴情報とを照合することにより、前記画像を正しい前記識別対象と識別する確率を示す識別率を取得する個別評価値算出手段、
前記画像識別装置において用いられる特徴選択情報についての遺伝的アルゴリズムに用いられる適応度を前記識別率に基づき算出する特徴選択情報評価制御手段、
前記適応度に基づき、前記識別率が予め決められている基準識別率以上であるか否かを判定し、前記識別率が前記基準識別率以上である場合、当該適応度に対応する特徴選択情報を格納手段に書き込む特徴選択情報作成手段、
前記格納手段に書き込まれた特徴選択情報のうち、適応度に基づき、一の前記特徴選択情報を選択する制御手段、
として機能させるための特徴選択情報作成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011084104A JP2012221070A (ja) | 2011-04-05 | 2011-04-05 | 特徴選択情報作成装置、画像識別装置、特徴選択情報作成方法、および特徴選択情報作成プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011084104A JP2012221070A (ja) | 2011-04-05 | 2011-04-05 | 特徴選択情報作成装置、画像識別装置、特徴選択情報作成方法、および特徴選択情報作成プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012221070A true JP2012221070A (ja) | 2012-11-12 |
Family
ID=47272553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011084104A Withdrawn JP2012221070A (ja) | 2011-04-05 | 2011-04-05 | 特徴選択情報作成装置、画像識別装置、特徴選択情報作成方法、および特徴選択情報作成プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012221070A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015146728A1 (ja) * | 2014-03-27 | 2015-10-01 | 株式会社メガチップス | 物体検出装置 |
JP2016126597A (ja) * | 2015-01-06 | 2016-07-11 | マツダ株式会社 | 車両用歩行者画像取得装置 |
KR20210095818A (ko) * | 2020-07-17 | 2021-08-03 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 얼굴이미지의 분류방법, 분류장치, 전자기기 및 저장매체 |
-
2011
- 2011-04-05 JP JP2011084104A patent/JP2012221070A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015146728A1 (ja) * | 2014-03-27 | 2015-10-01 | 株式会社メガチップス | 物体検出装置 |
JP2015191369A (ja) * | 2014-03-27 | 2015-11-02 | 株式会社メガチップス | 物体検出装置 |
JP2016126597A (ja) * | 2015-01-06 | 2016-07-11 | マツダ株式会社 | 車両用歩行者画像取得装置 |
KR20210095818A (ko) * | 2020-07-17 | 2021-08-03 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 얼굴이미지의 분류방법, 분류장치, 전자기기 및 저장매체 |
KR102633433B1 (ko) * | 2020-07-17 | 2024-02-05 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 얼굴이미지의 분류방법, 분류장치, 전자기기 및 저장매체 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9639769B2 (en) | Liveness detection | |
CN109711358B (zh) | 神经网络训练方法、人脸识别方法及系统和存储介质 | |
US11126827B2 (en) | Method and system for image identification | |
CN111476268A (zh) | 翻拍识别模型训练、图像识别方法、装置、设备及介质 | |
CN111144314A (zh) | 一种篡改人脸视频检测方法 | |
CN107918773A (zh) | 一种人脸活体检测方法、装置及电子设备 | |
CN114868124A (zh) | 控制方法、信息处理装置以及控制程序 | |
CN111428701A (zh) | 小面积指纹图像特征提取方法、系统、终端及存储介质 | |
Purnapatra et al. | Presentation attack detection with advanced cnn models for noncontact-based fingerprint systems | |
Kiruthika et al. | Image quality assessment based fake face detection | |
JP2013117861A (ja) | 学習装置、学習方法およびプログラム | |
JP2012221070A (ja) | 特徴選択情報作成装置、画像識別装置、特徴選択情報作成方法、および特徴選択情報作成プログラム | |
WO2020247494A1 (en) | Cross-matching contactless fingerprints against legacy contact-based fingerprints | |
CN116977725A (zh) | 一种基于改进卷积神经网络的异常行为识别方法及装置 | |
CN113920573B (zh) | 基于对抗学习的人脸变化解耦的亲属关系验证方法 | |
Mallet et al. | Deepfake detection analyzing hybrid dataset utilizing cnn and svm | |
Scherhag | Face morphing and morphing attack detection | |
CN116188439A (zh) | 一种基于身份识别概率分布的伪造换脸图像检测方法和装置 | |
CN115567224A (zh) | 一种用于检测区块链交易异常的方法及相关产品 | |
CN114913404A (zh) | 模型训练、人脸图像活体检测方法、电子设备及存储介质 | |
CN111062338B (zh) | 一种证照人像一致性比对方法及其系统 | |
CN112784793A (zh) | 人脸识别标准照更新方法、装置、计算机设备及存储介质 | |
Dhar et al. | Detecting deepfake images using deep convolutional neural network | |
Shehu et al. | Detecting an alteration in biometric fingerprint databases | |
Al-Dabbas et al. | Two Proposed Models for Face Recognition: Achieving High Accuracy and Speed with Artificial Intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130606 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130726 |
|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140701 |