JP2004246478A - Image search device - Google Patents
Image search device Download PDFInfo
- Publication number
- JP2004246478A JP2004246478A JP2003033846A JP2003033846A JP2004246478A JP 2004246478 A JP2004246478 A JP 2004246478A JP 2003033846 A JP2003033846 A JP 2003033846A JP 2003033846 A JP2003033846 A JP 2003033846A JP 2004246478 A JP2004246478 A JP 2004246478A
- Authority
- JP
- Japan
- Prior art keywords
- search
- search area
- image data
- image
- conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、写真などの画像データから、顔の部分などといった特定の画像部分を探索する画像探索装置に関する。
【0002】
【従来の技術】
近年、写真等に含まれる特定の対象体、例えば人の顔などの部分を特定し、当該特定した部分に基づいて所定の処理を行うことが考えられている。その一例としては撮影された写真から各人の顔の部分を検出し、当該顔の部分のみを焼き付けたり、または撮像中の映像から人の顔部分を検出して顔の認証処理に供したり、といったものが考えられる。
【0003】
従来の顔画像等、対象体を認識する装置では、画像データを所定のルールで探索領域に分割した上で、こうして得られた探索領域のすべてについて探索対象が含まれるか否かを判断する。この際、対象体の撮像状態(傾き、大きさ、照明状態など)によっては対象体の認識が困難になる場合に対応するため、撮像状態を所定の撮像状態(基準状態)に適合させる処理を行う。
【0004】
従来、この処理では、具体的には撮像状態を変化させながら撮影した学習用画像データを用いてニューラルネットワークを学習させ、当該学習させたニューラルネットワークを利用して処理の対象となった写真での撮像状態が基準状態からどの程度ずれているかを検出し、当該ずれを補正するよう画像処理を行うことが考えられてきた。
【0005】
なお、対象となる画像データから所望のパターンを検出する処理の例としては、特許文献1に開示される、カーネル非線形部分空間法等の方法が知られている。
【0006】
【特許文献1】
特開2001−90274号公報
【0007】
【発明が解決しようとする課題】
しかしながら一般に、対象画像データから所望の探索対象を検出する処理や基準状態に適合させる処理は負荷のかかる処理であり、上記従来の装置では、各探索領域についてそれぞれを行うので処理負荷が高くなる。
【0008】
本発明は、上記実情に鑑みて為されたもので、処理の負荷を軽減できる画像探索装置を提供することをその目的の一つとする。
【0009】
【課題を解決するための手段】
上記従来例の問題点を解決するための本発明は、処理の対象となった対象画像データ内から、探索対象の画像データ部分を探索する画像探索装置であって、所定のルールに従って前記対象画像データから探索領域候補を特定する探索領域特定手段と、所定の部分探索領域抽出ルールに従って、前記探索領域候補から複数の部分探索領域候補を抽出する部分探索領域抽出手段と、前記各部分探索領域候補で画定される画像データ部分のそれぞれを用いて、それぞれの画像特徴量を演算し、各画像特徴量のうち所定の特徴量条件を満足する画像特徴量の個数をカウントし、当該個数が所定の個数条件を満足する場合に、対応する探索領域候補を探索領域として決定する手段と、を含み、当該決定された探索領域について、探索対象を探索する処理を行うことを特徴としている。
【0010】
ここで、前記部分探索領域抽出手段は、前記探索領域候補から一部重複を許して前記部分探索領域候補を抽出することとしてもよい。さらに前記探索処理手段は、予め学習獲得された変換データベースを参照して、前記決定された少なくとも一つの探索領域に含まれる画像データ部分の各々について適用すべき変換の方法及び変換の量を含んでなる変換条件を取得し、当該取得した変換条件に基づく変換を、対応する画像データ部分に対して少なくとも一度行う変換手段と、基準状態での探索対象の画像データを用いて学習獲得された探索データベースを参照し、前記変換後の画像データ部分のうち少なくとも一つについて探索対象が含まれているか否かを判断する探索手段と、を含むこととしてもよい。
【0011】
また、上記従来例の問題点を解決するための本発明は、処理の対象となった対象画像データ内から、探索対象の画像データ部分を探索する画像探索方法であって、所定のルールに従って前記対象画像データから探索領域候補を特定する工程と、所定の部分探索領域抽出ルールに従って、前記探索領域候補から複数の部分探索領域候補を抽出する工程と、前記各部分探索領域候補で画定される画像データ部分のそれぞれを用いて、それぞれの画像特徴量を演算し、各画像特徴量のうち所定の特徴量条件を満足する画像特徴量の個数をカウントし、当該個数が所定の個数条件を満足する場合に、対応する探索領域候補を探索領域として決定する工程と、を含み、当該決定された探索領域について、探索対象を探索する処理を行うことを特徴としている。
【0012】
さらに、上記従来例の問題点を解決するための本発明は、処理の対象となった対象画像データ内から、探索対象の画像データ部分を探索する画像探索プログラムであって、コンピュータに、所定のルールに従って前記対象画像データから探索領域候補を特定する手順と、所定の部分探索領域抽出ルールに従って、前記探索領域候補から複数の部分探索領域候補を抽出する手順と、前記各部分探索領域候補で画定される画像データ部分のそれぞれを用いて、それぞれの画像特徴量を演算し、各画像特徴量のうち所定の特徴量条件を満足する画像特徴量の個数をカウントし、当該個数が所定の個数条件を満足する場合に、対応する探索領域候補を探索領域として決定する手順と、当該決定された探索領域について、探索対象を探索する処理を行う手順と、を実行させることを特徴としている。
【0013】
【発明の実施の形態】
[基本構成]
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像探索装置は、図1に示すように、制御部11と、記憶部12と、データベース部13と、表示部14と、操作部15と、外部記憶部16とを含んで構成された、一般的なコンピュータを用いて実現される。このコンピュータは、他の製品、例えばカメラなどに組み込まれたものであっても構わない。
【0014】
制御部11は、記憶部12に格納されているプログラムに従って動作するものであり、処理の対象となった対象画像データのうち、探索領域を少なくとも一つ画定する探索領域画定処理と、基準状態に変換する変換処理と、探索対象が含まれている探索領域を検出する探索処理と、探索結果を用いた所定の処理とを実行する。これらの制御部11の具体的処理内容については、後に詳しく述べる。
【0015】
記憶部12は、制御部11が実行するソフトウエアを格納している。また、この記憶部12は、制御部11がその処理の過程で必要とする種々のデータを保持するワークメモリとしても動作する。具体的にこの記憶部12は、ハードディスクなどの記憶媒体、あるいは半導体メモリ、ないしこれらの組み合わせとして実現できる。
【0016】
データベース部13は、後に説明するように、制御部11の第1変換処理において用いられる変換データベース13a、並びに探索処理において用いられる探索データベース13bを含んだデータベースである。このデータベース部13は、具体的にはハードディスクなどの記憶媒体であり、記憶部12がこのデータベース部13を兼ねてもよいが、ここでは説明のため、特に分けて示している。
【0017】
表示部14は、例えばディスプレイ装置やプリンタ装置などであり、制御部11から入力される指示に従い、情報の表示などを行うものである。操作部15は、例えばキーボードやマウスなどであり、ユーザの操作を受け入れて、当該操作の内容を制御部11に出力する。
【0018】
外部記憶部16は、例えばCD−ROMやDVD−ROMなど、コンピュータ可読なリムーバブルメディア(記憶媒体の一種)からプログラムやデータを読み出して制御部11に出力し、制御部11の処理によって記憶部12に格納させる処理を行うものである。本実施の形態に係るプログラムは、例えばCD−ROMなどの可搬的な記憶媒体に格納されて頒布でき、この外部記憶部16を用いて記憶部12に複写されて利用される。なお、本実施の形態に係るプログラムは、こうした記憶媒体だけでなく、ネットワーク上のサーバなどから図示しない通信部を介して記憶部12に複写されることとしてもよい。
【0019】
[制御部11の処理]
ここで、制御部11の処理の内容について具体的に説明する。本実施の形態においては、各処理の対象となる画像データ(対象画像データ)は、外部記憶部16や通信部(図示せず)を介して外部から入力され、記憶部12に格納される。ここで対象画像データは、一つであっても複数であっても構わない。ユーザが操作部15を操作して、制御部11に対し、特定の対象画像データについて探索対象を探索する処理を行うべき旨の指示(処理開始の指示)を行うと、制御部11は、図2に示す処理を開始する。
【0020】
制御部11は、対象画像データを順次縮小変換しながら、各縮小変換された対象画像データについて探索領域を画定し、各探索領域について基準状態への変換処理と、探索処理とを行い、各縮小変換された対象画像データ上のどの部分に探索対象が含まれているかを表すマップデータを生成する。
【0021】
具体的に制御部11は、まず縮小率Sを最小縮小率(例えば1倍、つまり縮小せず)に設定し(S1)、対象画像データを縮小率Sで縮小する(S2)。そして縮小後の対象画像データのサイズに等しいサイズのマップデータの領域を記憶部12上に確保し、当該領域の値を「偽(false)」に設定して、マップデータの初期化を実行する(S3)。例えば縮小後の対象画像データが1000×1000ピクセルの画像データであれば、1000×1000ビット分の領域を確保し、各ビット値を「0」に初期設定する。
【0022】
次に制御部11は、縮小後の対象画像データについて、少なくとも一つの探索領域を決定する処理を行う(S4)。この探索領域の決定処理については後に詳しく述べる。そして探索領域の一つを選択し(S5)、当該探索領域について変換処理を実行する(S6)。この変換処理についても後に詳しく述べる。
【0023】
制御部11は、変換処理後の探索領域に含まれる画像データ部分について、探索対象が含まれているか否かを判定する処理(探索処理)を実行し(S7)、含まれていると判断されるときには(Yesのときには)、当該変換処理後の探索領域に相当する、マップデータ上の領域の値を「真(true)」に設定する(S8)。そしてさらに選択していない探索領域があるか否かを調べ(S9)、選択していない探索領域があれば(Yesであれば)、処理S5に戻り、当該選択していない探索領域の一つを選択して処理を続ける(A)。
【0024】
一方、処理S7における探索処理の結果、探索対象が含まれていないと判定されるときには(Noのときには)、そのまま処理S9に移行する。また、処理S9において、選択していない探索領域がなければ、つまり、すべての探索領域について変換処理と探索処理とを完了したならば(Noならば)、現在設定されている縮小率Sが事前に定められた最大縮小率を上回っているか否かを調べ(S10)、上回っていなければ(Noならば)、縮小率Sを大きくするように調整して(S11)、処理S2に戻って処理を続ける(B)。ここで、縮小率Sを大きく調整する処理S11は、例えば縮小率Sを所定比で高めるような処理としてもよいし、縮小率Sである倍率に対し、所定乗率ΔSを乗じて、S=S×ΔSとして新たな縮小率Sを定めてもよい。
【0025】
また、処理S10において現在設定されている縮小率Sが事前に定められた最大縮小率を上回っていれば(Yesならば)、各縮小率での対象画像データに対応するマップデータに基づき、元の(縮小前の)対象画像データ内で、探索対象が含まれている領域を画定して(S12)、処理を終了する。
【0026】
[探索領域決定処理]
次に、制御部11が探索領域を決定する処理(探索領域決定処理)について説明する。制御部11は、図3に示すように、縮小後の対象画像データの左上隅の座標(例えばX=0,Y=0)を開始点として、予め定められたサイズL×L′(例えば27×27)の矩形領域を探索領域候補として画定する(S20)。なお、以下では説明のため、この探索領域候補上の座標系を次のように設定する。すなわち左上端をη=0、ξ=0として、右方向をη軸正の方向、下方向をξ軸正の方向として説明する。
【0027】
制御部11は、記憶部12上にカウンタの記憶領域を確保し、「0」にリセットする(S21)。また制御部11は部分探索領域の抽出開始点の座標(η,ξ)を(0,0)に初期設定しておく。次に制御部11は、探索領域候補から(η,ξ)を左上隅としたn×n′(n<L、n′<L′、例えば9×9)の部分探索領域候補を抽出し(S22)、この部分探索領域候補によって確定される画像データ部分について探索対象の性状に応じて予め定められている特徴量、例えばエントロピーeを算出する(S23)。
【0028】
そしてこの算出したエントロピーeが、所定のしきい値eth1より大であるか否かを判断し(S24)、大であれば(Yesならば)カウンタをインクリメントして(S25)、部分探索領域候補をX軸方向に予め定めた移動量d(例えば3画素、すなわち部分探索領域候補同士の部分的重複を許してもよい)だけ移動する(つまり、η=η+d;S26)。制御部11は、新たな部分探索領域候補が探索領域候補の右端から逸脱したか、すなわちη+n>Lとなったか否かを調べ(S27)、逸脱していれば(Yesならば)、ηを「0」とし、ξ=ξ+dとして、新たな(η,ξ)を左上端とする部分探索領域候補を抽出する(S28)。制御部11は、さらに新たな部分探索領域候補が探索領域候補の下端を逸脱したか、すなわちξ+n′>L′となったか否かを調べ(S29)、逸脱していれば(Yesならば)、カウンタの値が予め定めたしきい値TH以上であるか否かを調べる(S30)。そしてカウンタの値がしきい値TH以上であれば(Yesならば)、処理している探索領域候補を探索領域として決定し(S31)、次の探索領域候補を画定すべきか否かを調べ(対象画像データ上に画定可能な探索領域候補がまだあるかを調べ;S32)、画定すべき、すなわち、まだ画定可能な探索領域候補があれば(Yesならば)、処理S20に戻って、開始点の座標をX方向にΔXだけ移動し、X方向の端に到達したら、Xを「0」とし、Y方向にΔYだけ移動して、次のL×L′の探索領域を画定して処理を続ける。
【0029】
またこの処理S32において、画定すべき、すなわち、まだ画定可能な探索領域候補がなければ(Noならば)、処理を終了する。
【0030】
さらに、処理S27及びS29において、それぞれ逸脱していないときは(それぞれにおいてNoであれば)、処理S22に戻って処理を続ける。また、処理S30においてカウンタの値が予め定めたしきい値TH未満であれば(Noならば)、処理している探索領域候補を探索領域とせずに、そのまま処理S32に移行する。さらに処理S24において、エントロピーeが所定のしきい値eth1より大でなければ(Noならば)、処理S26に移行する。
【0031】
またここでは、特徴量条件として、エントロピーeが所定のしきい値eth1より大であるか否かとの条件を用いているが、エントロピーeが所定の2つのしきい値eth1と、eth2とで挟まれる範囲内であるか否かを特徴量条件としてもよい。
【0032】
ここで制御部11がエントロピーeを算出する処理S23の具体的内容について説明する。制御部11は、処理の対象となった部分探索領域候補によって確定される画像データ部分に含まれる画素の輝度のヒストグラムを生成し、さらにこのヒストグラムを例えば線形近似等によって補完し、補完後のヒストグラムの総和をエントロピーeとして算出する。このようにヒストグラムを補完するのは、エントロピーの値は本来連続量であるのに対して、ヒストグラムは離散量として演算されてしまうからである。そこで演算した輝度ヒストグラムを連続的関数で近似的に表現し、この近似的な連続的関数の積分としての総和をヒストグラムとする。
【0033】
なお、ヒストグラムの補完は、線形近似でなくとも、ヒストグラムの値を所定の内挿法で内挿して二次以上の近似を行ってもよい。
【0034】
このようにすると、単なる総和においてはヒストグラムのピーク位置同士の相対的関係が配慮されなくなるのに対して、近似関数の積分とすることで、ピーク位置同士の相対的距離等が積分結果に寄与するようになるので、エントロピープロファイルが高精度化される。
【0035】
なお、ここでは開始点の移動量を幅方向、高さ方向にそれぞれΔX,ΔYとしているが、これら移動量は対象画像データの縮小率Sに応じて、1倍のときのΔX,ΔYに対してΔX/S,ΔY/Sとしてもよい。
【0036】
本実施の形態においては、このように探索領域の候補に含まれる部分探索領域候補のそれぞれについて、各部分探索領域候補で確定される画像データ部分から演算されるエントロピーなどの特徴量が所定の条件を満たしているものがいくつあるかによって、当該探索領域候補を探索領域として決定するか否かが判断される。
【0037】
これは例えば顔の部分の画像であれば、目や鼻、輪郭などの部分ではエントロピーが比較的高くなるのに対して、顔の内部、額や頬の部分などは比較的エントロピーが低くなるので、探索領域候補全体で特徴量を捉えると、平均的にエントロピーが低下してしまい、顔の部分を捉えにくいことに配慮したものである。つまり、領域内に特徴量が高くなる部分とそうでない部分とがある場合に、当該特徴量が領域全体で平均化され、当該特徴量による識別が困難になることを防止したのである。
【0038】
このように本実施の形態によると、変換処理、探索処理の前に探索対象が含まれている可能性があるか否かを的確に判断して、可能性のない部分についての変換処理や探索処理を行わないようにするので、処理負荷が軽減される。
【0039】
[変換処理]
次に変換処理について説明する。本実施の形態において特徴的なことの一つは、この変換処理が段階的に行われ、各段階では一つの変換自由度に対応する変換が行われることである。本実施の形態の制御部11は、探索領域に含まれている画像データ部分に基づいて所定の特徴量ベクトル情報を演算する。ここで特徴量ベクトル情報は、探索対象の性状に合わせて選択された、複数の特徴量要素を含んでなるベクトル量である。
【0040】
本実施の形態では、制御部11は、この特徴量ベクトル情報と、変換データベース13aに格納されている特徴量ベクトル情報とを用いた、カーネル非線形部分空間法によって変換を特定することとして説明する。
【0041】
[変換データベース13aの内容]
このカーネル非線形部分空間法は、データを何らかのカテゴリに分類する方法として広く知られているので、詳しい説明を省略するが、その概要を述べれば、特徴量要素を基底として張られる空間Fにおいて、当該空間Fに含まれる複数の部分空間Ωのそれぞれをデータの分類先であるカテゴリとして認識し、分類しようとするデータに基づいて作成される空間F内の特徴量ベクトル情報(例えばΦとする)を各部分空間Ωに射影し(射影の結果を例えばφとする)、射影前の特徴量ベクトル情報Φと、射影後の特徴量ベクトル情報φとの距離Eが最も小さくなる部分空間Ω(仮に最近接部分空間と呼ぶ)を検出し、分類しようとするデータは、その部分空間Ωによって表されるカテゴリに属すると判断する方法である。
【0042】
そこで学習段階では、同一のカテゴリに属するべき学習用の例示データ(学習サンプル)に対応する特徴量ベクトル情報に基づく最近接部分空間Ωが同一となるよう、非線形写像(空間Fへの写像、すなわちカーネル関数に含まれるパラメータ等)と、各カテゴリに対応する部分空間Ω間を隔てる超平面との少なくとも一方を調整することとなる。
【0043】
本実施の形態においては、探索対象を基準状態に変換する方法(変換の種類及び量)を決定するために、この変換データベース13aが形成される。つまり、基準状態にあるか否かが不明な画像データに対して、行うべき変換の種類及び変換の量(カテゴリ)を決定できるように変換データベース13aが学習獲得されている。本実施の形態では、画像の回転、平行移動、サイズ変更という、画像に対して行うべき変換の種類(自由度)ごとに、変換データベース13aを作成している。変換の各自由度に対応する変換データベース13aは、対応する変換の変換量をカテゴリとして学習獲得したものである。
【0044】
この学習獲得のため、本実施の形態の変換データベース13aの学習過程では、学習サンプルを次のように生成する。すなわち、所定の基準状態での探索対象である画像データの例を複数用意し、各画像データの例について、変換の自由度ごとに、それぞれの自由度について、互いに異なる変換量での変換が行われた複数の変換画像データを生成する。こうして自由度ごとに生成された変換画像データを、各自由度ごとの学習サンプルとする。具体的に顔を探索対象とする場合、所定の基準状態(所定の撮影条件・姿勢)にある顔の画像データを例として複数用意し、各画像データについて、変換の自由度として、例えば回転・平行移動・サイズ変更等という各自由度ごとに、回転であれば−180度から180度までの範囲で5度ずつ等の角度で回転させた変換画像データを回転の自由度に対する学習サンプルとする。また、平行移動であれば、縦横にそれぞれ5ピクセルずつ移動させた複数の変換画像データを平行移動の自由度に対する学習サンプルとする。なお、これらの学習サンプルは、移動等の変換自由度を含むために、基準状態よりも広い領域の画像データのうちから基準状態の面積を5ピクセルずつ移動させながら取り出すことで生成する。
【0045】
こうして複数の画像データ例のそれぞれについて、さらに自由度ごとにそれぞれ複数の変換が施された複数の画像データを生成し、各画像データにどのような変換を行ったかを表す情報(変換量の大きさ等)を関連づける。
【0046】
なお、ここでは互いに異なる変換量の変換を施した画像データを得るために、変換量を所定のステップ(例えば回転で言えば5度)ずつ変化させながらそれぞれ変換を行った画像データを学習サンプルに含めるようにしたが、所定のステップずつ変化させながらでなくとも、変換量を乱数によって決定しながら変換を行って、それぞれを学習サンプルに含めるようにしてもよい。
【0047】
次に、各自由度ごとの学習サンプルを用いて、各自由度に対応する変換データベース13aを学習させる。
【0048】
[変換処理の動作]
制御部11は、こうして学習された各変換データベース13aを用いて、探索領域画定処理によって画定された探索領域の各々について次のように変換処理を行う。すなわち、処理の対象となった探索領域に含まれている画像データ部分(例えば画素値の列としてベクトル値と同視し得る)を、空間F内の特徴量ベクトル情報(各変換データベース13aごと、つまり変換の各自由度ごとに定義されている特徴量の組)に写像し、さらにその写像を各部分空間Ωに射影する。そして、射影前の特徴量ベクトル情報と、射影後の特徴量ベクトル情報との距離Eが最小となる変換量を決定する。また制御部11は、距離Eの二乗値Lを演算し、これを誤差として記憶部12に保持する。
【0049】
ここで変換量は、各変換データベース13aに基づき自由度ごとに決定されるが、制御部11は、各自由度に対応する変換量のうち一つを所定の条件(例えば各変換量に対応する距離Eが最小となるもの等の条件)に基づいて選択し、選択した自由度に対応する変換を、選択した変換量の分だけ変換する。
【0050】
つまり、探索領域に含まれている画像データ部分からは、各自由度に対応する各変換データベース13aに学習獲得された情報によって、例えば回転の自由度に対しては10度の回転変換により基準状態に近づき、その誤差がLrであり、平行移動の自由度に対しては左へ5ピクセルの変換で基準状態に近づき、その誤差がLpといった情報が得られるので、この中から、誤差が最小となる自由度の変換を選択する。例えば上述の例の場合、Lr<Lpならば10度の回転変換を探索領域に施して、新たな探索領域を画定する。そして、この新たな探索領域に含まれる画像データ部分をさらに空間F内の特徴量ベクトル情報に写像し、その写像をさらに各部分空間Ωに射影する。そして、射影前の特徴量ベクトル情報と、射影後の特徴量ベクトル情報との距離Eが最小となる変換量を決定する処理から繰り返す。
【0051】
また、各自由度に対応する変換量がいずれも「0」(つまり無変換)を表すものとなっている場合は、その段階で処理を終了し、さらに未処理の探索領域があれば、当該未処理の探索領域のいずれかを処理の対象として変換処理を行う。
【0052】
なお、ここでは対象画像データのうち、画定された探索領域に含まれる画像データ部分をそのまま用いているが、当該画像データ部分の解像度を低減する処理を行って、粗視データとし、当該粗視データを用いて変換処理を実行してもよい。この場合は、当該粗視データに対応する学習サンプルを用いて、各変換データベース13aを学習獲得させておく。
【0053】
また、制御部11は、特徴量ベクトル情報の演算、部分空間への写像、距離の評価、誤差の評価といった処理を各自由度ごとに順次行うのではなく、並列して行ってもよい。
【0054】
さらにここではカーネル非線形部分空間法を用いる場合を例として説明したが、データの分類と、分類時の誤差評価が可能であれば例えばオートエンコーダ等、他の方法を用いても構わない。
【0055】
[探索処理]
次に探索処理について説明する。この探索処理では変換処理を完了した探索領域の各々にそれぞれ含まれる画像データ部分について、探索データベース13bを用いて、探索対象が含まれているか否かを判定する。具体的な探索処理の例としては、特開2002−329188号公報に開示された方法などがある。次にその概要を説明する。
【0056】
[探索データベースの学習課程]
この探索データベース13bは、基準状態にある探索対象の画像データの例を学習サンプルとして用い、ニューラルネットワークを学習させて形成する。すなわち、制御部11は、複数の学習サンプルの入力を受けて、その各々について、探索対象の性状に合わせて予め選択された特徴量のセット(特徴量ベクトル)を演算し、学習用データを生成する。次に、この学習用データを用いて、記憶部12に格納されたM×M′の格子空間上に、SOM(自己組織化マップ)によって格子空間マップを形成する。つまり、制御部11は、入力された学習用データである特徴量ベクトルと、各格子ごとに割り当てられた重みベクトルとの距離を所定の測度(例えばユークリッド測度)で演算し、この距離が最小となる格子(最整合ノード)cを検出する。そしてこの最整合ノード近傍の複数の格子について、その重みベクトルを当該入力された特徴量ベクトルを用いて更新する。この処理の繰り返しにより、記憶部12上に格子空間マップが形成され、互いに類似する特徴量ベクトルに対する最整合ノードが連続的な領域を形成するようになる。つまり、この格子空間には、多次元の入力信号である特徴量ベクトルから2次元のマップへの非線形射影が位相を保持したまま形成され、重みの更新により、データの特徴部分が組織化され、その学習成果として類似のデータに反応する格子が近接して存在しているようになる。
【0057】
各学習データに基づく学習が完了すると、次に制御部11は、格子空間マップの各格子をカテゴリに分類する。この分類は、例えば各格子間の距離(各格子に関連づけられた重みベクトル間の距離)に基づいて行うことができ、探索対象に似た画像データに反応する格子群のカテゴリ(探索対象カテゴリ)と、そうでない格子群のカテゴリ(非探索対象カテゴリ)とに分類される。
【0058】
[探索処理の動作]
制御部11は、対象画像データと同じサイズのマップデータを記憶する領域を記憶部12に確保し、当該領域の値を「偽(false)」に初期化する。
【0059】
制御部11は、学習獲得した探索データベース13bを用い、変換処理を完了した探索領域のに画像データ部分に基づいて所定の特徴量ベクトルを演算する。そして当該演算した特徴量ベクトルと探索データベース13b内の各格子に関連づけられた重みベクトルとの距離を求め、特徴量ベクトルとの距離が最小となる格子(最整合ノード)を特定し、特定した格子が探索対象カテゴリに属していれば、探索領域に探索対象が含まれていると判断し、特定した格子が非探索対象カテゴリに属していれば、探索領域には探索対象が含まれていないと判断する。
【0060】
[制御部11の動作]
本実施の形態の制御部11は、以上のように、探索の対象となった対象画像データを順次縮小しながら、縮小後のそれぞれの対象画像データから探索処理を行う領域を取り出し、当該領域内の画像データが基準状態となるよう変換をした上で、探索対象が当該変換後の探索領域内の画像データに含まれているか否かを判断する。すなわち、制御部11は探索処理の対象となる画像データを基準状態とする処理を行うので、変換前の探索領域の位置が多少ずれていても構わない。また、縮小率が基準状態から多少ずれていたとしても問題とならない。
【0061】
そこで従来であれば、0.8倍ずつ縮小した多段階の縮小画像データを生成し、しかも探索領域を1画素ずつずらしながら取り出すようにしていたのに対し、本実施の形態のものでは0.5倍ずつの縮小で構わないし、探索領域を画定する際に、所定の条件を満足する領域を自律的に取り出す場合であっても、ΔXやΔYを6画素等とすることができる。これにより、探索処理の対象となるパターン数を大幅に低減でき、探索の対象体を写真などから探索する処理の負荷を軽減できる。
【0062】
制御部11は、探索対象が含まれていると判断された領域を表すマップデータを探索結果情報として生成するが、このマップデータは各縮小率で縮小された後の対象画像データのそれぞれに対応して複数生成される。そこで、これら複数のマップデータ(それぞれ縮小後の対象画像データのサイズとなっている)を統合的に用いて探索対象が含まれている領域を決定する。
【0063】
例えば、各マップデータを、それぞれの縮小率に応じた拡大率で拡大し、元の対象画像データのサイズに揃えて比較し、すべてのマップデータで共通して「真」となっている領域(どの縮小率の対象画像データに基づいても、探索対象が含まれていると判断された領域)に探索対象が含まれていると判断することとしてもよい。また、いずれか一つのマップデータで「真」となっている領域を探索対象が含まれている領域と判断するようにしてもよい。
【0064】
[その他の変形例]
ここまでの説明では、変換処理において行われる変換は、2次元的な回転、平行移動、拡大縮小(探索領域を拡大縮小し、その内部の画像データ部分を元の(拡大縮小前の)探索領域のサイズに変換して扱えばよい)であるとして説明したが、これ以外にも例えば人の顔であれば、姿勢(うつむき加減や振り向き加減)に影響される3次元的な回転を含んでもよい。この場合、探索対象の平均的3次元モデルを想定し、当該平均的3次元モデルへ画像データ部分を投射したものを用いて3次元的回転の変換を実現することができる。
【0065】
また、探索処理においては探索対象として、例えば人の顔であっても、さらに細かくカテゴリを分けて、年齢や性別、口を開けているか否かなどの条件を含めてもよい。
【0066】
さらに、図2のフローチャート図においては各縮小率における処理を制御部11が順次行うものとしていたが、各縮小率における処理は互いに独立しているので、制御部11は、これらの各縮小率における処理を並列して行ってもよい。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像探索装置の構成ブロック図である。
【図2】制御部11の処理の一例を表すフローチャート図である。
【図3】制御部11による探索領域の決定の処理の例を表すフローチャート図である。
【符号の説明】
11 制御部、12 記憶部、13 データベース部、14 表示部、15 操作部、16 外部記憶部。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image search device that searches for a specific image portion such as a face portion from image data such as a photograph.
[0002]
[Prior art]
In recent years, it has been considered that a specific target object included in a photograph or the like, for example, a portion such as a human face is specified, and a predetermined process is performed based on the specified portion. As an example, a face portion of each person is detected from a photographed photograph, and only the face portion is burned, or a human face portion is detected from a video being captured and subjected to face authentication processing, And so on.
[0003]
In a conventional apparatus for recognizing an object such as a face image, image data is divided into search areas according to a predetermined rule, and it is determined whether or not the search object is included in all of the search areas thus obtained. At this time, in order to cope with a case where it is difficult to recognize the target object depending on the imaging state (tilt, size, illumination state, and the like) of the target object, a process of adapting the imaging state to a predetermined imaging state (reference state) is performed. Do.
[0004]
Conventionally, in this processing, specifically, a neural network is learned using learning image data taken while changing the imaging state, and the processing is performed using the learned neural network. It has been considered to detect how much the imaging state deviates from the reference state and perform image processing to correct the deviation.
[0005]
As an example of a process of detecting a desired pattern from target image data, a method such as a kernel nonlinear subspace method disclosed in
[0006]
[Patent Document 1]
JP 2001-90274 A
[Problems to be solved by the invention]
However, generally, processing for detecting a desired search target from target image data and processing for adapting to a reference state is a load-intensive processing. In the above-described conventional apparatus, each processing is performed for each search area, and thus the processing load increases.
[0008]
The present invention has been made in view of the above circumstances, and has as its object to provide an image search device capable of reducing the processing load.
[0009]
[Means for Solving the Problems]
The present invention for solving the problem of the above-mentioned conventional example is an image search apparatus for searching an image data portion of a search target from within target image data to be processed, wherein the target image is searched for in accordance with a predetermined rule. Search area identification means for identifying search area candidates from data; partial search area extraction means for extracting a plurality of partial search area candidates from the search area candidates according to a predetermined partial search area extraction rule; Using each of the image data portions defined in the above, each image feature amount is calculated, the number of image feature amounts satisfying a predetermined feature amount condition among each image feature amount is counted, and the number is determined to be a predetermined number. Means for determining a corresponding search area candidate as a search area when the number condition is satisfied, and searching for a search target in the determined search area. It is characterized by performing.
[0010]
Here, the partial search area extracting means may extract the partial search area candidate from the search area candidate while allowing partial overlap. Further, the search processing means includes a conversion method and a conversion amount to be applied to each of the image data portions included in the determined at least one search area with reference to a conversion database acquired in advance by learning. A conversion means for acquiring a conversion condition, and performing a conversion based on the acquired conversion condition at least once for the corresponding image data portion, and a search database learned and acquired using the image data to be searched in the reference state. And searching means for determining whether a search target is included in at least one of the converted image data portions.
[0011]
Further, the present invention for solving the problems of the above-described conventional example is an image search method for searching an image data portion to be searched from within target image data to be processed, and the method according to a predetermined rule. Identifying a search area candidate from the target image data; extracting a plurality of partial search area candidates from the search area candidate in accordance with a predetermined partial search area extraction rule; and an image defined by the partial search area candidates Using each of the data portions, the respective image feature amounts are calculated, the number of image feature amounts that satisfy a predetermined feature amount condition among the image feature amounts is counted, and the number satisfies the predetermined number condition. Determining a corresponding search area candidate as a search area, and performing a process of searching for a search target with respect to the determined search area. That.
[0012]
Further, the present invention for solving the problem of the above-mentioned conventional example is an image search program for searching an image data portion to be searched from within target image data to be processed. A step of specifying a search area candidate from the target image data according to a rule, a step of extracting a plurality of partial search area candidates from the search area candidate according to a predetermined partial search area extraction rule, and a step of defining each of the partial search area candidates Using each of the image data portions to be calculated, the respective image feature amounts are calculated, the number of image feature amounts satisfying a predetermined feature amount condition among the image feature amounts is counted, and the number is determined by a predetermined number condition. Is satisfied, a procedure of determining a corresponding search area candidate as a search area, and a process of searching for a search target in the determined search area are performed. It is characterized in that to execute the order, the.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
[Basic configuration]
An embodiment of the present invention will be described with reference to the drawings. As shown in FIG. 1, the image search device according to the embodiment of the present invention includes a
[0014]
The
[0015]
The storage unit 12 stores software executed by the
[0016]
The
[0017]
The
[0018]
The
[0019]
[Process of Control Unit 11]
Here, the content of the process of the
[0020]
The
[0021]
Specifically, the
[0022]
Next, the
[0023]
The
[0024]
On the other hand, when it is determined that the search target is not included as a result of the search process in the process S7 (No), the process directly proceeds to the process S9. In addition, if there is no unselected search area in the processing S9, that is, if the conversion processing and the search processing have been completed for all the search areas (if No), the currently set reduction rate S is set in advance. (S10), and if not (No), adjust so as to increase the reduction ratio S (S11), and return to the process S2 to process. (B). Here, the process S11 of adjusting the reduction rate S to a large value may be, for example, a process of increasing the reduction rate S at a predetermined ratio, or by multiplying the magnification which is the reduction rate S by a predetermined power factor ΔS to obtain S = A new reduction ratio S may be determined as S × ΔS.
[0025]
If the currently set reduction ratio S in the process S10 exceeds the predetermined maximum reduction ratio (Yes), the original reduction ratio is determined based on the map data corresponding to the target image data at each reduction ratio. A region including the search target is defined in the target image data (before reduction) (S12), and the process ends.
[0026]
[Search area determination processing]
Next, a process in which the
[0027]
The
[0028]
Then, it is determined whether or not the calculated entropy e is larger than a predetermined threshold value eth1 (S24). If the calculated entropy e is larger (Yes), the counter is incremented (S25), and the partial search area candidate is determined. Is moved in the X-axis direction by a predetermined movement amount d (for example, three pixels, that is, partial overlap between partial search area candidates may be allowed) (that is, η = η + d; S26). The
[0029]
In this process S32, if there is no search area candidate to be defined, that is, if there is still no definable search area candidate (No), the process ends.
[0030]
Further, in steps S27 and S29, if the respective values do not deviate from each other (if No in each case), the process returns to step S22 to continue the processing. If the value of the counter is smaller than the predetermined threshold value TH in step S30 (if No), the process directly proceeds to step S32 without setting the search area candidate being processed as the search area. Further, in the process S24, if the entropy e is not larger than the predetermined threshold value eth1 (if No), the process shifts to the process S26.
[0031]
Further, here, a condition of whether or not entropy e is greater than a predetermined threshold value eth1 is used as the feature amount condition, but entropy e is sandwiched between two predetermined threshold values eth1 and eth2. It may be set as a feature amount condition whether or not it is within a range to be performed.
[0032]
Here, the specific contents of the processing S23 in which the
[0033]
Note that the histogram may be complemented not by linear approximation, but by quadratic or higher approximation by interpolating the values of the histogram by a predetermined interpolation method.
[0034]
In this way, the relative relationship between the peak positions of the histogram is not considered in the mere summation, but the relative distance between the peak positions contributes to the integration result by integrating the approximate functions. As a result, the entropy profile is made highly accurate.
[0035]
Here, the moving amount of the start point is set to ΔX and ΔY in the width direction and the height direction, respectively. However, these moving amounts are different from ΔX and ΔY at 1 time in accordance with the reduction ratio S of the target image data. ΔX / S and ΔY / S.
[0036]
In the present embodiment, for each of the partial search area candidates included in the search area candidates, a feature amount such as entropy calculated from an image data portion determined by each partial search area candidate is determined by a predetermined condition. It is determined whether or not to determine the search area candidate as a search area depending on how many satisfy the condition.
[0037]
For example, in the case of a face image, the entropy is relatively high in the eyes, nose, contour, etc., whereas the entropy is relatively low in the face, forehead, cheeks, etc. When the feature amount is captured in the entire search area candidate, the entropy is reduced on average, and it is considered that it is difficult to capture the face part. That is, when there is a portion where the feature amount is high and a portion where the feature amount is not in the region, the feature amount is averaged over the entire region, thereby preventing the identification by the feature amount from becoming difficult.
[0038]
As described above, according to the present embodiment, before the conversion processing and the search processing, it is accurately determined whether or not the search target may be included, and the conversion processing and the search for the part having no possibility are performed. Since processing is not performed, the processing load is reduced.
[0039]
[Conversion processing]
Next, the conversion process will be described. One of the characteristic features of the present embodiment is that this conversion process is performed in stages, and in each stage, a conversion corresponding to one conversion degree of freedom is performed. The
[0040]
In the present embodiment, the description will be made assuming that the
[0041]
[Contents of
This kernel non-linear subspace method is widely known as a method of classifying data into some category, and therefore detailed description is omitted. Each of the plurality of subspaces Ω included in the space F is recognized as a category to which data is classified, and feature vector information (for example, Φ) in the space F created based on the data to be classified is defined. Each of the subspaces Ω is projected (the projection result is assumed to be φ, for example), and the subspace Ω at which the distance E between the feature vector information Φ before the projection and the feature vector information φ after the projection becomes the smallest (temporarily, This is a method of detecting the tangent subspace) and determining that the data to be classified belongs to the category represented by the subspace Ω.
[0042]
Therefore, in the learning stage, a non-linear mapping (mapping to space F, that is, mapping to space F, At least one of the parameters included in the kernel function) and the hyperplane separating the subspaces Ω corresponding to the respective categories is adjusted.
[0043]
In the present embodiment, the
[0044]
In order to acquire the learning, in the learning process of the
[0045]
In this manner, for each of the plurality of image data examples, a plurality of image data items each of which is subjected to a plurality of conversions for each degree of freedom are generated, and information indicating the type of conversion performed on each image data item (the amount of conversion amount) Etc.).
[0046]
Here, in order to obtain image data that has been subjected to conversion with different conversion amounts from each other, the image data obtained by performing each conversion while changing the conversion amount by a predetermined step (for example, 5 degrees in terms of rotation) is used as a learning sample. Although they are included, the conversion may be performed while determining the conversion amount by random numbers, and may be included in the learning sample, instead of being changed by predetermined steps.
[0047]
Next, the
[0048]
[Operation of conversion processing]
The
[0049]
Here, the conversion amount is determined for each degree of freedom based on each
[0050]
In other words, from the image data portion included in the search area, information obtained by learning in each
[0051]
If the conversion amounts corresponding to the respective degrees of freedom are all “0” (that is, no conversion), the process is terminated at that stage. The conversion process is performed on any of the unprocessed search areas as a processing target.
[0052]
Here, the image data portion included in the defined search area in the target image data is used as it is, but a process of reducing the resolution of the image data portion is performed to obtain coarse-grained data, and the coarse-grained data is obtained. The conversion process may be performed using the data. In this case, each
[0053]
In addition, the
[0054]
Further, although the case where the kernel nonlinear subspace method is used has been described as an example, other methods such as an auto encoder may be used as long as data classification and error evaluation at the time of classification are possible.
[0055]
[Search process]
Next, the search processing will be described. In this search processing, it is determined whether or not a search target is included in the image data portions included in each of the search areas for which the conversion processing has been completed, using the
[0056]
[Study course of search database]
The
[0057]
When the learning based on each learning data is completed, the
[0058]
[Operation of search processing]
The
[0059]
The
[0060]
[Operation of Control Unit 11]
As described above, while sequentially reducing the target image data to be searched, the
[0061]
Therefore, in the related art, reduced image data in multiple stages reduced by 0.8 times is generated, and the search area is extracted while being shifted one pixel at a time. It is possible to reduce by 5 times, and when defining a search area, even when autonomously extracting an area satisfying a predetermined condition, ΔX and ΔY can be set to 6 pixels or the like. As a result, the number of patterns to be searched can be significantly reduced, and the load of processing for searching for a search target from a photograph or the like can be reduced.
[0062]
The
[0063]
For example, each map data is enlarged at an enlargement ratio corresponding to the respective reduction ratio, compared with the size of the original target image data and compared, and an area ("true") common to all map data ( Regardless of the target image data at any reduction ratio, it may be determined that the search target is included in the area (the area determined to include the search target). Further, an area that is “true” in any one of the map data may be determined to be an area including the search target.
[0064]
[Other Modifications]
In the description so far, the conversion performed in the conversion processing includes two-dimensional rotation, translation, and scaling (the search area is scaled, and the image data portion inside the search area is changed to the original (before scaling) search area). However, in the case of a human face, for example, a three-dimensional rotation affected by the posture (adjusting downward or turning) may be included. . In this case, assuming an average three-dimensional model to be searched, a three-dimensional rotation conversion can be realized using a projection of the image data portion onto the average three-dimensional model.
[0065]
In the search process, even if the search target is, for example, a human face, the category may be further divided into categories, and conditions such as age, gender, and whether or not the mouth is open may be included.
[0066]
Further, in the flowchart of FIG. 2, the
[Brief description of the drawings]
FIG. 1 is a configuration block diagram of an image search device according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating an example of a process of a
FIG. 3 is a flowchart illustrating an example of a process of determining a search area by a
[Explanation of symbols]
11 control unit, 12 storage unit, 13 database unit, 14 display unit, 15 operation unit, 16 external storage unit.
Claims (5)
所定のルールに従って前記対象画像データから探索領域候補を特定する探索領域特定手段と、
所定の部分探索領域抽出ルールに従って、前記探索領域候補から複数の部分探索領域候補を抽出する部分探索領域抽出手段と、
前記各部分探索領域候補で画定される画像データ部分のそれぞれを用いて、それぞれの画像特徴量を演算し、各画像特徴量のうち所定の特徴量条件を満足する画像特徴量の個数をカウントし、当該個数が所定の個数条件を満足する場合に、対応する探索領域候補を探索領域として決定する手段と、
を含み、
当該決定された探索領域について、探索対象を探索する処理を行うことを特徴とする画像探索装置。An image search apparatus that searches for image data portions to be searched from within target image data that has been processed,
Search area specifying means for specifying a search area candidate from the target image data according to a predetermined rule;
A partial search area extraction unit configured to extract a plurality of partial search area candidates from the search area candidates according to a predetermined partial search area extraction rule;
Using each of the image data portions defined by the respective partial search area candidates, the respective image feature amounts are calculated, and the number of image feature amounts satisfying a predetermined feature amount condition among the image feature amounts is counted. Means for determining a corresponding search area candidate as a search area when the number satisfies a predetermined number condition;
Including
An image search apparatus, which performs a process of searching for a search target in the determined search area.
前記探索処理手段は、予め学習獲得された変換データベースを参照して、前記決定された少なくとも一つの探索領域に含まれる画像データ部分の各々について適用すべき変換の方法及び変換の量を含んでなる変換条件を取得し、当該取得した変換条件に基づく変換を、対応する画像データ部分に対して少なくとも一度行う変換手段と、
基準状態での探索対象の画像データを用いて学習獲得された探索データベースを参照し、前記変換後の画像データ部分のうち少なくとも一つについて探索対象が含まれているか否かを判断する探索手段と、
を含むことを特徴とする画像探索装置。The image search device according to claim 1 or 2,
The search processing means includes a conversion method and a conversion amount to be applied to each of the image data portions included in the determined at least one search region with reference to a conversion database acquired in advance by learning. A conversion unit that obtains a conversion condition, and performs conversion based on the obtained conversion condition at least once for a corresponding image data portion;
A search means for referring to a search database acquired by learning using image data to be searched in the reference state, and determining whether or not a search object is included in at least one of the converted image data portions; and ,
An image search device comprising:
所定のルールに従って前記対象画像データから探索領域候補を特定する工程と、
所定の部分探索領域抽出ルールに従って、前記探索領域候補から複数の部分探索領域候補を抽出する工程と、
前記各部分探索領域候補で画定される画像データ部分のそれぞれを用いて、それぞれの画像特徴量を演算し、各画像特徴量のうち所定の特徴量条件を満足する画像特徴量の個数をカウントし、当該個数が所定の個数条件を満足する場合に、対応する探索領域候補を探索領域として決定する工程と、
を含み、
当該決定された探索領域について、探索対象を探索する処理を行うことを特徴とする画像探索方法。An image search method for searching an image data portion of a search target from target image data that has been processed,
Identifying a search area candidate from the target image data according to a predetermined rule;
Extracting a plurality of partial search area candidates from the search area candidates according to a predetermined partial search area extraction rule;
Using each of the image data portions defined by the respective partial search area candidates, the respective image feature amounts are calculated, and the number of image feature amounts satisfying a predetermined feature amount condition among the image feature amounts is counted. Determining the corresponding search area candidate as a search area when the number satisfies a predetermined number condition;
Including
An image search method characterized by performing a process of searching for a search target in the determined search area.
所定のルールに従って前記対象画像データから探索領域候補を特定する手順と、
所定の部分探索領域抽出ルールに従って、前記探索領域候補から複数の部分探索領域候補を抽出する手順と、
前記各部分探索領域候補で画定される画像データ部分のそれぞれを用いて、それぞれの画像特徴量を演算し、各画像特徴量のうち所定の特徴量条件を満足する画像特徴量の個数をカウントし、当該個数が所定の個数条件を満足する場合に、対応する探索領域候補を探索領域として決定する手順と、
当該決定された探索領域について、探索対象を探索する処理を行う手順と、
を実行させることを特徴とする画像探索プログラム。An image search program for searching for an image data portion to be searched from within the target image data that has been processed, the computer comprising:
A procedure for specifying a search area candidate from the target image data according to a predetermined rule,
Extracting a plurality of partial search area candidates from the search area candidates according to a predetermined partial search area extraction rule;
Using each of the image data portions defined by the respective partial search area candidates, the respective image feature amounts are calculated, and the number of image feature amounts satisfying a predetermined feature amount condition among the image feature amounts is counted. Determining a corresponding search area candidate as a search area when the number satisfies a predetermined number condition;
Performing a process of searching for a search target for the determined search area;
And an image search program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003033846A JP4241074B2 (en) | 2003-02-12 | 2003-02-12 | Image search device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003033846A JP4241074B2 (en) | 2003-02-12 | 2003-02-12 | Image search device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004246478A true JP2004246478A (en) | 2004-09-02 |
JP4241074B2 JP4241074B2 (en) | 2009-03-18 |
Family
ID=33019708
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003033846A Expired - Fee Related JP4241074B2 (en) | 2003-02-12 | 2003-02-12 | Image search device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4241074B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9057835B2 (en) | 2011-06-06 | 2015-06-16 | Ppg Industries Ohio, Inc. | Coating compositions that transmit infrared radiation and exhibit color stability and related coating systems |
US9056988B2 (en) | 2007-02-05 | 2015-06-16 | Ppg Industries Ohio, Inc. | Solar reflective coatings and coating systems |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63223887A (en) * | 1987-03-12 | 1988-09-19 | Shinsaibi Denki Kk | Preliminary matching method by fingerprint matching |
JPH02226378A (en) * | 1989-02-28 | 1990-09-07 | Nippon Telegr & Teleph Corp <Ntt> | Edge picture processing system |
JPH0352084A (en) * | 1989-07-20 | 1991-03-06 | Hitachi Ltd | Device and method for processing image |
JPH0373084A (en) * | 1989-04-28 | 1991-03-28 | Hitachi Ltd | Character recognizing device |
JPH0511405A (en) * | 1991-06-28 | 1993-01-22 | Somar Corp | Photosensitive composition |
JPH05165968A (en) * | 1991-12-18 | 1993-07-02 | Komatsu Ltd | Device for recognizing position and attitude of body |
JPH0654180A (en) * | 1992-07-29 | 1994-02-25 | Mitsubishi Electric Corp | Method and device for image area separation |
JPH10112834A (en) * | 1996-10-04 | 1998-04-28 | Nippon Telegr & Teleph Corp <Ntt> | Video retrieving method and device therefor |
JP2000187732A (en) * | 1998-12-22 | 2000-07-04 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for deciding character area and recording medium storing the method |
-
2003
- 2003-02-12 JP JP2003033846A patent/JP4241074B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63223887A (en) * | 1987-03-12 | 1988-09-19 | Shinsaibi Denki Kk | Preliminary matching method by fingerprint matching |
JPH02226378A (en) * | 1989-02-28 | 1990-09-07 | Nippon Telegr & Teleph Corp <Ntt> | Edge picture processing system |
JPH0373084A (en) * | 1989-04-28 | 1991-03-28 | Hitachi Ltd | Character recognizing device |
JPH0352084A (en) * | 1989-07-20 | 1991-03-06 | Hitachi Ltd | Device and method for processing image |
JPH0511405A (en) * | 1991-06-28 | 1993-01-22 | Somar Corp | Photosensitive composition |
JPH05165968A (en) * | 1991-12-18 | 1993-07-02 | Komatsu Ltd | Device for recognizing position and attitude of body |
JPH0654180A (en) * | 1992-07-29 | 1994-02-25 | Mitsubishi Electric Corp | Method and device for image area separation |
JPH10112834A (en) * | 1996-10-04 | 1998-04-28 | Nippon Telegr & Teleph Corp <Ntt> | Video retrieving method and device therefor |
JP2000187732A (en) * | 1998-12-22 | 2000-07-04 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for deciding character area and recording medium storing the method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9056988B2 (en) | 2007-02-05 | 2015-06-16 | Ppg Industries Ohio, Inc. | Solar reflective coatings and coating systems |
US9057835B2 (en) | 2011-06-06 | 2015-06-16 | Ppg Industries Ohio, Inc. | Coating compositions that transmit infrared radiation and exhibit color stability and related coating systems |
Also Published As
Publication number | Publication date |
---|---|
JP4241074B2 (en) | 2009-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20080219516A1 (en) | Image matching apparatus, image matching method, computer program and computer-readable storage medium | |
JP7094702B2 (en) | Image processing device and its method, program | |
JP5726125B2 (en) | Method and system for detecting an object in a depth image | |
CN109903331B (en) | Convolutional neural network target detection method based on RGB-D camera | |
JP5188334B2 (en) | Image processing apparatus, image processing method, and program | |
US8325998B2 (en) | Multidirectional face detection method | |
JP5261501B2 (en) | Permanent visual scene and object recognition | |
JP2001307096A (en) | Image recognition device and method | |
JP2006146922A (en) | Template-based face detection method | |
JP2006252162A (en) | Pattern recognition device and method therefor | |
JP2011022994A (en) | Pattern processing device, method therefor, and program | |
JP2003108981A (en) | Method and computer program product for locating facial features | |
Gisbrecht et al. | Out-of-sample kernel extensions for nonparametric dimensionality reduction. | |
JP2008003749A (en) | Feature point detection device, method, and program | |
WO2019229979A1 (en) | Information processing device, control method, and program | |
JP2014010633A (en) | Image recognition device, image recognition method, and image recognition program | |
JP6486084B2 (en) | Image processing method, image processing apparatus, and program | |
JP4217954B2 (en) | Image search device | |
JP4241074B2 (en) | Image search device | |
JP5051671B2 (en) | Information processing apparatus, information processing method, and program | |
JP2004062505A (en) | Image processor | |
JP5083162B2 (en) | Image data determination apparatus, image data determination system, and program | |
JP4158544B2 (en) | Image search device | |
JP2013218530A (en) | Feature point detection device, feature point detection method, feature point detection program and recording medium | |
CN112163589B (en) | Image processing method, device, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060120 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071112 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080415 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080715 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080930 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081209 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081222 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120109 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120109 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130109 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130109 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140109 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |