JP2009301121A - 印象判定処理方法、プログラム、及び、画像印象判定装置 - Google Patents
印象判定処理方法、プログラム、及び、画像印象判定装置 Download PDFInfo
- Publication number
- JP2009301121A JP2009301121A JP2008151907A JP2008151907A JP2009301121A JP 2009301121 A JP2009301121 A JP 2009301121A JP 2008151907 A JP2008151907 A JP 2008151907A JP 2008151907 A JP2008151907 A JP 2008151907A JP 2009301121 A JP2009301121 A JP 2009301121A
- Authority
- JP
- Japan
- Prior art keywords
- impression
- learning
- image
- partial
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】画像の印象を与えている部分領域を特定して判定することができる、印象判定処理方法、プログラム、及び、画像印象判定装置を提供する。
【解決手段】複数の印象ラベルのうちのいずれか一つが設定された判定部11は、複数回実行される学習処理の各々において、学習画像記憶部21から読み出した学習画像を複数の部分領域に分割し、各部分領域における特徴量の各部分ベクトルから弱識別器を部分領域毎に構築し、これらの中から最も印象に寄与する部分領域の弱識別器を当該学習処理における弱識別器として選択して学習結果記憶部22に記憶する。また、全ての学習処理において選択された弱識別器を線形結合した強識別器を構成する。そして、評価画像から特徴量を算出して強識別器に入力し、当該評価画像の印象の度合いを算出する。
【選択図】図5
【解決手段】複数の印象ラベルのうちのいずれか一つが設定された判定部11は、複数回実行される学習処理の各々において、学習画像記憶部21から読み出した学習画像を複数の部分領域に分割し、各部分領域における特徴量の各部分ベクトルから弱識別器を部分領域毎に構築し、これらの中から最も印象に寄与する部分領域の弱識別器を当該学習処理における弱識別器として選択して学習結果記憶部22に記憶する。また、全ての学習処理において選択された弱識別器を線形結合した強識別器を構成する。そして、評価画像から特徴量を算出して強識別器に入力し、当該評価画像の印象の度合いを算出する。
【選択図】図5
Description
本発明は、印象判定処理方法、プログラム、及び、画像印象判定装置に関する。
画像の特徴量を算出し、この画像の印象を判定する方法としては、例えば、複数の画像間の特徴量の距離によって画像の属するグループの判定及び分類を行う方法が知られている(例えば、特許文献1参照)。この場合、画像全体から特徴量を算出して上記処理が行われる。
特許第3143532号公報
しかしながら、画像の印象は、画像全体よりも、画像の中の特定部分にあることが多い。例えば、白い壁の前に鮮やかな色の被写体がある画像の場合、その被写体の部分がこの画像の印象を与えていると考えられる。そのため、従来の方法では、画像のうち、特にその画像の印象を与えている部分を特定できず、正確な判定を行えないという課題があった。
本発明はこのような課題に鑑みてなされたものであり、画像を複数の部分領域に分割し、その画像の印象を与えている部分領域、及び、その部分領域における特徴量の部分ベクトルを特定して判定することができる、印象判定処理方法、プログラム、及び、画像印象判定装置を提供することを目的とする。
前記課題を解決するために、本発明に係る印象判定処理方法は、印象判定処理部を有し、複数の印象ラベル、各々に印象ラベルの少なくとも1つが付加された複数の学習画像、これらの学習画像の各々の特徴量、及び、学習結果を記憶する記憶装置にアクセス可能なコンピュータにより実行され、印象ラベル毎に、学習画像に基づいて当該印象ラベルに対する印象度合いの判定及び当該判定のための学習を行う印象判定処理方法であって、印象判定処理部により、記憶装置から印象ラベル、学習画像及び当該学習画像の特徴量を読み出す学習画像読出処理と、所定の回数実行される学習の各々において、印象判定処理部により、学習画像の各々を、同一の位置及び数の部分領域に分割し、これらの部分領域毎に、学習画像の特徴量のうち、当該部分領域に対応する部分ベクトルを用いて、印象ラベルに対する印象を有するか否かの判定を行い、結果を数値として出力する弱識別器を構築し、さらに、全ての学習画像における当該部分領域に対応する部分ベクトルを弱識別器に入力して判定し、学習画像に付けられた印象ラベルと弱識別器の判定結果とが一致するか否かを検査して誤り率を算出し、当該誤り率が最も少ない部分領域の部分ベクトルに対応する弱識別器を当該学習における弱識別器として選択して、記憶装置に学習結果として記憶する弱識別器設定処理と、学習の各々において、印象判定処理部により、弱識別器設定処理で選択された弱識別器の誤り率から、全ての学習において設定された弱識別器を線形結合するための係数及び学習に用いられる学習用重みを算出する係数算出処理と、を有する。
このような印象判定処理方法において、学習毎に実行される弱識別器設定処理は、部分領域毎に、判定しようとする印象ラベルが付加された学習画像である陽性サンプル、及び、この陽性サンプル以外の陰性サンプルの特徴量の部分ベクトルから、陽性サンプル及び陰性サンプル毎に部分ベクトルの重み付き平均値を算出する処理と、学習画像の特徴量のうち、部分領域に対応する部分ベクトルと、陽性サンプル及び陰性サンプルの重み付き平均値の各々との距離を算出する処理と、この距離に基づいて、弱識別器を構築する処理と、学習画像の特徴量のうち、部分領域に対応する部分ベクトルを弱識別器に入力し、学習画像の各々に付された印象ラベルと弱識別器の結果とが一致するか否かを検査する処理と、一致しなかった学習画像の学習用重みの総和から当該部分領域の部分ベクトルに対応する弱識別器の誤り率を算出する処理と、を有することが好ましい。
また、このような印象判定処理方法は、印象判定処理部により、評価画像の特徴量を算出する特徴量算出処理と、印象ラベル毎に、印象判定処理部により、記憶装置から学習結果を読み出して、この学習で選択された弱識別器の各々に評価画像の特徴量のうち、当該弱識別器が対応する部分領域の部分ベクトルを入力して判定結果を取得し、判定結果及び係数から、評価画像の印象ラベルに対する印象度合いを算出する印象判定処理と、をさらに有することが好ましい。
このとき、印象判定処理は、学習毎の弱識別器の判定結果と重みとの積を算出し、全ての学習の積の総和として印象度合いを算出するように構成されることが好ましい。
また、このような印象判定処理方法において、特徴量は、画像における領域の色に関するものであることが好ましい。あるいは、特徴量は、画像における領域のエッジに関するものであることが好ましい。
なお、本発明に係る印象判定処理方法をコンピュータに実行させるためのプログラムを作成することができ、このプログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等の記憶媒体または記憶装置に格納される。また、ネットワークなどを介してディジタル信号として配信される場合もある。このとき、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。
また、本発明に係る画像印象判定装置は、複数の印象ラベル、各々に前記印象ラベルの少なくとも1つが付加された複数の学習画像、前記学習画像の各々の特徴量、及び、学習結果を記憶する記憶装置と、評価画像を入力する入力装置と、評価画像の判定結果が出力される出力装置と、各々に印象ラベルが設定され、各々が上述の印象判定処理方法のいずれかを実行して評価画像の判定を行う複数の判定部、及び、この判定部による判定結果を出力装置に出力する判定結果出力部を有する処理装置と、を有して構成される。
本発明に係る印象判定処理方法、プログラム、及び、画像印象判定装置を以上のように構成すると、学習画像の中で、印象を与えている部分領域とその部分領域における特徴量の部分ベクトルとを学習によって特定して弱識別器を構築し、さらに、それらの情報を用いて強識別器を構築することができ、この強識別器により評価画像の判定を行うことができる。
以下、本発明の好ましい実施形態について図面を参照して説明する。まず、図1及び図2を用いて、画像印象判定装置100の構成について説明する。この画像印象判定装置100は、CPUやメインメモリ等を有する処理装置(コンピュータ)1と、ハードディスクやフラッシュメモリ等からなり、画像データ等が記憶される記憶装置2,5と、キーボードやマウス等からなり、ユーザからの指示を受け付ける入力装置3と、ディスプレイやプリンタ等からなり、判定結果等が出力される出力装置4とから構成される。処理装置1は、印象判定処理を行う印象判定処理部10を有し、さらに、この印象判定処理部10は、印象ラベル毎に設けられ、学習画像に基づく学習結果を用いて評価画像の評価を行う複数の判定部11と、評価画像の判定においてどの判定部11を使用するか(どの印象ラベルについて評価を行うか)を選択する選択部12と、この選択部12の制御を行う制御部13と、判定部11による判定結果を出力装置4に出力する判定結果出力部14と、を有して構成される。なお、この印象判定処理部10は、例えば、処理装置(コンピュータ)1で実行されるプログラムとして構成される。
この画像印象判定装置100において、判定部11の各々は、記憶装置2の学習画像記憶部21に予め登録された学習画像及び印象ラベルに基づいて学習を行う学習処理部11aと、記憶装置2の学習結果記憶部22に記憶された学習結果に基づいて、記憶装置5の評価画像記憶部51に記憶された評価画像の評価を行う評価処理部11bとを有して構成されている。それでは、この判定部11における処理について、図3〜図8を用いて説明する。
[学習画像による学習]
学習処理部11aは、AdaBoostの手法により、複数の学習サンプル(学習画像)を用いて、図4に示す処理手順により評価画像の印象を判定するための1つの強識別器H(X)を構築するものである。この学習処理部11aは、学習を開始すると、学習画像記憶部21に記憶されている複数の学習画像を読み込む(ステップS300)。ここで、学習画像記憶部21には、図3に示すように、学習画像を記憶する学習画像記憶テーブル211と、印象ラベルと学習画像との対応付けを行う印象ラベル記憶テーブル212とを有して構成されている。
学習処理部11aは、AdaBoostの手法により、複数の学習サンプル(学習画像)を用いて、図4に示す処理手順により評価画像の印象を判定するための1つの強識別器H(X)を構築するものである。この学習処理部11aは、学習を開始すると、学習画像記憶部21に記憶されている複数の学習画像を読み込む(ステップS300)。ここで、学習画像記憶部21には、図3に示すように、学習画像を記憶する学習画像記憶テーブル211と、印象ラベルと学習画像との対応付けを行う印象ラベル記憶テーブル212とを有して構成されている。
学習画像記憶テーブル211は、学習画像を識別するための画像IDが記憶される画像IDフィールド211aと、学習画像が格納されるファイルフィールド211bと、この学習画像の特徴量X(j)が記憶される特徴量フィールド211cとから構成されている。図3(a)においては、7枚の画像が登録されている場合を示しており、jは、学習画像の番号を示す。なお、ファイルフィールド211bに学習画像を直接記憶させるのではなく、別の領域に学習画像本体を記憶し、この学習画像のファイル名(又はパス名)をこの領域に記憶するように構成することも可能である。
また、印象ラベル記憶テーブル212は、印象ラベルを識別するための印象IDが記憶される印象IDフィールド212aと、印象ラベルが記憶される印象ラベルフィールド212bと、当該印象ラベルに対応付けられている学習画像の画像IDが記憶される画像IDフィールド212cと、から構成されている。この画像IDフィールド212cには、複数の画像IDを設定することが可能であり、例えば、印象ID=”1”の”美しい”という印象ラベルには、画像IDが”0001”と”0002”の2枚の学習画像が設定されている。
なお、画像の特徴量Xは、MPEG7で規格化されている、スケーラブルカラー(Scalable Color)やエッジヒストグラム(Edge Histogram)を用いたn次元のベクトルとして定義されており、本実施の形態においては、学習画像毎に予め決められた方法により計算されて特徴量フィールド211cに設定されている。
そして、学習処理部11aは、学習のステップ数tに初期値として”1”を設定し(ステップS310)、ステップ数tが、予め決められた回数(Tmax)を超えたか否かを判断し、Tmaxを超えるまで、ステップS330〜ステップS350を繰り返す(ステップS320)。この繰り返し処理において、ステップS330では、ステップS300で読み込んだ学習画像を用いて、繰り返し処理毎の(t回目の)学習における弱識別器h(x,t)が構築される。弱識別器h(x,t)の詳細な構築方法については後述するが、本実施の形態における学習処理部11aにおいては、学習画像を予め決められた部分領域に分割し、この部分領域における特徴量の部分ベクトル毎に学習を行い、当該部分領域の部分ベクトル毎の弱識別器hi,k(x,t)を構築し(iは部分領域の番号であり、kは当該部分領域に対応する特徴量の部分ベクトルの番号)、これらの部分領域における特徴量の部分ベクトルに対応する弱識別器の中から最も印象が強い部分領域の特徴量の部分ベクトルを選択し、この部分ベクトルに対応する弱識別器をこの学習処理(t回目の学習処理)における弱識別器h(x,t)として選択するように構成されている。そのため、xは、t回目の学習において入力される画像の特徴量(ベクトル量)Xのうち、各弱識別器h(x,t)が対応する部分領域における部分ベクトルを表している。
また、ステップS340では、ステップS330で構築された弱識別器h(x,t)から、線形結合のためのt回目の学習ステップにおける係数αtを算出し、さらに、次の学習ステップ(t+1回目)で用いる各学習画像の重みDt+1(j)を更新する。そして、ステップS350でステップ数tに1を加算する。
以上のようにして、Tmax回の学習をすることにより、Tmax個の部分領域(i)と、この部分領域における部分ベクトル(k)と、弱識別器h(x,t)との組が決定され、ステップS360においてこれらの弱識別器h(x,t)を線形結合することにより1つの強識別器H(X)が構築される。このステップS360において弱識別器h(x,t)を線形結合するための係数αtは、上述のようにステップS340で算出されるが、後述するように、ステップS330で選択された部分領域における部分ベクトルに対応する弱識別器h(x,t)とその誤り率εtとを用いて、次式(1)として決定される。ここで、1枚の学習画像をm個の部分領域に分割したとすると、部分領域の組み合わせの集合はG={g1,g2,...,gm}と表され、j枚目の学習画像の部分領域iに対応するk番目の部分ベクトルをxi,j,kとすると、特徴量のベクトルXは部分ベクトルの集合(X(j)={x1,j,1,x1,j,2,...,x1,j,k1,x2,j,1,x2,j,2,...,x2,j,k2,...,xm,j,1,xm,j,2,...,xm,j,km})として表される。なお、k1,k2,...,kmは、それぞれの部分領域iにおける特徴量の部分ベクトルの数である。
この式(1)は、弱識別器h(x,t)の信頼性を表しており、誤り率εtが低いほど係数αtが大きくなり、対応する弱識別器h(x,t)のステップS360での判断の影響が大きくなる。但し、誤り率εtが0.5を超えるときは、弱識別器h(x,t)の判定を逆にすれば誤り率εtを小さくすることができるので、この場合は1から誤り率εtを引いた値を新たな誤り率εtとする。従って、誤り率εtの最悪値は0.5となる。
また、t+1回目の学習における学習画像の重みDt+1(j)は、全ての学習画像に対する重みを加算したときに1になる必要があるため、次式(2)に示す条件値Ztを満たすように、t回目の学習における重みDt(j)から次式(3)により求められる。なお、この式(2)及び(3)において、Jmaxは学習画像の枚数を示し、xi,j,kは、弱識別器が選択された部分領域iに対応するj番目の画像のk番目の部分ベクトルを示し、yjは、j番目の画像の印象ラベルの有無を表し、この学習を行っている判定部11に割り当てられた印象ラベルを有する場合は1、有しない場合は−1となる。
以上より、ステップS360で構築される1つの強識別器H(X)は、次式(4)で表される。なお、この式(4)において、Xは強識別器Hで評価される画像の特徴量(ベクトル量)であり、xは、特徴量Xのうち、t回目の学習において弱識別器h(x,t)が選択された部分領域に対応する部分ベクトルである。
図6では、学習全体を通じて、一番選択された頻度の多かった部分領域が画像の印象に影響を与えている領域として特定される様子が示されており、Tmax回行った学習の結果は、学習全体を通じて出現頻度の高かった領域(丸印が付けられた領域)となる。
それでは、図5を用いて、弱識別器h(x,t)を構築するための処理(ステップS330)の具体的構成について説明する。まず、学習画像を予め決められた複数の部分領域に分割する(ステップS3301)。例えば、図6に示すように、横6×縦4の24の部分領域に分割する(この場合は、m=24となる)。なお、ここでは、説明を簡単にするために、縦、横を均等に分割した場合について示しているが、部分領域の大きさは任意に設定することができる。また、これらの分割された部分領域を組み合わせたものを新たな部分領域としても良い。次に上記部分領域の各々における部分ベクトルの数をk={k1,k2,...,km}とする(ステップS3302)。そして、部分領域のカウンタi及び部分ベクトルのカウンタkに初期値として”1”を設定し(ステップS3303)、部分領域g1から順に、部分領域gmまで以下の処理を繰り返す(ステップS3304)。
まず、上述のステップS300で学習画像記憶部21から読み込んだすべての学習画像の、部分領域giにおける特徴量の部分ベクトルを抽出する(ステップS3305)。上述のように7枚の学習画像がある場合は、i番目の部分領域の処理において抽出された部分ベクトルの集合は、{xi,j,1,xi,j,2,...,xi,j,ki}(j=1,2,...,7)となる。そして、kがkiより大きいか、すなわち、i番目の部分領域に対応する全ての特徴量の部分ベクトルについて判定が終わったか否かを判断し(ステップS3306)、全ての判定が終わっている場合には、iに1を加算し(ステップS3307)、また、kに1を設定し(ステップS3308)、ステップS3304に戻る。一方、ステップS3306で全ての部分ベクトルについて判定が終わっていないと判断したときは、t回目の学習において、学習画像の陽性サンプルの部分領域iの特徴量のk番目の部分ベクトルの重み付き平均値を次式(5)により算出し、学習画像の陰性サンプルの部分領域iの特徴量のk番目の部分ベクトルの重み付き平均値を次式(6)により算出する(ステップS3309)。ここで、陽性サンプルとは、判定部11に設定された印象ラベルに割り当てられている学習画像のことを言い、上述のyj=1のサンプルであり、反対に陰性サンプルとは、当該印象ラベルに割り当てられていない学習画像のことを言い、上述のyj=−1のサンプルである。例えば、図3(b)において、”美しい”という印象ラベルが設定された判定部11の学習処理部11aでは、画像IDが”0001”と”0002”の学習画像が陽性サンプルとなり、それ以外の学習画像が陰性サンプルとなる。なお、式(5),(6)において、〜付きのxは、部分ベクトルの重み付きの平均値であり、添え字の上側の文字は、”Yes”が陽性サンプルに対するものであることを示し、”No”が陰性サンプルに対するものであることを示す。また、m<nである。
これらの式(5),(6)において、n1は陽性サンプルの枚数を示し、n2は陰性サンプルの枚数を示している。ここで、n=n1+n2である。また、λjはj番目の学習画像に付加されている印象ラベル数の逆数である。例えば、図3(b)において、画像IDが”0001”の学習画像には印象ラベルとして”美しい”と”落ち着いた”が付加されており、λ1=0.5となる。同様に、画像IDが”0002”の学習画像には”美しい”という印象ラベルだけが付加されているため、λ2=1.0となる。つまり、このλjは、j番目の学習画像の印象に対する影響力を表しており、多くの印象ラベルが付加されている学習画像ほど、その学習画像の印象に与える影響力は小さくなる。また、Dt(j)は、t回目の学習における、j番目のサンプルの重みである。ここで言う重みとは、各学習画像が平均的な特徴量の部分ベクトルである式(5)及び(6)に影響を与える割合のことであり、常に以下の式(7)の関係を満足するものとする。
なお、この陽性及び陰性サンプルの重みDt(j)は、学習ステップの回数とともに変化するが、初期値(t=1)のときの値は、それぞれ、次式(8),(9)により定義され、各学習サンプルの重みを同じとする。
次に、上述のステップS3309で算出された特徴量の部分ベクトルの平均値と、各学習画像の特徴量の部分ベクトルとのユークリッド距離を次式(10),(11)により算出する(ステップS3310)。式(10)において、f1(x)は、第i番目の領域のk番目の部分ベクトルと陽性サンプルの特徴量のk番目の部分ベクトルの平均値とのユークリッド距離を示し、式(11)において、f2(x)は、第i番目の領域のk番目の部分ベクトルと陰性サンプルの特徴量のk番目の部分ベクトルの平均値とのユークリッド距離を示している。ただし、距離計算は1ノルムなど別のノルムでも代用できる。また、特徴量の部分ベクトルの平均値の添え字のうち、最初のtは、t回目の学習ステップであることを示す。
そして、ステップS3310で算出された距離f1(x),f2(x)を用いて、第i番目の部分領域のk番目の部分ベクトルにおいて印象が陽性か陰性かを判定する弱識別器hi,k(x,t)を次式(12)により構築する(ステップS3311)。ここで、”1”が陽性で、”−1”が陰性を表す。すなわち、この式(12)で表される弱識別器hi,k(x,t)は、評価画像の特徴量の部分ベクトルと学習画像より得られた部分ベクトルの重み付き平均値との距離が、陽性サンプルと近いときに陽性(1)と判断され、陽性及び陰性サンプルとの距離が等しいか若しくは陰性サンプルと近いときに陰性(−1)と判断するものである。
最後に、上述のステップS3311で構築された弱識別器hi,k(x,t)を用いて、すべての学習画像の第i番目の部分領域に対するk番目の部分ベクトルの判定を行い、その判定結果と、印象ラベル記憶テーブル212に設定された状態(陽性サンプルか、陰性サンプルか)が一致するかを検査する(ステップS3312)。この検査の結果、すべての学習画像について、弱識別器による判定結果と設定状態とが一致するときはkに1を加えた後(ステップS3315)、ステップS3306に戻り当該部分領域の次の部分ベクトルについて上記処理を繰り返す(ステップS3313)。一方、このステップS3313で何れかの学習画像において判定結果と設定状態とが一致しないときは、次式(13)により、該当する弱識別器hi,k(x,t)(言い換えると、該当する部分領域iのk番目の部分ベクトル)に対応する誤り率εi,kを算出し(ステップS3314)、kに1を加えた後(ステップS3315)ステップS3306に戻る。
このようなステップS3309からS3312までの一連の処理を部分領域の組み合わせの集合Gの要素数だけ繰り返す。最終的に、i個の部分領域において、最も誤り率εi,kが低かった弱識別器hi,k(x,t)を、t回目の学習における弱識別器h(x,t)として選択し、学習ステップtと、この弱識別器h(x,t)に関する部分領域の番号i、部分ベクトルの番号k、係数αt及び選択された部分領域における特徴量のk番目の部分ベクトルの重み付き平均値とを学習結果記憶部22の学習結果テーブル221に記憶する(ステップS3316)。なお、この学習結果テーブル221は、図7に示すように、学習回数フィールド221aと、係数フィールド221bと、平均値フィールド221cと、部分領域フィールド221dと、部分ベクトルフィールド221eと、から構成されている。なお、弱識別器hi,k(x,t)が選択された部分領域iの部分ベクトルkにおける誤り率εi,kが、t回目の学習における誤り率εtとして選択される。
[評価画像の評価]
評価処理部11bは、上述の学習結果に基づいて、式(4)により評価画像の評価を行うものである。具体的には、図8に示すように、まず、入力端末3より、評価を行う評価画像が指示されると当該評価画像を取得する(ステップS400)。例えば、図1の構成の場合には、外部の記憶装置5の評価画像記憶部51から取得する。そして、この評価画像の特徴量のベクトルXを算出する(ステップS410)。次に、繰り返し回数tに初期値として”1”を設定し、この繰り返し回数tがTmaxより大きくなるまで次の処理(ステップS440〜ステップS460)を繰り返す(ステップS430)。ステップS440では、学習結果記憶部22の学習結果テーブル221からt回目の学習における部分領域iにおけるk番目の部分ベクトルの重み付き平均値を取得する。そして、ステップS450では、ステップS410で算出した評価画像の特徴量のベクトルXのうち、部分領域iにおけるk番目の部分ベクトル(x)と、ステップS440で取得した部分領域iのk番目の部分ベクトルの重み付き平均値とから、式(10)〜(12)により弱識別器h(x,t)の値を求める(ステップS450)。そして、ステップS460ではtに1を加算する。以上のようにして、Tmax個の弱識別器h(x,t)の結果が出ると、最後に、学習結果テーブル221からTmax個の重みαtの値を読み出し(ステップS470)、式(4)により、強識別器H(X)の値を算出する(ステップS480)。
評価処理部11bは、上述の学習結果に基づいて、式(4)により評価画像の評価を行うものである。具体的には、図8に示すように、まず、入力端末3より、評価を行う評価画像が指示されると当該評価画像を取得する(ステップS400)。例えば、図1の構成の場合には、外部の記憶装置5の評価画像記憶部51から取得する。そして、この評価画像の特徴量のベクトルXを算出する(ステップS410)。次に、繰り返し回数tに初期値として”1”を設定し、この繰り返し回数tがTmaxより大きくなるまで次の処理(ステップS440〜ステップS460)を繰り返す(ステップS430)。ステップS440では、学習結果記憶部22の学習結果テーブル221からt回目の学習における部分領域iにおけるk番目の部分ベクトルの重み付き平均値を取得する。そして、ステップS450では、ステップS410で算出した評価画像の特徴量のベクトルXのうち、部分領域iにおけるk番目の部分ベクトル(x)と、ステップS440で取得した部分領域iのk番目の部分ベクトルの重み付き平均値とから、式(10)〜(12)により弱識別器h(x,t)の値を求める(ステップS450)。そして、ステップS460ではtに1を加算する。以上のようにして、Tmax個の弱識別器h(x,t)の結果が出ると、最後に、学習結果テーブル221からTmax個の重みαtの値を読み出し(ステップS470)、式(4)により、強識別器H(X)の値を算出する(ステップS480)。
以上のような構成によると、評価処理部11bは、評価画像が、この評価処理部11bが設けられた判定部11に設定されている印象ラベルに相当する印象を有するか否かを数値として算出することができる。上述のように弱識別器h(x,t)は”1”か”−1”の値が出力されるため、強識別器H(X)の値が正の値であれば当該印象を有し、0より小さい値であれば当該印象を有しないと判断することができる。あるいは、所定の閾値を設定し、この閾値以上の値であれば当該印象を有し、閾値より小さければ当該印象を有しないと判断することもできる。すなわち、この判定部11においては、強識別器H(X)の値は、印象を有する/有しない(”1”か”−1”か)ではなく、Tmax個の弱識別器と重みαtとの積の総和(線形結合)であるため、印象の度合いを数値として表現することが可能である。そのため、複数の印象ラベルが設定された判定部11の各々の演算結果(H(X))を比較して、どの印象が最も強いのかというような比較や、順位付けも行うことが可能である。
なお、このような画像印象判定装置100において、判定結果出力部14は、複数の印象ラベルのそれぞれに対応付けられた判定部11からの判定結果(強識別器H(X)の値)から、最も大きな値を、その評価画像の印象(印象ラベル)として表示しても良いし、複数の印象ラベルの値の各々をグラフとして表示しても良い。また、制御部13により選択部12を操作して、評価画像を判定する判定部11,すなわち、判定を行う印象ラベルを選択するように構成することも可能である。
それでは、以上のような印象判定処理部10を用いた実施例として、登録された画像を印象ラベルにより検索することができる画像データベースについて図9を用いて説明する。この画像データベース60は、上述の印象判定処理部10と、画像データを記憶する画像データベース61と、登録する画像データを入力する登録端末62と、この登録端末62から入力された画像データを画像データベース61に登録する画像データ蓄積部63と、キーワード(印象ラベル)に基づいて画像データベース61から画像データを検索する画像データ検索部64と、から構成される。画像データ蓄積部63は、登録端末62から登録する画像データを受信すると、印象判定処理部10に判定画像として渡して判定を行い、その結果として当該画像が持つ印象を印象ラベルとして受け取る。なお、印象判定処理部10には、予め印象ラベル及び学習画像が登録され、上述の方法によりこれらの学習画像を用いて学習が行われて学習結果が記憶されているものとする。また、この印象判定処理部10から返される印象ラベルは、強判定器の結果が最も大きい印象ラベルのみであっても良いし、強判定器の結果が所定の閾値以上のものであっても良い。また、印象ラベルのみ画像データ蓄積部63に返しても良いし、強判定器の値も合わせて返しても良い。そして、画像データ蓄積部63は、画像データと印象ラベルとを対応付けて画像データベース61に記憶する。
一方、画像データ検索部64は、外部の検索端末70から、検索のためのキーワードとしての印象ラベルを受信すると、その印象ラベルをキーにして画像データベース61を検索し、当該印象ラベルを有する画像データを取得して検察端末70に検索結果として返すように構成されている。なおこのときも、上述の印象判定処理部10による判定結果(強識別器の値)も合わせて画像データベース61に登録されている場合には、その値も一緒に検索端末70に返しても良いし、キーワードに対して複数の画像データが抽出された場合には、判定結果(強識別器の値)でソートして(例えば、判定結果の大きい順、すなわち、その印象ラベルの持つ印象を強く持っている順)に並べて検索端末70に返すように構成しても良い。
以上のような画像印象判定装置100(印象判定処理部10)によれば、学習画像の印象を与えている部分領域と特徴量の部分ベクトルを学習によって特定し、それらの情報を用いて識別器を構築することができる。また、この識別器を用いることにより、例えば、印象ラベルを指定するだけで、所望の画像を検索することができる。
1 処理装置(コンピュータ) 2 記憶装置 3 入力装置
4 出力装置 10 印象判定処理部 11 判定部
14 判定結果処理部 100 画像印象判定装置
4 出力装置 10 印象判定処理部 11 判定部
14 判定結果処理部 100 画像印象判定装置
Claims (8)
- 印象判定処理部を有し、複数の印象ラベル、各々に前記印象ラベルの少なくとも1つが付加された複数の学習画像、前記学習画像の各々の特徴量、及び、学習結果を記憶する記憶装置にアクセス可能なコンピュータにより実行され、前記印象ラベル毎に、前記学習画像に基づいて当該印象ラベルに対する印象度合いの判定及び当該判定のための学習を行う印象判定処理方法であって、
前記印象判定処理部により、前記記憶装置から前記印象ラベル、前記学習画像及び当該学習画像の特徴量を読み出す学習画像読出処理と、
所定の回数実行される前記学習の各々において、前記印象判定処理部により、前記学習画像の各々を、同一の位置及び数の部分領域に分割し、前記部分領域毎に、前記学習画像の前記特徴量のうち、当該部分領域に対応する部分ベクトルを用いて、前記印象ラベルに対する印象を有するか否かの判定を行い、結果を数値として出力する弱識別器を構築し、さらに、全ての前記学習画像における当該部分領域に対応する前記部分ベクトルを前記弱識別器に入力して判定し、前記学習画像に付けられた前記印象ラベルと前記弱識別器の判定結果とが一致するか否かを検査して誤り率を算出し、当該誤り率が最も少ない部分領域の部分ベクトルに対応する前記弱識別器を当該学習における弱識別器として選択して、前記記憶装置に前記学習結果として記憶する弱識別器設定処理と、
前記学習の各々において、前記印象判定処理部により、前記弱識別器設定処理で選択された前記弱識別器の前記誤り率から、全ての学習において設定された前記弱識別器を線形結合するための係数及び前記学習に用いられる学習用重みを算出する係数算出処理と、
を有する印象判定処理方法。 - 前記学習毎に実行される前記弱識別器設定処理は、
前記部分領域毎に、
判定しようとする印象ラベルが付加された前記学習画像である陽性サンプル、及び、前記陽性サンプル以外の陰性サンプルの特徴量の部分ベクトルから、前記陽性サンプル及び前記陰性サンプル毎に前記部分ベクトルの重み付き平均値を算出する処理と、
前記学習画像の前記特徴量のうち、前記部分領域に対応する前記部分ベクトルと、前記陽性サンプル及び前記陰性サンプルの重み付き平均値の各々との距離を算出する処理と、
前記距離に基づいて、前記弱識別器を構築する処理と、
前記学習画像の前記特徴量のうち、前記部分領域に対応する前記部分ベクトルを前記弱識別器に入力し、前記学習画像の各々に付された前記印象ラベルと前記弱識別器の結果とが一致するか否かを検査する処理と、
一致しなかった前記学習画像の前記学習用重みの総和から当該部分領域の前記部分ベクトルに対応する前記弱識別器の誤り率を算出する処理と、
を有する請求項1に記載の印象判定処理方法。 - 前記印象判定処理部により、評価画像の特徴量を算出する特徴量算出処理と、
前記印象ラベル毎に、前記印象判定処理部により、前記記憶装置から前記学習結果を読み出して、前記学習で選択された前記弱識別器の各々に前記評価画像の前記特徴量のうち、当該弱識別器が対応する部分領域の部分ベクトルを入力して判定結果を取得し、前記判定結果及び前記係数から、前記評価画像の前記印象ラベルに対する前記印象度合いを算出する印象判定処理と、
をさらに有する請求項1または2に記載の印象判定処理方法。 - 前記印象判定処理は、
前記学習毎の前記弱識別器の判定結果と前記重みとの積を算出し、全ての学習の前記積の総和として前記印象度合いを算出するように構成された請求項3に記載の印象判定処理方法。 - 前記特徴量は、前記画像における領域の色に関するものである請求項1〜4いずれか一項に記載の印象判定処理方法。
- 前記特徴量は、前記画像における領域のエッジに関するものである請求項1〜4いずれか一項に記載の印象判定処理方法。
- 請求項1〜6いずれか一項に記載の印象判定処理方法をコンピュータに実行させるためのプログラム。
- 複数の印象ラベル、各々に前記印象ラベルの少なくとも1つが付加された複数の学習画像、前記学習画像の各々の特徴量、及び、学習結果を記憶する記憶装置と、
評価画像を入力する入力装置と、
前記評価画像の判定結果が出力される出力装置と、
各々に印象ラベルが設定され、各々が請求項1〜7いずれか一項に記載の印象判定処理方法を実行して前記評価画像の判定を行う複数の判定部、及び、前記判定部による判定結果を前記出力装置に出力する判定結果出力部を有する処理装置と、を有する画像印象判定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008151907A JP2009301121A (ja) | 2008-06-10 | 2008-06-10 | 印象判定処理方法、プログラム、及び、画像印象判定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008151907A JP2009301121A (ja) | 2008-06-10 | 2008-06-10 | 印象判定処理方法、プログラム、及び、画像印象判定装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009301121A true JP2009301121A (ja) | 2009-12-24 |
Family
ID=41547982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008151907A Pending JP2009301121A (ja) | 2008-06-10 | 2008-06-10 | 印象判定処理方法、プログラム、及び、画像印象判定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009301121A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017151588A (ja) * | 2016-02-23 | 2017-08-31 | 日本電信電話株式会社 | 画像評価学習装置、画像評価装置、画像検索装置、画像評価学習方法、画像評価方法、画像検索方法、およびプログラム |
CN112534472A (zh) * | 2018-12-27 | 2021-03-19 | 欧姆龙株式会社 | 图像判定装置、图像判定方法及图像判定程序 |
-
2008
- 2008-06-10 JP JP2008151907A patent/JP2009301121A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017151588A (ja) * | 2016-02-23 | 2017-08-31 | 日本電信電話株式会社 | 画像評価学習装置、画像評価装置、画像検索装置、画像評価学習方法、画像評価方法、画像検索方法、およびプログラム |
CN112534472A (zh) * | 2018-12-27 | 2021-03-19 | 欧姆龙株式会社 | 图像判定装置、图像判定方法及图像判定程序 |
US11922680B2 (en) | 2018-12-27 | 2024-03-05 | Omron Corporation | Image determination device, image determination method, and non-transitory computer readable medium storing program |
CN112534472B (zh) * | 2018-12-27 | 2024-04-30 | 欧姆龙株式会社 | 图像判定装置、图像判定方法及其程序的记录介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10013636B2 (en) | Image object category recognition method and device | |
US20210158164A1 (en) | Finding k extreme values in constant processing time | |
JP6751684B2 (ja) | 類似画像検索装置 | |
EP3824400A1 (en) | Visual intent triggering for visual search | |
JP6897749B2 (ja) | 学習方法、学習システム、および学習プログラム | |
US20210209514A1 (en) | Machine learning method for incremental learning and computing device for performing the machine learning method | |
CN111737479B (zh) | 数据获取方法、装置、电子设备及存储介质 | |
JP7232122B2 (ja) | 物性予測装置及び物性予測方法 | |
CN110909758A (zh) | 计算机可读记录介质、学习方法和学习装置 | |
CN112287656B (zh) | 文本比对方法、装置、设备和存储介质 | |
CN111737473A (zh) | 文本分类方法、装置及设备 | |
CN111385659B (zh) | 一种视频推荐方法、装置、设备及存储介质 | |
CN112183571A (zh) | 预测方法、预测装置以及计算机可读记录介质 | |
US20200302541A1 (en) | Resource processing method, storage medium, and computer device | |
JP2009301121A (ja) | 印象判定処理方法、プログラム、及び、画像印象判定装置 | |
CN111709475A (zh) | 一种基于N-grams的多标签分类方法及装置 | |
CN110879821A (zh) | 评分卡模型衍生标签生成方法、装置、设备及存储介质 | |
CN115730152A (zh) | 基于用户画像分析的大数据处理方法及大数据处理系统 | |
CN113408546B (zh) | 基于相互全局上下文注意力机制的单样本目标检测方法 | |
CN109446408A (zh) | 检索相似数据的方法、装置、设备及计算机可读存储介质 | |
JP2010140184A (ja) | 印象判定処理方法、プログラム、及び、印象判定装置 | |
CN112766288A (zh) | 图像处理模型构建方法、装置、电子设备和可读存储介质 | |
CN113407680B (zh) | 异质集成模型筛选方法和电子设备 | |
Bej | Improved imbalanced classification through convex space learning | |
CN110674372B (zh) | 分类方法及装置 |