JP2013061732A - Image identification information provision program and image identification information provision device - Google Patents
Image identification information provision program and image identification information provision device Download PDFInfo
- Publication number
- JP2013061732A JP2013061732A JP2011198654A JP2011198654A JP2013061732A JP 2013061732 A JP2013061732 A JP 2013061732A JP 2011198654 A JP2011198654 A JP 2011198654A JP 2011198654 A JP2011198654 A JP 2011198654A JP 2013061732 A JP2013061732 A JP 2013061732A
- Authority
- JP
- Japan
- Prior art keywords
- information
- identification information
- image
- learning
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、画像識別情報付与プログラム及び画像識別情報付与装置に関する。 The present invention relates to an image identification information providing program and an image identification information providing apparatus.
従来の画像識別情報付与装置として、画像情報等から得られる特徴情報に基づいて付される識別情報(以下、「ラベル」という。)が予め用意されたとき、特徴情報とラベルとの関係について予め学習を行っておき、学習の結果に基づき入力される画像情報がどのラベルに所属するか識別するものがある(例えば、特許文献1参照)。 As a conventional image identification information providing device, when identification information (hereinafter referred to as “label”) attached based on feature information obtained from image information or the like is prepared in advance, the relationship between the feature information and the label is previously determined. There is one that learns and identifies which label the input image information belongs to based on the result of the learning (see, for example, Patent Document 1).
特許文献1に記載のパターン認識装置は、画像情報から多次元の特徴情報を生成し、当該特徴情報に予めラベルを用意したものを学習データとしてラベルと特徴情報とを対応付けることで学習するとともに、入力される画像情報の特徴情報を算出して学習した特徴情報を参照することで入力された画像情報の特徴情報が各ラベルに所属する度合いを表す値を算出して、当該所属する度合いを表す値が最大となったラベルに入力された画像情報が所属すると認識する画像識別情報付与装置が開示されている。
The pattern recognition device described in
本発明の目的は、確率モデルにより学習した学習結果を利用して、入力される画像情報に識別情報を付与する画像識別情報付与プログラム及び画像識別情報付与装置を提供することにある。 An object of the present invention is to provide an image identification information adding program and an image identification information adding device for adding identification information to input image information using a learning result learned by a probability model.
本発明の一態様は、上記目的を達成するため、以下の画像識別情報付与プログラム及び画像識別情報付与装置を提供する。 In order to achieve the above object, one aspect of the present invention provides the following image identification information providing program and image identification information providing apparatus.
[1]コンピュータを、
予め識別情報が関連付けられた画像情報から識別情報毎に画像情報を取得する取得手段と、
前記取得手段が取得した画像情報から特徴情報を生成する生成手段と、
前記生成手段が生成した特徴情報と当該特徴情報に対応する画像情報の識別情報との関係を確率分布の混合による確率モデルにより学習して学習結果を生成するものであって、当該確率モデルの混合要素生成過程の変数を前記取得手段によって識別情報の内容に関わらず取得された全ての画像情報から得られる特徴情報の集合を用いて定めるとともに、前記確率分布の変数に対して事前分布を定める学習手段と、
前記学習手段が生成した前記学習結果に基づいて、識別情報毎に前記確率モデルを用いて識別情報の付与対象である画像情報から前記生成手段によって生成される特徴情報の事後分布を計算する計算手段と、
前記事後分布に基づき前記識別情報の付与対象である画像情報に関連付けられる識別情報を推定する推定手段として機能させる画像識別情報付与プログラム。
[1]
Acquisition means for acquiring image information for each identification information from image information associated with the identification information in advance;
Generating means for generating feature information from the image information acquired by the acquiring means;
A learning result is generated by learning the relationship between the feature information generated by the generating means and the identification information of the image information corresponding to the feature information using a probability model based on a mixture of probability distributions, and the mixture of the probability models Learning to determine a variable of an element generation process using a set of feature information obtained from all image information acquired by the acquisition means regardless of the content of identification information, and to determine a prior distribution for the variable of the probability distribution Means,
Based on the learning result generated by the learning unit, a calculation unit that calculates a posterior distribution of feature information generated by the generation unit from image information to which identification information is added using the probability model for each piece of identification information When,
An image identification information addition program that functions as an estimation unit that estimates identification information associated with image information to which the identification information is to be added based on the posterior distribution.
[2]前記学習手段は、前記事前分布の変数の初期値を識別情報の内容に関わらず全ての画像情報から得られる特徴情報の集合を用いて定める前記[1]に記載の画像識別情報付与プログラム。 [2] The image identification information according to [1], wherein the learning unit determines an initial value of the prior distribution variable using a set of feature information obtained from all image information regardless of the content of the identification information. Grant program.
[3]予め識別情報が関連付けられた画像情報から識別情報毎に画像情報を取得する取得手段と、
前記取得手段が取得した画像情報から特徴情報を生成する生成手段と、
前記生成手段が生成した特徴情報と当該特徴情報に対応する画像情報の識別情報との関係を確率分布の混合による確率モデルにより学習して学習結果を生成するものであって、当該確率モデルの混合要素生成過程の変数を前記取得手段によって識別情報の内容に関わらず取得された全ての画像情報から得られる特徴情報の集合を用いて定めるとともに、前記確率分布の変数に対して事前分布を定める学習手段と、
前記学習手段が生成した前記学習結果に基づいて、識別情報毎に前記確率モデルを用いて識別情報の付与対象である画像情報から前記生成手段によって生成される特徴情報の事後分布を計算する計算手段と、
前記事後分布に基づき前記識別情報の付与対象である画像情報に関連付けられる識別情報を推定する推定手段とを有する画像識別情報付与装置。
[3] Acquisition means for acquiring image information for each identification information from image information associated with the identification information in advance;
Generating means for generating feature information from the image information acquired by the acquiring means;
A learning result is generated by learning the relationship between the feature information generated by the generating means and the identification information of the image information corresponding to the feature information using a probability model based on a mixture of probability distributions, and the mixture of the probability models Learning to determine a variable of an element generation process using a set of feature information obtained from all image information acquired by the acquisition means regardless of the content of identification information, and to determine a prior distribution for the variable of the probability distribution Means,
Based on the learning result generated by the learning unit, a calculation unit that calculates a posterior distribution of feature information generated by the generation unit from image information to which identification information is added using the probability model for each piece of identification information When,
An image identification information providing apparatus comprising: estimation means for estimating identification information associated with image information to which the identification information is to be applied based on the posterior distribution.
請求項1又は3に係る発明によれば、本発明の構成を有していない場合と比較して、識別情報が既知の学習データに対する過学習を抑制し、入力される画像情報に対する識別性能を向上させ、入力される画像情報に識別情報を付与することができる。
According to the invention which concerns on
請求項2に係る発明によれば、事前分布の変数の初期値を識別情報の内容に関わらず全ての画像情報から得られる特徴情報の集合を用いて定めることができる。
According to the invention of
(画像識別情報付与装置の構成)
図1は、本発明の実施の形態に係る画像識別情報付与装置の構成の一例を示す図である。
(Configuration of image identification information adding device)
FIG. 1 is a diagram showing an example of the configuration of an image identification information providing apparatus according to an embodiment of the present invention.
画像識別情報付与装置1は、CPU(Central Processing Unit)等から構成され各部を制御するとともに各種のプログラムを実行する制御部10と、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶媒体から構成され情報を記憶する記憶部11と、外部とネットワークを介して通信する通信部12を備える。
The image identification
画像識別情報付与装置1は、通信部12等を介して入力される画像に「山」「川」「子供」等の被写体が含まれるとき、これら「山」「川」「子供」等の語句(以下、「アノテーション単語」という。)を画像情報に対する識別情報(以下、「ラベル」という。)として付与する。また、画像識別情報付与装置1は、記憶部11等に格納された予めラベルが付与された学習用の画像情報を用いて学習を行うものである。
When the image input through the
制御部10は、後述する画像識別情報付与プログラム110を実行することで、画像取得手段100、画像分割手段101、特徴ベクトル生成手段102、学習データ集合取得手段103、モデル学習手段104、尤度計算手段105、アノテーション単語推定手段106及び出力手段107等として機能する。
The
画像取得手段100は、学習の際に記憶部11に格納された画像情報を取得し、又ラベルを推定する際に通信部12を介して外部の端末装置等から入力された画像情報を取得する。
The
画像分割手段101は、画像取得手段100が取得した画像情報及び記憶部11に格納された学習用の画像情報111を、それぞれ複数の領域に分割し、部分領域を生成する。画像分割手段101は、例えば、矩形でメッシュ状に分割する方法やk近傍法等のクラスタリング手法を用いて類似の近接する画素を同一の部分領域と定める方法等を用いる。
The
特徴ベクトル生成手段102は、画像分割手段101が生成した部分領域のそれぞれから、例えば、ガボールフィルタを用いる方法やRGB、正規化RG、CIELAB等の特徴量を抽出する方法によって特徴ベクトルを生成する。ここで、特徴ベクトルは特徴情報の一例である。
The feature
学習データ集合取得手段103は、画像情報111から同一のラベルが与えられた画像情報を取得し、当該画像情報に含まれる特徴ベクトルの集合を学習データ集合として取得する。また、ラベルの内容に関わらず全ての画像情報111から得られる特徴ベクトルの集合(以下、「ユニバーサルモデル」という。)を学習データ集合として取得する。
The learning data set
モデル学習手段104は、学習データ集合取得手段103が取得した学習データ集合を用いて学習を行う。
The
尤度計算手段105は、画像取得手段100が取得した画像情報の特徴ベクトルの任意のラベルに対する尤度を計算する。
The
アノテーション単語推定手段106は、尤度の高いラベルに対応したアノテーション単語を入力された画像情報の識別情報として推定する。
The annotation
出力手段107は、アノテーション単語推定手段106が推定したアノテーション単語のうち、例えば、尤度の高い上位数個を表示装置、印刷装置、記憶部11等に出力する。
The
記憶部11は、制御部10を上述した各手段として動作させる画像識別情報付与プログラム110、学習の際に用いられる画像情報111、画像情報111に含まれる画像情報とラベルとを関連付けるラベル情報112及びモデル学習手段104による学習結果として保存される学習情報113等を記憶する。
The storage unit 11 includes an image identification
(画像識別情報付与装置の動作)
以下に、画像識別情報付与装置の動作例を各図を参照しつつ、(1)基本学習動作、(2)詳細学習動作、(3)アノテーション推定動作に分けて説明する。
(Operation of the image identification information adding device)
Hereinafter, the operation example of the image identification information assigning apparatus will be described by dividing into (1) basic learning operation, (2) detailed learning operation, and (3) annotation estimation operation with reference to each drawing.
図3は、画像識別情報付与装置の動作例を示すフローチャートである。 FIG. 3 is a flowchart illustrating an operation example of the image identification information adding apparatus.
(1)基本学習動作
まず、画像取得手段100は、記憶部11から学習用データとして画像情報111を取得する(S1)。画像情報111は、複数の画像情報を含むものとする。
(1) Basic Learning Operation First, the
次に、画像分割手段101は、画像をn個の領域に分割し、部分領域を生成する(S2)。一例として、矩形でメッシュ状に分割する。この動作は、画像情報111に含まれる複数の画像情報のそれぞれについて行われる。
Next, the
次に、特徴ベクトル生成手段102は、部分領域から、一例としてガボールフィルタ等を用いて複数の特徴量を抽出し、部分領域毎にこれら特徴量を成分とした特徴ベクトルx1、x2、…、xnを生成する(S3)。この動作についても、画像情報111に含まれる複数の画像情報のそれぞれについて行われる。
Next, the feature
次に、学習データ集合取得手段103は、ラベル情報112を参照し、画像情報111から、まずラベルC1に対応付けられた画像情報を取得するとともに、取得した画像情報から生成された特徴ベクトルの集合を学習データ集合として取得する(S4、S5)。
Next, the learning data set obtaining
次に、モデル学習手段104は、学習データ集合取得手段103が取得したラベルC1の学習データについて学習を実行し(S6)、学習結果を記憶部11の学習情報113に保存する(S7)。
Next, the
上記ステップS5〜S7は、すべてのラベル(上限M)について実行される(S18、S19)。 Steps S5 to S7 are executed for all labels (upper limit M) (S18, S19).
以下の「(2)詳細学習動作」において、ステップS6でモデル学習手段104が実行する学習動作の詳細について説明する。
In the following “(2) Detailed learning operation”, details of the learning operation executed by the
(2)詳細学習動作
モデル学習手段104は、確率生成モデルとして、混合ガウス分布モデル(Gaussian Mixture Model:GMM)を用いる。入力される学習データ集合をX={x1,…xN}とし、特徴ベクトルの次元をDとすると、混合ガウスモデルpは、次式で定義される。
ここで、入力される学習データ数をN、混合要素数をKとしている。πkは混合比を表わし、N(xi|μk,Λk -1)は、平均μk、分散Λk -1であるD次元ガウス分布である。
(2) Detailed Learning Operation The
Here, the number of input learning data is N, and the number of mixed elements is K. π k represents a mixing ratio, and N (x i | μ k , Λ k −1 ) is a D-dimensional Gaussian distribution having an average μ k and a variance Λ k −1 .
また、混合比は、次式を満たす。
また、混合要素をデータに合わせて適切に選択するため、混合比πは、Dirichlet過程(Stick breaking表現)から生成されるものとする。
また、より柔軟な確率推定を可能とするため、ガウス分布のパラメータ(平均、分散)に対して事前分布を定める。ここでは、平均値、分散のそれぞれの共役事前分布であるガウス分布、ウィシャート分布をそれぞれの事前分布として定める。すなわち、
ここで、ウィシャート分布W(Λk|W0,υ0)は次式で定義される。
以上が、本発明の実施の形態で用いた確率生成モデルの説明である。これをベイジアンネットワークの表現により図示すると、図2のようになる。 The above is the description of the probability generation model used in the embodiment of the present invention. This is illustrated by a Bayesian network expression as shown in FIG.
図2は、モデル学習手段104が学習動作に用いる確率生成モデルの一例を示した概略図である。
FIG. 2 is a schematic diagram illustrating an example of a probability generation model used by the
黒丸で示されたc1、c2、W0、ν0、β0、m0は定数を示し、中抜きの丸で示されたαπ、π,v、zn、xn、Λ、μ、は確率変数を示す。また、xnは観測ノードを表わす。矢印は、確率的な依存関係を表わしている。また、zn、xnを含む四角はN個の独立同時分布の観測値を示す。 C 1 , c 2 , W 0 , ν 0 , β 0 , m 0 indicated by black circles represent constants, and α π , π, v, z n , x n , Λ, indicated by hollow circles μ represents a random variable. Xn represents an observation node. Arrows represent probabilistic dependencies. A square including z n and x n indicates an observation value of N independent simultaneous distributions.
学習データ集合に対するモデルパラメータ{τ1,k,τ2,k,λ1,λ2,βk,υk,Wk,mk}の最尤解を求めることを、機械学習ではモデルパラメータの学習という。ここで、単純なEMアルゴリズムは適用できず、変分ベイズ法(VariationalBayes法:VB法)を用いて最尤解を求める。 Finding the maximum likelihood solution of model parameters {τ 1, k , τ 2, k , λ 1 , λ 2 , β k , υ k , W k , m k } for the training data set This is called learning. Here, a simple EM algorithm cannot be applied, and a maximum likelihood solution is obtained using a variational Bayes method (Varial Bayes method: VB method).
変分ベイズ法を用いて、導出する学習アルゴリズムを以下に示す。 A learning algorithm derived using the variational Bayes method is shown below.
図4は、学習アルゴリズムの内容を示すフローチャートである。 FIG. 4 is a flowchart showing the contents of the learning algorithm.
まず、モデル学習手段104は、パラメータ{τ1,k,τ2,k,λ1,λ2,βk,υk,Wk,mk}を初期化する(S11)。初期化方法には、ランダムに初期化する、k−meansクラスタリングの結果を用いる等の方法があるが、ここでは、ユニバーサルモデルの学習結果のパラメータをパラメータの初期値とする。
First, the
次に、次式で定められる変分下限を計算する。
次に、モデル学習手段104は、VB−Eステップとして負担率rjkを算出する。
φ(・)はディガンマ関数、I(・)は、引数が真の場合に1を返し、偽の場合に0を返すパラメータである。 φ (•) is a digamma function, and I (•) is a parameter that returns 1 if the argument is true and returns 0 if the argument is false.
次に、モデル学習手段104は、VB−Mステップとしてパラメータを更新する。
ここで、
here,
次に、モデル学習手段104は、収束条件を満たすか否か判定し(S14)、変分下限(式(7))の変化が予め定められた既定値以下であれば(S14;Yes)、計算を終了し、既定値以下でなければ(S14;No)、ステップS12に戻る。
Next, the
本発明の実施の形態では、パラメータに事前分布を定めることにより、より柔軟な学習を実現したが、パラメータの分布を定めるためのハイパーパラメータβ0、υ0、m0、W0は依然として適切な値を定めなければならない。 In the embodiment of the present invention, more flexible learning is realized by determining the prior distribution for the parameters. However, the hyperparameters β 0 , υ 0 , m 0 , and W 0 for determining the parameter distribution are still appropriate. A value must be defined.
モデル学習手段104は、ユニバーサルモデルを活用し、蓋然性のあるハイパーパラメータ設定を行う。ユニバーサルモデルのハイパーパラメータはデフォルトの値に定め、上記のステップS11〜S14に従い予め学習を行なう。
The
デフォルトのハイパーパラメータをそれぞれ、
とする。ユニバーサルモデルの学習結果を用いることによって、一律のハイパーパラメータをそれぞれのガウス分布に与えるのではなく、その学習データの全体の傾向を反映した、混合要素毎に異なるハイパーパラメータの設定を行うことができる。
Each of the default hyperparameters
And By using the learning results of the universal model, it is possible to set different hyper parameters for each mixing element, reflecting the overall tendency of the learning data, instead of giving uniform hyper parameters to each Gaussian distribution. .
また、k番目の混合要素のハイパーパラメータを{m0 k,W0 k,υ0 k,β0 k }
とする。このとき、ユニバーサルモデルの学習結果を用いて、ハイパーパラメータを次のように設定する。
ここで、変数の右肩にあるuは、ユニバーサルモデルの学習結果であることを示している。
The hyperparameters of the k-th mixing element are {m 0 k , W 0 k , υ 0 k , β 0 k }
And At this time, the hyper parameter is set as follows using the learning result of the universal model.
Here, u on the right shoulder of the variable indicates a learning result of the universal model.
さらに、ユニバーサルモデルのサンプル数が多いとユニバーサルモデルの影響が大きくなりすぎるので、ユニバーサルモデル(事前分布)の影響をコントロールする、新たなパラメータκ(0≦κ≦1)を導入してもよい。
さらに、簡易的な方法としては、
としてもよい。いずれの場合も、κ=1の場合は、(27)〜(28)となり、κ=0の場合には、デフォルトのハイパーパラメータが設定される。
Furthermore, as a simple method,
It is good. In any case, when κ = 1, (27) to (28), and when κ = 0, default hyperparameters are set.
κの一つの決め方として、ユニバーサルモデルのサンプル数と、現在学習しているモデルのサンプル数を比較し、ユニバーサルモデルのサンプル数が多い場合には、κを小さな値に、少ない場合には、大きな値にする。例えば、Nu、Nそれぞれ、ユニバーサルモデルと現在学習しているモデルのサンプル数とすると、κを決定する関数の一例として、
を用いてもよい。また、さらに単純に
としてもよい。ここで、F(・)は、原点を通り、1に漸近する単調増加関数となる。
One method of determining κ is to compare the number of samples of the universal model with the number of samples of the model that is currently being learned. If the number of samples of the universal model is large, κ is set to a small value. Value. For example, if N u and N are the number of samples of the universal model and the model currently being learned, respectively, as an example of a function that determines κ,
May be used. And even more simply
It is good. Here, F (•) is a monotonically increasing function passing through the origin and asymptotic to 1.
(3)アノテーション推定動作
図5は、画像識別情報付与装置の動作例を示すフローチャートである。
(3) Annotation Estimation Operation FIG. 5 is a flowchart showing an operation example of the image identification information adding device.
まず、画像取得手段100は、ラベルを推定する対象として通信部12を介して外部から入力された画像情報を取得する(S21)。
First, the
次に、画像分割手段101は、画像をn個の領域に分割し、部分領域を生成する(S22)。
Next, the
次に、特徴ベクトル生成手段102は、部分領域から複数の特徴量を抽出し、部分領域毎にこれら特徴量を成分とした特徴ベクトルx1、x2、…、xnを生成する(S23)。
Next, the feature
次に、尤度計算手段105は、学習情報113からステップS6で学習した各ラベルのモデルを読み込む(S24)。具体的には、モデルのパラメータ{τ1,k,τ2,k,λ1,λ2,βk,υk,Wk,mk}を記憶部11から読み込み、図示しないメモリに展開する。 Next, the likelihood calculating means 105 reads the model of each label learned in step S6 from the learning information 113 (S24). Specifically, the model parameters {τ 1, k , τ 2, k , λ 1 , λ 2 , β k , υ k , W k , m k } are read from the storage unit 11 and developed into a memory (not shown). .
次に、尤度計算手段105は、各部分領域の特徴ベクトルについて事後確率を算出する(S25)。予測するべき入力画像Iから抽出される特徴ベクトルのセットX={x1,…xn}が与えられた場合のラベルcの事後確率p(c|X)がベイズの定理を用いて次のように計算される。
ここで、p(c)は、ラベルcの事前確率である。これには、学習データ集合における相対頻度を用いる。p(x1…xn)は、特徴ベクトル集合の事前分布であるが、ラベルに対しては一定値をとる。したがって、画像Iに対するラベルcの対数尤度は、定数部分を除いて、次式のように表わせる。
式(40)が大きいほど画像Iのラベルとして適していると考えられる。式の大きいものから数個を画像Iのラベル(アノテーション単語)とする。
Next, the likelihood calculating means 105 calculates a posteriori probability for the feature vector of each partial region (S25). Given a set of feature vectors X = {x 1 ,... X n } extracted from the input image I to be predicted, the posterior probability p (c | X) of the label c is expressed as follows using Bayes' theorem: Is calculated as follows.
Here, p (c) is the prior probability of the label c. For this, the relative frequency in the learning data set is used. p (x 1 ... x n ) is a prior distribution of the feature vector set, but takes a constant value for the label. Therefore, the logarithmic likelihood of the label c for the image I can be expressed as the following equation except for the constant part.
It can be considered that the larger the formula (40), the more suitable the label for the image I. Several of the large expressions are used as labels (annotation words) of the image I.
次に、尤度計算手段105は、あるラベルcに対する部分画像の特徴ベクトルxiの尤度を次式で算出する(S26)。
ただし、
ここで、Γ(・)は、ガンマ関数を表わす。
Next, the likelihood calculating means 105 calculates the likelihood of the feature vector x i of the partial image for a certain label c by the following equation (S26).
However,
Here, Γ (·) represents a gamma function.
上記の計算によって尤度が計算されると、アノテーション単語推定手段106は、尤度の大きいものから順に、例えば、上位5つのラベルを取得し、画像情報の識別情報としてラベルに対応付けられたアノテーション単語を付与する(S27)。
When the likelihood is calculated by the above calculation, the annotation
次に、出力手段107は、図示しない定められた出力装置(ディスプレイ、プリンター、ハードディスク等)にアノテーション単語推定結果を出力する(S28)。 Next, the output means 107 outputs the annotation word estimation result to a predetermined output device (display, printer, hard disk, etc.) (not shown) (S28).
[他の実施の形態]
なお、本発明は、上記実施の形態に限定されず、本発明の趣旨を逸脱しない範囲で種々な変形が可能である。
[Other embodiments]
The present invention is not limited to the above embodiment, and various modifications can be made without departing from the spirit of the present invention.
また、上記実施の形態で使用される画像識別情報付与プログラム110は、CD−ROM等の記憶媒体から装置内の記憶部に読み込んでも良く、インターネット等のネットワークに接続されているサーバ装置等から装置内の記憶部にダウンロードしてもよい。また、上記実施の形態で使用される手段100〜107の一部または全部をASIC等のハードウェアによって実現してもよい。
Further, the image identification
1 画像識別情報付与装置
10 制御部
11 記憶部
12 通信部
100 画像取得手段
101 画像分割手段
102 特徴ベクトル生成手段
103 学習データ集合取得手段
104 モデル学習手段
105 尤度計算手段
106 アノテーション単語推定手段
107 出力手段
110 画像識別情報付与プログラム
111 画像情報
112 ラベル情報
113 学習情報
DESCRIPTION OF
Claims (3)
予め識別情報が関連付けられた画像情報から識別情報毎に画像情報を取得する取得手段と、
前記取得手段が取得した画像情報から特徴情報を生成する生成手段と、
前記生成手段が生成した特徴情報と当該特徴情報に対応する画像情報の識別情報との関係を確率分布の混合による確率モデルにより学習して学習結果を生成するものであって、当該確率モデルの混合要素生成過程の変数を前記取得手段によって識別情報の内容に関わらず取得された全ての画像情報から得られる特徴情報の集合を用いて定めるとともに、前記確率分布の変数に対して事前分布を定める学習手段と、
前記学習手段が生成した前記学習結果に基づいて、識別情報毎に前記確率モデルを用いて識別情報の付与対象である画像情報から前記生成手段によって生成される特徴情報の事後分布を計算する計算手段と、
前記事後分布に基づき前記識別情報の付与対象である画像情報に関連付けられる識別情報を推定する推定手段として機能させる画像識別情報付与プログラム。 Computer
Acquisition means for acquiring image information for each identification information from image information associated with the identification information in advance;
Generating means for generating feature information from the image information acquired by the acquiring means;
A learning result is generated by learning the relationship between the feature information generated by the generating means and the identification information of the image information corresponding to the feature information using a probability model based on a mixture of probability distributions, and the mixture of the probability models Learning to determine a variable of an element generation process using a set of feature information obtained from all image information acquired by the acquisition means regardless of the content of identification information, and to determine a prior distribution for the variable of the probability distribution Means,
Based on the learning result generated by the learning unit, a calculation unit that calculates a posterior distribution of feature information generated by the generation unit from image information to which identification information is added using the probability model for each piece of identification information When,
An image identification information addition program that functions as an estimation unit that estimates identification information associated with image information to which the identification information is to be added based on the posterior distribution.
前記取得手段が取得した画像情報から特徴情報を生成する生成手段と、
前記生成手段が生成した特徴情報と当該特徴情報に対応する画像情報の識別情報との関係を確率分布の混合による確率モデルにより学習して学習結果を生成するものであって、当該確率モデルの混合要素生成過程の変数を前記取得手段によって識別情報の内容に関わらず取得された全ての画像情報から得られる特徴情報の集合を用いて定めるとともに、前記確率分布の変数に対して事前分布を定める学習手段と、
前記学習手段が生成した前記学習結果に基づいて、識別情報毎に前記確率モデルを用いて識別情報の付与対象である画像情報から前記生成手段によって生成される特徴情報の事後分布を計算する計算手段と、
前記事後分布に基づき前記識別情報の付与対象である画像情報に関連付けられる識別情報を推定する推定手段とを有する画像識別情報付与装置。
Acquisition means for acquiring image information for each identification information from image information associated with the identification information in advance;
Generating means for generating feature information from the image information acquired by the acquiring means;
A learning result is generated by learning the relationship between the feature information generated by the generating means and the identification information of the image information corresponding to the feature information using a probability model based on a mixture of probability distributions, and the mixture of the probability models Learning to determine a variable of an element generation process using a set of feature information obtained from all image information acquired by the acquisition means regardless of the content of identification information, and to determine a prior distribution for the variable of the probability distribution Means,
Based on the learning result generated by the learning unit, a calculation unit that calculates a posterior distribution of feature information generated by the generation unit from image information to which identification information is added using the probability model for each piece of identification information When,
An image identification information providing apparatus comprising: estimation means for estimating identification information associated with image information to which the identification information is to be applied based on the posterior distribution.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011198654A JP2013061732A (en) | 2011-09-12 | 2011-09-12 | Image identification information provision program and image identification information provision device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011198654A JP2013061732A (en) | 2011-09-12 | 2011-09-12 | Image identification information provision program and image identification information provision device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013061732A true JP2013061732A (en) | 2013-04-04 |
Family
ID=48186369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011198654A Pending JP2013061732A (en) | 2011-09-12 | 2011-09-12 | Image identification information provision program and image identification information provision device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013061732A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105590225A (en) * | 2015-12-22 | 2016-05-18 | 成都小多科技有限公司 | Sales stage identification method and device based on client problems |
CN111243045A (en) * | 2020-01-10 | 2020-06-05 | 杭州电子科技大学 | Image generation method based on Gaussian mixture model prior variation self-encoder |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010097610A (en) * | 2008-10-16 | 2010-04-30 | Xerox Corp | Modeling image as mixtures of image models |
JP2011113519A (en) * | 2009-11-30 | 2011-06-09 | Konica Minolta Medical & Graphic Inc | Information processor and program |
JP2011150381A (en) * | 2010-01-19 | 2011-08-04 | Nippon Telegr & Teleph Corp <Ntt> | Expression discriminator creation device, expression discriminator creation method, expression recognition device, expression recognition method, and program therefor |
-
2011
- 2011-09-12 JP JP2011198654A patent/JP2013061732A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010097610A (en) * | 2008-10-16 | 2010-04-30 | Xerox Corp | Modeling image as mixtures of image models |
JP2011113519A (en) * | 2009-11-30 | 2011-06-09 | Konica Minolta Medical & Graphic Inc | Information processor and program |
JP2011150381A (en) * | 2010-01-19 | 2011-08-04 | Nippon Telegr & Teleph Corp <Ntt> | Expression discriminator creation device, expression discriminator creation method, expression recognition device, expression recognition method, and program therefor |
Non-Patent Citations (4)
Title |
---|
JPN6015012132; 原田 達也: '"大規模一般画像認識と画像表現"' 電子情報通信学会技術研究報告 第110巻,第414号, 20110210, p.61〜74, 社団法人電子情報通信学会 * |
JPN6015012133; 上田 修功: '"ベイズ学習[IV・完]-変分ベイズ学習の応用例-"' 電子情報通信学会誌 第85巻,第8号, 20020801, p.633〜638, 社団法人電子情報通信学会 * |
JPN6015012134; 中山 英樹 外3名: '"画像・単語間概念対応の確率構造学習を利用した超高速画像認識・検索方法"' 電子情報通信学会技術研究報告 第107巻,第384号, 20071206, p.65〜70, 社団法人電子情報通信学会 * |
JPN6015042690; Blei, D. M. and Jordan, M. I.: '"Variational Inference for Dirichlet Process Mixtures"' Bayesian Analysis Vol. 1, No. 1, 200603, pp. 121-144, International Society for Bayesian Analysis * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105590225A (en) * | 2015-12-22 | 2016-05-18 | 成都小多科技有限公司 | Sales stage identification method and device based on client problems |
CN111243045A (en) * | 2020-01-10 | 2020-06-05 | 杭州电子科技大学 | Image generation method based on Gaussian mixture model prior variation self-encoder |
CN111243045B (en) * | 2020-01-10 | 2023-04-07 | 杭州电子科技大学 | Image generation method based on Gaussian mixture model prior variation self-encoder |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xiao et al. | Attentional factorization machines: Learning the weight of feature interactions via attention networks | |
Yao et al. | Safeguarded dynamic label regression for noisy supervision | |
US8325999B2 (en) | Assisted face recognition tagging | |
JP5506722B2 (en) | Method for training a multi-class classifier | |
Wang et al. | Another look at distance-weighted discrimination | |
JP5821590B2 (en) | Image identification information addition program and image identification information addition device | |
US11335118B2 (en) | Signal retrieval apparatus, method, and program | |
US20100250473A1 (en) | Active Learning Method for Multi-Class Classifiers | |
US9158965B2 (en) | Method and system for optimizing accuracy-specificity trade-offs in large scale visual recognition | |
US11288851B2 (en) | Signal change apparatus, method, and program | |
US20220230066A1 (en) | Cross-domain adaptive learning | |
JP5123759B2 (en) | Pattern detector learning apparatus, learning method, and program | |
EP3916597A1 (en) | Detecting malware with deep generative models | |
Yun et al. | Ranking via robust binary classification | |
Wang et al. | Classification with Incomplete Data Using Dirichlet Process Priors. | |
Duan et al. | Learning with auxiliary less-noisy labels | |
WO2017188048A1 (en) | Preparation apparatus, preparation program, and preparation method | |
Dulac-Arnold et al. | Sequential approaches for learning datum-wise sparse representations | |
Perales-González et al. | Regularized ensemble neural networks models in the extreme learning machine framework | |
JP2013061732A (en) | Image identification information provision program and image identification information provision device | |
Bhalla et al. | Discriminative feature attributions: bridging post hoc explainability and inherent interpretability | |
Kukliansky et al. | Attribute efficient linear regression with distribution-dependent sampling | |
US20230325373A1 (en) | Machine-learning based automated document integration into genealogical trees | |
Liebgott et al. | Active learning for magnetic resonance image quality assessment | |
JP6606849B2 (en) | Discriminator generation device, discriminator generation method, estimation device, estimation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150331 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151027 |