JP5413156B2 - Image processing program and image processing apparatus - Google Patents
Image processing program and image processing apparatus Download PDFInfo
- Publication number
- JP5413156B2 JP5413156B2 JP2009272853A JP2009272853A JP5413156B2 JP 5413156 B2 JP5413156 B2 JP 5413156B2 JP 2009272853 A JP2009272853 A JP 2009272853A JP 2009272853 A JP2009272853 A JP 2009272853A JP 5413156 B2 JP5413156 B2 JP 5413156B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- partial image
- partial
- label
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、画像処理プログラム及び画像処理装置に関する。 The present invention relates to an image processing program and an image processing apparatus.
画像を複数の部分に分割して、識別器を用いて各部分が何を表しているかを特定して、その特定結果に基づいて、この画像に類似する画像を選択して出力する画像検索技術が存在する。 Image search technology that divides an image into a plurality of parts, identifies what each part represents by using a classifier, and selects and outputs an image similar to this image based on the identification result Exists.
また、画像を識別する技術が存在する。特許文献1には、画像の誤識別を防止しつつ識別処理の速度を向上させる技術が開示されている。
There is also a technique for identifying an image.
本発明は、本発明の構成を有しない場合と比較して、画像検索の精度が向上する画像処理プログラム及び画像処理装置を提供することを目的とする。 An object of the present invention is to provide an image processing program and an image processing apparatus in which the accuracy of image search is improved as compared with the case without the configuration of the present invention.
請求項1に記載の発明は、画像処理プログラムであって、受け付けた画像に含まれた画像要素の分布に基づいて、前記画像内における位置が互いに異なる複数の部分画像それぞれに関連付けられる標識の候補を特定する標識候補特定手段、前記各部分画像について、当該部分画像の特徴量に基づいて、当該部分画像に関連付けられる標識の候補のうちから、当該部分画像に関連付けられる標識を特定する標識特定手段、複数の画像を記憶する記憶手段から取得される、前記各部分画像に関連付けられる標識の組合せに応じた画像を出力する画像出力手段、としてコンピュータを機能させることとしたものである。
The invention according to
請求項2に記載の発明は、請求項1に記載の画像処理プログラムであって、前記標識候補特定手段が、学習対象となる少なくとも1つの画像に基づいて特定される画像内における位置と当該位置に対応する標識の候補との関係に基づいて、前記標識の候補を特定することとしたものである。
Invention of Claim 2 is an image processing program of
請求項3に記載の発明は、請求項2に記載の画像処理プログラムであって、前記標識候補特定手段が、学習対象となる少なくとも1つの画像に基づいて画像の種類毎に特定される画像内における位置と当該位置に対応する標識の候補との関係に基づいて特定される、前記受け付けた画像の種類に基づいて、前記標識の候補を特定することとしたものである。 The invention according to claim 3 is the image processing program according to claim 2, wherein the marker candidate specifying means specifies an image in each image type based on at least one image to be learned. The candidate for the label is specified based on the type of the received image specified based on the relationship between the position at and the candidate for the label corresponding to the position.
請求項4に記載の発明は、請求項1から3のいずれか一項に記載の画像処理プログラムであって、前記画像出力手段が、前記各部分画像に関連付けられる標識に対応する値と、前記記憶手段に記憶されている画像に関連付けられる標識に対応する値と、の比較結果に基づいて特定される画像を出力することとしたものである。
Invention of Claim 4 is an image processing program as described in any one of
請求項5に記載の発明は、画像処理装置であって、受け付けた画像に含まれた画像要素の分布に基づいて、前記画像内における位置が互いに異なる複数の部分画像それぞれに関連付けられる標識の候補を特定する標識候補特定手段と、前記各部分画像について、当該部分画像の特徴量に基づいて、当該部分画像に関連付けられる標識の候補のうちから、当該部分画像に関連付けられる標識を特定する標識特定手段と、複数の画像を記憶する記憶手段から取得される、前記各部分画像に関連付けられる標識の組合せに応じた画像を出力する画像出力手段と、を含むこととしたものである。 The invention according to claim 5 is an image processing apparatus, and based on the distribution of image elements included in the received image, candidate markers that are associated with each of the plurality of partial images having different positions in the image A label candidate specifying unit that specifies a label, and for each partial image, a label specification that specifies a label associated with the partial image from among candidate labels associated with the partial image based on the feature amount of the partial image Means and an image output means for outputting an image corresponding to a combination of signs associated with each partial image, obtained from a storage means for storing a plurality of images.
請求項1,5に記載の発明によれば、本発明の構成を有しない場合と比較して、画像検索の精度が向上する。 According to the first and fifth aspects of the present invention, the accuracy of the image search is improved as compared with the case where the configuration of the present invention is not provided.
請求項2に記載の発明によれば、画像内における位置が考慮された標識の候補の特定が行われる。 According to the second aspect of the present invention, the candidate for the sign in consideration of the position in the image is specified.
請求項3に記載の発明によれば、画像の種類及び画像内における位置が考慮された標識の候補の特定が行われる。 According to the third aspect of the present invention, the candidate for the sign is determined in consideration of the type of the image and the position in the image.
請求項4に記載の発明によれば、本発明の構成を有しない場合と比較して、出力の対象となる画像の特定が容易になる。 According to the fourth aspect of the present invention, it is easy to specify an image to be output as compared with a case where the configuration of the present invention is not provided.
以下、本発明の一実施形態について図面に基づき詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
図1のハードウェア構成図に例示するように、本実施形態における画像処理装置10は、例えば、制御部12、記憶部14、ユーザインタフェース(UI)部16、を含んでいる。これらの要素は、バスなどを介して接続される。制御部12は、CPU等のプログラム制御デバイスであり、画像処理装置10にインストールされるプログラムに従って動作する。記憶部14は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部14には、制御部12によって実行されるプログラムなどが記憶される。また、記憶部14は、制御部12のワークメモリとしても動作する。UI部16は、ディスプレイ、マイク、マウス、キーボードなどであり、利用者が行った操作の内容や、利用者が入力した音声を制御部12に出力する。また、このUI部16は、制御部12から入力される指示に従って情報を表示出力したり音声出力したりする。
As illustrated in the hardware configuration diagram of FIG. 1, the
図2は、本実施形態に係る画像処理装置10により実現される機能の一例を示す機能ブロック図である。図2に例示するように、画像処理装置10は、本実施形態では、例えば、画像記憶部20、画像受付部22、画像領域分割部24、部分画像特徴抽出部26、全体画像特徴抽出部28、コードブック情報記憶部30、画像種類特定部32、標識候補特定部34、モデルデータ記憶部36、標識特定部38、標識分布情報生成部40、類似度算出部42、画像出力部44、を含むものとして機能する。画像記憶部20、コードブック情報記憶部30、モデルデータ記憶部36は記憶部14を主として実現される。その他の要素は制御部12を主として実現される。
FIG. 2 is a functional block diagram illustrating an example of functions realized by the
これらの要素は、コンピュータである画像処理装置10にインストールされたプログラムを、画像処理装置10の制御部12で実行することにより実現されている。このプログラムは、例えば、CD−ROM、DVD−ROMなどのコンピュータ可読な情報伝達媒体を介して、あるいは、インターネットなどの通信手段を介して画像処理装置10に供給される。
These elements are realized by executing a program installed in the
画像記憶部20は、本実施形態では、例えば、検索対象となる複数の画像(検索対象画像)を記憶する。 In this embodiment, for example, the image storage unit 20 stores a plurality of images (search target images) to be searched.
画像受付部22は、例えば、利用者から検索条件となる画像(検索条件画像)を受け付ける。検索条件画像は、例えば、データベースに保存されている画像、電子文書中の画像、検索条件であるキーワードに基づいて検索結果として特定された画像、デジタルカメラなどのカメラにより撮像された画像、などである。なお、検索条件画像の情報源は限定されない。
For example, the
画像領域分割部24は、例えば、画像を複数の領域に分割する。画像領域分割部24は、例えば、検索条件画像を複数の領域に分割する。領域分割の方法は、例えば、検索条件画像を、予め定められた8×8画素の矩形領域に等分割する方法や、k−means法などのクラスタリング手法により、互いに画像特徴(例えば、色など)が近い画像要素(例えば、画素)が結合された領域に分割する方法などが挙げられる。なお、各領域が互いに重なり合っても構わない。
For example, the image
部分画像特徴抽出部26は、例えば、画像に含まれる画像要素(例えば、画素)の分布に基づいて、画像内における位置が互いに異なる複数の部分画像それぞれの特徴(部分画像特徴)を抽出する。部分画像特徴抽出部26は、本実施形態では、例えば、検索条件画像に含まれる画素の分布に基づいて、検索条件画像内における位置が互いに異なる複数の部分画像(検索条件部分画像)それぞれの部分画像特徴を抽出する。検索条件部分画像は、例えば、画像領域分割部24によって検索条件画像を分割した各領域内の画像に対応する。部分画像特徴抽出部26は、例えば、検索条件部分画像内の画素のRGB色空間、Lab色空間、YBr色空間などにおける色成分の平均、あるいは、平均と分散の組合せなどを部分画像特徴として抽出する。なお、部分画像特徴抽出部26は、例えば、検索条件部分画像内の画素の、3スケール、8方向のGaborフィルタなどによる演算結果の平均、あるいは、平均と分散の組合せなどを部分画像特徴として抽出してもよい。
For example, the partial image
全体画像特徴抽出部28は、例えば、画像(例えば、検索条件画像)に含まれる画像要素(例えば、画素)の分布に基づいて、画像全体に関わる画像特徴である全体画像特徴を抽出する。全体画像特徴抽出部28は、例えば、まず、検索条件画像全体に含まれる各画素の画像特徴(例えば、RGB色空間における色成分など)を特定する。そして、全体画像特徴抽出部28は、各画素の画像特徴を、例えば、予めコードブック情報記憶部30に記憶されているコードブック情報により量子化する。そして、全体画像特徴抽出部28は、検索条件画像内の各画素についての量子化の結果のヒストグラムを全体画像特徴として抽出する。すなわち、全体画像特徴抽出部28は、いわゆる、Bag of featuresの特徴量を抽出する。なお、検索条件画像に含まれる各画素について特定される画像特徴として、上述の様々な色成分や、Gaborフィルタの演算結果などを用いても構わない。
The overall image
画像種類特定部32は、例えば、検索条件画像から抽出された全体画像特徴に基づいて、この検索条件画像の種類(画像カテゴリ)を特定する。画像カテゴリの例としては、風景、屋内、人物、建物、動物などが挙げられる。画像種類特定部32は、例えば、各画像カテゴリに関連づけられている画像特徴と、検索条件画像から抽出された全体画像特徴と、の比較結果に基づいて、検索条件画像の画像カテゴリを特定する。
The image
標識候補特定部34は、画像に含まれる画像要素の分布に基づいて、各部分画像に関連付けられる標識(ラベル)(以下、部分画像ラベルと呼ぶ。)の候補(以下、部分画像ラベル候補と呼ぶ。)を特定する。また、標識候補特定部34は、画像に含まれる画像要素の分布に基づいて特定される画像の種類(画像カテゴリ)に基づいて、各部分画像に関連付けられる部分画像ラベル候補を特定してもよい。標識候補特定部34は、例えば、検索条件画像の全体画像特徴に基づいて、各検索条件部分画像に関連づけられるラベルの候補(検索条件部分画像ラベル候補)を特定する。標識候補特定部34は、例えば、画像カテゴリ−部分画像ラベル相関モデルを用いて、各検索条件部分画像に対応する検索条件部分画像ラベル候補を特定する。
The marker
図3は、画像カテゴリ−部分画像ラベル相関モデルを実現した具体的なデータの一例である相関モデルデータ46の一例を示す図である。本実施形態では、相関モデルデータ46は、予め、モデルデータ記憶部36に記憶されている。
FIG. 3 is a diagram illustrating an example of
相関モデルデータ46は、例えば、画像カテゴリと、部分画像ラベル名と、画像の画像カテゴリがCであるという条件の下で、この画像にLである部分画像ラベルが出現する確率P(L|C)と、複数の相関モデルパラメータ(第1相関モデルパラメータ〜第N相関モデルパラメータ)と、を含む。図3に例示する相関モデルデータ46では、例えば、画像カテゴリが風景である画像については、部分画像ラベル名が「山」である部分画像ラベルが80%の確率で出現することが表されている。
The
相関モデルパラメータは、例えば、検索条件部分画像ラベルがLであるという条件の下で、その検索条件部分画像ラベルが検索条件画像内の位置xに出現する確率P(x|L)を次式に例示する混合ガウス分布で表した際のパラメータの組合せ(第i相関モデルパラメータについては、重みλi、平均μi、分散共分散行列Σiの組合せ)を示すデータである。
そして、標識候補特定部34は、画像カテゴリが特定された検索条件画像について、相関モデルデータ46に基づいて、次式に例示するように、各検索条件部分画像について、検索条件画像内の位置がxであるという条件の下で、この位置にLである検索条件部分画像ラベルが出現する確率P(L|x)を算出する。
なお、標識候補特定部34は、P(x)を計算する必要はない。
The label
標識特定部38は、例えば、各部分画像について、部分画像の特徴量(例えば、上述の部分画像特徴)に基づいて、部分画像ラベル候補のうちから、この部分画像に関連付けられる標識(部分画像ラベル)を特定する。標識特定部38は、例えば、各検索条件部分画像について、検索条件部分画像の特徴量に基づいて、検索条件部分画像ラベル候補のうちから、この検索条件部分画像に関連付けられる検索条件部分画像ラベルを特定する。検索条件部分画像ラベルの例としては、例えば、山、海、太陽、机、人物、犬等が挙げられる。標識特定部38は、特定された検索条件部分画像ラベルを検索条件部分画像に関連付ける。標識特定部38は、例えば、部分画像分類モデルを表す部分画像分類モデルデータ48(図4参照)に基づいて、検索条件部分画像ラベルの検索条件部分画像への関連づけを行う。図4は、部分画像分類モデルデータ48の一例を示す図である。部分画像分類モデルデータ48は、例えば、予め、モデルデータ記憶部36に記憶されている。
For example, for each partial image, the
図4に例示するように、部分画像分類モデルデータ48は、例えば、部分画像ラベル名、画像にLである部分画像ラベルが出現する確率P(L)、複数の部分画像分類モデルパラメータ(第1部分画像分類モデルパラメータ〜第N部分画像分類モデルパラメータ)、を含む。図4に例示する部分画像分類モデルデータ48では、例えば、検索条件部分画像には、部分画像ラベル名が「山」である検索条件部分画像ラベルが7%の確率で出現することが表されている。
As illustrated in FIG. 4, the partial image
部分画像分類モデルパラメータは、例えば、検索条件部分画像ラベルがLであるという条件の下で、この検索条件部分画像ラベルに対応する検索条件部分画像の部分画像特徴がyである確率P(y|L)を、次式の混合ガウス分布で表した際の確率分布を特徴付けるパラメータの組合せ(第i部分画像分類モデルパラメータについては、重みλi、平均μi、分散共分散行列Σiの組合せ)を示すデータである。
本実施形態では、例えば、標識候補特定部34が、検索条件部分画像を代表する点(例えば、検索条件部分画像の中心の点や、検索条件部分画像の左上端の点など)の位置xにおける、P(L|x)の値を、各検索条件部分画像ラベルについて計算して、P(L|x)の値が大きなものから順にN個の検索条件部分画像ラベル候補(例えば、L1、L2・・・LN)を特定する。そして、標識特定部38が、例えば、予め標識候補特定部34により絞り込まれたこのN個の検索条件部分画像ラベル候補それぞれについて、P(y|L)の値を計算する。そして、標識特定部38は、例えば、次式に基づいて、この検索条件部分画像に対応する検索条件部分画像ラベルlabelを特定する。標識候補特定部34及び標識特定部38は、例えば、上述の処理を各検索条件部分画像に対して実行する。
標識分布情報生成部40は、例えば、各部分画像について特定された部分画像ラベルlabelを集計した標識分布情報を生成する。
For example, the sign distribution
標識分布情報生成部40は、例えば、検索条件部分画像ラベルlabelを集計して、各検索条件部分画像ラベルが存在する個数を示すヒストグラムを表す標識分布情報50(図5参照)を生成する。図5は、標識分布情報50の一例を示す図である。そして、標識分布情報生成部40は、生成された標識分布情報50を検索条件画像に関連づける。
For example, the sign distribution
なお、本実施形態では、予め、上述と同様の方法により、画像記憶部20に記憶されている各検索対象画像についても、検索対象画像に含まれる各部分画像(検索対象部分画像)に部分画像ラベル(検索対象部分画像ラベル)が関連づけられている。そして、標識分布情報生成部40は、予め、各検索対象画像について、検索対象画像に含まれる各検索対象部分画像に関連づけられた検索対象部分画像ラベルに基づいて、標識分布情報50を生成する。そして、標識分布情報生成部40は、この標識分布情報50を検索対象画像に関連づける。
In the present embodiment, the partial images included in the search target images (search target partial images) are also stored in advance for each search target image stored in the image storage unit 20 by the same method as described above. A label (search target partial image label) is associated. Then, the sign distribution
すなわち、本実施形態では、例えば、検索条件画像にも各検索対象画像にも、その画像に対応する標識分布情報50が関連づけられていることとなる。 That is, in this embodiment, for example, the marker distribution information 50 corresponding to the search condition image and each search target image is associated with the image.
類似度算出部42は、検索条件画像に関連づけられている標識分布情報50と、各検索対象画像に関連づけられている標識分布情報50と、の類似度を算出する。類似度算出部42は、具体的には、例えば、検索条件画像に関連づけられている標識分布情報50に対応するヒストグラムと、各検索対象情報に関連づけられている標識分布情報50に対応するヒストグラムと、の距離を算出する。ヒストグラム間の距離とは、具体的には、例えば、ユークリッド距離やχ2乗距離などである。
The
画像出力部44は、類似度算出部42により算出された類似度に基づいて特定される画像を出力する。画像出力部44は、例えば、検索条件画像に対応するヒストグラムからの距離が小さいものから順にn個のヒストグラムを特定し、それぞれのヒストグラムに対応する検索対象画像をディスプレイなどのUI部16に表示出力する。なお、画像出力部44は、類似度算出部42により算出された類似度に基づいて特定される画像を記憶部14に出力するようにしてもよい。
The
ここで、本実施形態に係る画像処理装置10で行われる処理の流れの一例を図6に示すフロー図を参照しながら説明する。
Here, an example of the flow of processing performed by the
まず、画像受付部22が、利用者から検索条件画像を受け付ける(S101)。そして、全体画像特徴抽出部28が、S101に例示する処理により受け付けた検索条件画像に基づいて、この検索条件画像の全体画像特徴を抽出する(S102)。そして、画像種類特定部32が、S102に例示する処理により抽出された全体画像特徴に基づいて、検索条件画像の画像カテゴリを特定する(S103)。そして、画像領域分割部24が、検索条件画像の領域分割を行う(S104)。そして、部分画像特徴抽出部26が、検索条件画像を分割した各領域に対応する検索条件部分画像の部分画像特徴を抽出する(S105)。そして、標識候補特定部34が、各検索条件部分画像について、S103に例示する処理により特定された画像カテゴリと、検索条件部分画像内の代表点の位置と、に基づいて、検索条件部分画像に対応する検索条件部分画像ラベル候補を特定する(S106)。そして、標識特定部38が、各検索条件部分画像について、S105に例示する処理により抽出された部分画像特徴に基づいて、S106に例示する処理で特定された検索条件部分画像ラベル候補のうちから、検索条件部分画像に対応する検索条件部分画像ラベルを特定して、この検索条件部分画像ラベルを検索条件部分画像に関連付ける(S107)。そして、標識分布情報生成部40が、各検索条件部分画像に関連付けられた検索条件部分画像ラベルを集計して、ヒストグラムに対応する標識分布情報50を生成して、この標識分布情報50を検索条件画像に関連づける(S108)。そして、類似度算出部42が、S108に例示する処理で生成された標識分布情報50に対応するヒストグラムと、各検索対象画像に関連づけられているヒストグラムと、の距離を算出する(S109)。そして、画像出力部44が、S109に例示する処理で算出された距離が小さなものから順にn個の検索対象画像を特定して、これらの画像をディスプレイなどのUI部16に表示出力する(S110)。
First, the
なお、本実施形態に係る画像処理装置10で行われる処理の流れは上述の処理例の処理の流れには限定されない。例えば、画像処理装置10は、S102〜S103に例示する処理と、S104〜S105に例示する処理の順序を入れ替えて実行しても構わない。また、画像処理装置10は、S102〜S103に例示する処理と、S104〜S105に例示する処理と、を並行して実行しても構わない。
Note that the flow of processing performed by the
なお、本発明は上述の実施形態に限定されるものではない。 In addition, this invention is not limited to the above-mentioned embodiment.
[コードブック情報の生成]
例えば、画像処理装置10は、予め、コードブック情報の基礎となる複数の画像(以下、コードブック基礎画像と呼ぶ。)に基づいて、上述のコードブック情報を生成するようにしてもよい。具体的には、例えば、画像処理装置10が、予め複数のコードブック基礎画像を取得して、各コードブック基礎画像について、コードブック基礎画像に含まれる各画素について抽出された画像特徴をk−means法などのクラスタリング手法により分類して、各分類の中心値を特定してもよい。そして、画像処理装置10が、例えば、分類番号(分類ID)と、この分類番号(分類ID)に対応する分類の中心値との組合せを含むコードブック情報を生成して、コードブック情報記憶部30に出力してもよい。そして、全体画像特徴抽出部28が、検索条件画像に含まれる画素の画像特徴と各分類の中心値とを比較して、最も近い分類に対応する分類番号(分類ID)を量子化の結果として特定してもよい。なお、検索対象画像をコードブック基礎画像として用いても構わない。
[Generate Codebook Information]
For example, the
[画像分類モデルの構築]
また、画像種類特定部32は、例えば、サポートベクタマシン等の識別器を用いた学習により構築される画像分類モデルを用いて検索条件画像の画像カテゴリを特定してもよい。ここで、サポートベクタマシン等の識別器を用いた画像分類モデルの構築方法の一例について説明する。
[Building an image classification model]
Further, the image
画像分類モデルの構築は、例えば、学習コーパスを用いて行われる。学習コーパスは、例えば、複数の単位情報52を含んでいる(図7参照)。図7は、単位情報52の一例を示す図である。図7に示すように、単位情報52は、学習用画像54と、学習用画像54に関連付けられた画像カテゴリと、学習用画像54内の一部の領域に関連付けられたラベルと、を含んでいる。
The construction of the image classification model is performed using a learning corpus, for example. The learning corpus includes, for example, a plurality of unit information 52 (see FIG. 7). FIG. 7 is a diagram illustrating an example of the
画像分類モデルの学習の際には、例えば、識別器は、学習用画像54を、特定の画像カテゴリの画像とその他の画像カテゴリの画像とに分け、特定の画像カテゴリの画像から得られた全体画像特徴量を正例、その他のカテゴリの画像から得られた全体画像特徴量を負例として学習する。
When learning the image classification model, for example, the classifier divides the learning
なお、画像処理装置10は、クラスタリング手法により画像分類モデルを構築してもよい。この場合は、学習用画像54と画像カテゴリとが予め関連付けられている必要はない。
Note that the
[相関モデルデータの生成]
また、相関モデルデータ46は、例えば、予め、複数の学習用画像54に基づいて生成され、モデルデータ記憶部36に記憶されていてもよい。ここで、相関モデルデータ46の生成方法の一例について説明する。
[Creation of correlation model data]
The
例えば、画像処理装置10が、ある画像カテゴリCに関連づけられている複数の学習用画像54を特定する。そして、画像領域分割部24が、特定されたこれらの学習用画像54それぞれについて、複数の領域に分割する。学習用画像54が分割された各領域は、学習用画像54の部分画像(以下、学習用部分画像56と呼ぶ。)に対応する(図8参照)。図8は、図7に示す単位情報52に含まれる学習用画像54を複数の領域に分割することにより特定される、学習用部分画像56の一例を示す図である。
For example, the
そして、画像処理装置10は、各学習用部分画像56に対応するラベル(学習用部分画像ラベル)を特定する。画像処理装置10は、具体的には、例えば、関連づけられている学習用部分画像56内の領域の面積が最大であるラベルを、学習用部分画像56に対応するラベルとして特定する。そして、画像処理装置10は、特定された学習用部分画像ラベルを学習用部分画像56に関連づける。
Then, the
そして、画像処理装置10は、画像カテゴリCに関連づけられている各学習用画像54について、各学習用部分画像ラベルが学習用部分画像56に関連づけられている数を計算する。そして、画像処理装置10は、画像カテゴリCに関連づけられている各学習用画像54について計算される、学習用部分画像56に関連づけられている各学習用部分画像ラベルの数の比率に基づいて、画像カテゴリがCであるという条件の下で、この画像にLである部分画像ラベルが出現する確率P(L|C)を計算する。
Then, for each learning
なお、画像処理装置10は、画像カテゴリCに関連づけられている各学習用画像54について、各学習用部分画像ラベルに関連づけられている学習用部分画像56内の領域の面積を計算してもよい。そして、画像処理装置10は、画像カテゴリCに関連づけられている各学習用画像54について計算される、各学習用部分画像ラベルに関連づけられている学習用部分画像56内の領域の面積の合計の比率に基づいて、画像カテゴリがCであるという条件の下で、この画像にLである部分画像ラベルが出現する確率P(L|C)を計算してもよい。
The
また、画像処理装置10は、例えば、学習用画像54内における位置に対するラベルの出現確率を、例えば、ある画像カテゴリCに関連づけられる各学習用画像54について、あるラベルが関連付けられた学習用部分画像を代表する点(例えば、学習用部分画像の中心の点や、学習用部分画像の左上端の点など)の位置xの集計結果であるサンプル集合{x1,x2,・・・xN}を、混合ガウス分布により近似することでモデル化する。画像処理装置10は、例えば、次式で定義される対数尤度が最大となるλ、μ、Σを特定することで、学習用画像54内における位置に対するラベルの出現確率をモデル化する。
[部分画像分類モデルデータの生成]
また、部分画像分類モデルデータ48は、例えば、予め、複数の学習用画像54に基づいて生成され、モデルデータ記憶部36に記憶されていてもよい。ここで、部分画像分類モデルデータ48の生成方法の一例について説明する。
[Generation of partial image classification model data]
Further, the partial image
例えば、画像処理装置10は、学習コーパスに含まれる各学習用画像54に関連付けられているラベルの出現回数に基づいて、各ラベルが学習用画像54に出現する確率(例えば、Lであるラベルが学習用画像54に出現する確率P(L)など)を算出する。そして、画像処理装置10は、学習用部分画像ラベルがLであるという条件の下で、この学習用部分画像ラベルに対応する学習用部分画像の部分画像特徴がyである確率P(y|L)を、学習コーパスに含まれる各学習用画像54について、特定の学習用部分画像ラベルに関連付けられている、学習用部分画像56の部分画像特徴(例えば、Lである部分画像ラベルに関連付けられている学習用画像54内の部分画像の部分画像特徴)の集計結果{y1,y2,・・・yN}を、混合ガウス分布により近似することでモデル化する。画像処理装置10は、例えば、次式で定義される対数尤度が最大となるλ、μ、Σを特定することで、学習用部分画像ラベルがLであるという条件の下で、この学習用部分画像ラベルに対応する部分画像の部分画像特徴がyである確率P(y|L)をモデル化する。
なお、上記の具体的な数値や文字列は例示であり、これらの数値や文字列には限定されない。 Note that the above specific numerical values and character strings are examples, and are not limited to these numerical values and character strings.
10 画像処理装置、12 制御部、14 記憶部、16 ユーザインタフェース(UI)部、20 画像記憶部、22 画像受付部、24 画像領域分割部、26 部分画像特徴抽出部、28 全体画像特徴抽出部、30 コードブック情報記憶部、32 画像種類特定部、34 標識候補特定部、36 モデルデータ記憶部、38 標識特定部、40 標識分布情報生成部、42 類似度算出部、44 画像出力部、46 相関モデルデータ、48 部分画像分類モデルデータ、50 標識分布情報、52 単位情報、54 学習用画像、56 学習用部分画像。
DESCRIPTION OF
Claims (3)
前記各部分画像について、標識、当該部分画像に当該標識が出現する確率、及び、当該標識に対応する部分画像の特徴量がある値である確率の確率分布を表すパラメータ、が関連付けられた情報と、当該部分画像の特徴量と、に基づいて、前記標識の候補のそれぞれについての、当該標識の候補に対応する当該部分画像の特徴量がある値である確率を計算する計算手段、
前記各部分画像について、前記計算手段による計算結果に基づいて、当該部分画像に関連付けられる標識の候補のうちから、当該部分画像に関連付けられる標識を特定する標識特定手段、
複数の画像を記憶する記憶手段から取得される、前記各部分画像に関連付けられる標識の組合せに応じた画像を出力する画像出力手段、
としてコンピュータを機能させることを特徴とする画像処理プログラム。 A sign for an image type specified based on a distribution of image elements included in the received image, and the sign on the received image under the condition that the received image is the type of the image. probability of occurrence, and a parameter representing the probability distribution of the probability of occurrence of the label in the received in the image, based on the information associated, with the positions a plurality of different partial images with each other in the accepted in the image A label candidate specifying means for specifying a label candidate associated with the partial image, the probability of appearing at a position representative of the partial image being higher .
For each partial image, information associated with a sign, a probability that the sign appears in the partial image, and a parameter representing a probability distribution of a probability that the feature amount of the partial image corresponding to the sign is a certain value, and Calculating means for calculating a probability that the feature amount of the partial image corresponding to the marker candidate is a certain value for each of the marker candidates based on the feature amount of the partial image;
For each partial image , based on a calculation result by the calculation unit, a label identifying unit that identifies a label associated with the partial image from among candidate labels associated with the partial image,
Image output means for outputting an image corresponding to a combination of signs obtained from storage means for storing a plurality of images and associated with each partial image;
An image processing program for causing a computer to function as:
ことを特徴とする請求項1に記載の画像処理プログラム。 An image specified by the image output means based on a comparison result between a value corresponding to the sign associated with each partial image and a value corresponding to the sign stored in the storage means. Output,
The image processing program according to claim 1 , wherein:
前記各部分画像について、標識、当該部分画像に当該標識が出現する確率、及び、当該標識に対応する部分画像の特徴量がある値である確率の確率分布を表すパラメータ、が関連付けられた情報と、当該部分画像の特徴量と、に基づいて、前記標識の候補のそれぞれについての、当該標識の候補に対応する当該部分画像の特徴量がある値である確率を計算する計算手段と、
前記各部分画像について、前記計算手段による計算結果に基づいて、当該部分画像に関連付けられる標識の候補のうちから、当該部分画像に関連付けられる標識を特定する標識特定手段と、
複数の画像を記憶する記憶手段から取得される、前記各部分画像に関連付けられる標識の組合せに応じた画像を出力する画像出力手段と、
を含むことを特徴とする画像処理装置。 A sign for an image type specified based on a distribution of image elements included in the received image, and the sign on the received image under the condition that the received image is the type of the image. probability of occurrence, and a parameter representing the probability distribution of the probability of occurrence of the label in the received in the image, based on the information associated, with the positions a plurality of different partial images with each other in the accepted in the image A label candidate specifying means for specifying a candidate for a label associated with the partial image, the probability of appearing at a position representing the partial image being higher ,
For each partial image, information associated with a sign, a probability that the sign appears in the partial image, and a parameter representing a probability distribution of a probability that the feature amount of the partial image corresponding to the sign is a certain value, and Calculating means for calculating the probability that the feature amount of the partial image corresponding to the marker candidate is a certain value for each of the marker candidates based on the feature amount of the partial image;
For each partial image , based on a calculation result by the calculation unit, a label identifying unit that identifies a label associated with the partial image from among candidate labels associated with the partial image;
Image output means for outputting an image according to a combination of signs obtained from storage means for storing a plurality of images and associated with each partial image;
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009272853A JP5413156B2 (en) | 2009-11-30 | 2009-11-30 | Image processing program and image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009272853A JP5413156B2 (en) | 2009-11-30 | 2009-11-30 | Image processing program and image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011118481A JP2011118481A (en) | 2011-06-16 |
JP5413156B2 true JP5413156B2 (en) | 2014-02-12 |
Family
ID=44283767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009272853A Expired - Fee Related JP5413156B2 (en) | 2009-11-30 | 2009-11-30 | Image processing program and image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5413156B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6419560B2 (en) * | 2014-12-05 | 2018-11-07 | 株式会社東芝 | Search device, method and program |
JP6283308B2 (en) * | 2014-12-24 | 2018-02-21 | 日本電信電話株式会社 | Image dictionary construction method, image representation method, apparatus, and program |
KR102594951B1 (en) * | 2016-06-03 | 2023-10-27 | 삼성전자주식회사 | Electronic apparatus and operating method thereof |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4298001B2 (en) * | 1998-04-30 | 2009-07-15 | キヤノン株式会社 | Image search apparatus and method |
JP2000090239A (en) * | 1998-09-10 | 2000-03-31 | Matsushita Electric Ind Co Ltd | Image retrieving device |
JP2008033954A (en) * | 2003-04-30 | 2008-02-14 | Seiko Epson Corp | Method and device for file management and method and device for annotation information generation |
JP2009044249A (en) * | 2007-08-06 | 2009-02-26 | Seiko Epson Corp | Image identification method, image identification device, and program |
-
2009
- 2009-11-30 JP JP2009272853A patent/JP5413156B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011118481A (en) | 2011-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | Visual sentiment prediction based on automatic discovery of affective regions | |
US9978003B2 (en) | Utilizing deep learning for automatic digital image segmentation and stylization | |
AU2014321165B2 (en) | Image searching method and apparatus | |
US9349076B1 (en) | Template-based target object detection in an image | |
US8009921B2 (en) | Context dependent intelligent thumbnail images | |
US8594385B2 (en) | Predicting the aesthetic value of an image | |
JP5202148B2 (en) | Image processing apparatus, image processing method, and computer program | |
TW201926140A (en) | Method, electronic device and non-transitory computer readable storage medium for image annotation | |
US9613296B1 (en) | Selecting a set of exemplar images for use in an automated image object recognition system | |
JP2016134175A (en) | Method and system for performing text-to-image queries with wildcards | |
JP2008159056A (en) | Classification through generative model of feature occurring in image | |
CN104063683A (en) | Expression input method and device based on face identification | |
WO2024051609A1 (en) | Advertisement creative data selection method and apparatus, model training method and apparatus, and device and storage medium | |
CN113255557B (en) | Deep learning-based video crowd emotion analysis method and system | |
CN105793867A (en) | Image searching method and apparatus | |
CN106934055B (en) | Semi-supervised webpage automatic classification method based on insufficient modal information | |
Bharath et al. | Scalable scene understanding using saliency-guided object localization | |
JP2016103759A (en) | Image processing apparatus, image processing method, and program | |
CN111553838A (en) | Model parameter updating method, device, equipment and storage medium | |
CN116958957A (en) | Training method of multi-mode feature extraction network and three-dimensional feature representation method | |
CN113642481A (en) | Recognition method, training method, device, electronic equipment and storage medium | |
WO2022247403A1 (en) | Keypoint detection method, electronic device, program, and storage medium | |
Iqbal et al. | Classifier comparison for MSER-based text classification in scene images | |
JP5413156B2 (en) | Image processing program and image processing apparatus | |
JP2013246732A (en) | Handwritten character retrieval apparatus, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121023 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130917 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5413156 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |