JP5633424B2 - Program and information processing system - Google Patents
Program and information processing system Download PDFInfo
- Publication number
- JP5633424B2 JP5633424B2 JP2011036675A JP2011036675A JP5633424B2 JP 5633424 B2 JP5633424 B2 JP 5633424B2 JP 2011036675 A JP2011036675 A JP 2011036675A JP 2011036675 A JP2011036675 A JP 2011036675A JP 5633424 B2 JP5633424 B2 JP 5633424B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- classification
- classifications
- reference value
- specifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 28
- 239000011159 matrix material Substances 0.000 description 32
- 239000003550 marker Substances 0.000 description 26
- 238000003860 storage Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 22
- 238000000034 method Methods 0.000 description 22
- 239000013598 vector Substances 0.000 description 18
- 241001494479 Pecora Species 0.000 description 13
- 238000000605 extraction Methods 0.000 description 12
- 241000282326 Felis catus Species 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000012706 support-vector machine Methods 0.000 description 9
- 230000000052 comparative effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000004040 coloring Methods 0.000 description 2
- 201000011243 gastrointestinal stromal tumor Diseases 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、プログラム及び情報処理システムに関する。 The present invention relates to a program and an information processing system.
近年、画像に検索のためのキーワード(標識、ラベル)を自動的に付与する画像自動アノテーション技術が、画像検索のための1つの重要な技術となっている。この技術により、人がキーワードを画像に付与する作業を不要とすることができる。 In recent years, an image automatic annotation technique for automatically assigning keywords (signs and labels) for retrieval to images has become one important technique for image retrieval. This technique makes it unnecessary for a person to add a keyword to an image.
非特許文献1には、画像から局所的な特徴量を抽出して、その画像全体の分布を計算して画像特徴とし、各ラベルに対して設けられた確率化したバイナリサポートベクタマシンにより、ラベルの事後確率を計算し、一番高い事後確率に対応するラベルを未知画像に付与する技術が開示されている。
In
本発明は、画像の分類精度を従来よりも高くすることを目的とする。 An object of the present invention is to increase the classification accuracy of an image as compared with the prior art.
請求項1に記載の発明は、プログラムであって、複数の分類のうちの少なくとも1つの分類を特定する対象となる画像を受け付ける画像受付手段、前記複数の分類それぞれについて、前記画像受付手段が受け付ける画像の特徴量と、それぞれ前記複数の分類のうちの少なくとも1つの分類に属する複数の画像の特徴量と、に基づいて、前記画像受付手段が受け付ける画像が当該分類に属するか否かを判別する基準となる判別基準値を特定する判別基準値特定手段、前記複数の分類それぞれについて、それぞれ前記複数の分類のうちの少なくとも1つの分類に属する複数の画像に基づいて特定される、当該分類に属する画像が他の分類にも属する可能性、あるいは、当該分類に属さない画像が前記他の分類にも属さない可能性、の少なくとも一方を表す相関情報と、当該分類と前記他の分類についての前記判別基準値と、に基づいて、前記画像受付手段が受け付ける画像が当該分類に属する可能性の高低を表す値を特定する分類属否可能性特定手段、前記分類属否可能性特定手段により特定される前記値に基づいて特定される、前記画像受付手段が受け付ける画像が属する少なくとも1つの分類を示す情報を出力する出力手段、としてコンピュータを機能させることとしたものである。
The invention according to
請求項2に記載の発明は、請求項1に記載のプログラムであって、前記分類属否可能性特定手段が、前記各分類について、当該分類とは異なるすべての分類それぞれについての前記相関情報及び前記判別基準値の組合せに基づいて、前記画像受付手段が受け付ける画像が当該分類に属する可能性の高低を表す値を特定することとしたものである。
Invention of
請求項3に記載の発明は、情報処理システムであって、複数の分類のうちの少なくとも1つの分類を特定する対象となる画像を受け付ける画像受付手段と、前記複数の分類それぞれについて、前記画像受付手段が受け付ける画像の特徴量と、それぞれ前記複数の分類のうちの少なくとも1つの分類に属する複数の画像の特徴量と、に基づいて、前記画像受付手段が受け付ける画像が当該分類に属するか否かを判別する基準となる判別基準値を特定する判別基準値特定手段と、前記複数の分類それぞれについて、それぞれ前記複数の分類のうちの少なくとも1つの分類に属する複数の画像に基づいて特定される、当該分類に属する画像が他の分類にも属する可能性、あるいは、当該分類に属さない画像が前記他の分類にも属さない可能性、の少なくとも一方を表す相関情報と、当該分類と前記他の分類についての前記判別基準値と、に基づいて、前記画像受付手段が受け付ける画像が当該分類に属する可能性の高低を表す値を特定する分類属否可能性特定手段と、前記分類属否可能性特定手段により特定される前記値に基づいて特定される、前記画像受付手段が受け付ける画像が属する少なくとも1つの分類を示す情報を出力する出力手段と、を含むこととしたものである。 The invention according to claim 3 is an information processing system, wherein an image receiving unit that receives an image for specifying at least one of a plurality of classifications, and the image reception for each of the plurality of classifications Whether the image received by the image receiving means belongs to the category based on the feature amount of the image received by the means and the feature amounts of a plurality of images each belonging to at least one of the plurality of classifications A discrimination reference value specifying means for specifying a discrimination reference value serving as a reference for discriminating, and for each of the plurality of classifications, each is specified based on a plurality of images belonging to at least one of the plurality of classifications, There is little possibility that an image belonging to the category belongs to another category, or an image that does not belong to the category does not belong to the other category. Based on the correlation information representing at least one and the discrimination reference value for the classification and the other classification, a value representing the possibility that the image received by the image receiving means belongs to the classification is specified. Output that outputs information indicating at least one classification to which an image received by the image receiving unit is specified, which is specified based on the value specified by the classification attribute possibility determining unit and the classification attribute possibility determining unit Means.
請求項1,3に記載の発明によれば、本発明の構成を有しない場合と比較して、画像の分類精度が高くなる。 According to the first and third aspects of the invention, the image classification accuracy is higher than in the case of not having the configuration of the present invention.
請求項2に記載の発明によれば、画像がある分類に属する可能性の高低が、その分類とは異なるすべての分類との間の相関に基づいて特定される。 According to the second aspect of the present invention, the possibility that an image belongs to a certain class is specified based on the correlation between all classes different from the class.
以下、本発明の一実施形態について図面に基づき詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
図1は、本実施形態に係る情報処理システムとして機能する情報処理装置10のハードウェア構成の一例を示す図である。図1に例示するように、本実施形態に係る情報処理装置10は、例えば、制御部12、記憶部14、ユーザインタフェース(UI)部16、を含んでいる。これらの要素は、バスなどを介して接続される。制御部12は、CPU等のプログラム制御デバイスであり、情報処理装置10にインストールされるプログラムに従って動作する。記憶部14は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部14には、制御部12によって実行されるプログラムなどが記憶される。また、記憶部14は、制御部12のワークメモリとしても動作する。UI部16は、ディスプレイ、マイク、マウス、キーボードなどであり、利用者が行った操作の内容や、利用者が入力した音声を制御部12に出力する。また、このUI部16は、制御部12から入力される指示に従って情報を表示出力したり音声出力したりする。
FIG. 1 is a diagram illustrating an example of a hardware configuration of an
図2は、本実施形態に係る情報処理装置10により実現される機能の一例を示す機能ブロック図である。図2に例示するように、情報処理装置10は、本実施形態では、例えば、画像受付部20、学習モデル情報記憶部22、相関マトリックス情報記憶部24、確率モデル情報記憶部26、特徴量抽出部28、判別基準値算出部30、判別基準値重み付け部32、属否可能性算出部34、分類決定部36、出力部38、学習部40、を含むものとして機能する。学習モデル情報記憶部22、相関マトリックス情報記憶部24、確率モデル情報記憶部26は、記憶部14を主として実現される。その他の要素は制御部12を主として実現される。また、学習部40は、例えば、サポートベクタマシン等の識別器を含んでいる。
FIG. 2 is a functional block diagram illustrating an example of functions realized by the
これらの要素は、コンピュータである情報処理装置10にインストールされたプログラムを、情報処理装置10の制御部12で実行することにより実現されている。このプログラムは、例えば、CD−ROM、DVD−ROMなどのコンピュータ読み取り可能な情報記録媒体を介して、あるいは、インターネットなどの通信手段を介して情報処理装置10に供給される。
These elements are realized by executing a program installed in the
本実施形態では、例えば、画像受付部20が受け付ける画像に、予め定められたL種類の標識(ラベル)のうちの少なくとも1つが関連付けられることとなる。本実施形態では、L種類の標識それぞれに、標識番号j(j=1,・・・,L)が割り当てられている。また、本実施形態では、標識と画像の分類とが1対1で対応している。すなわち、ある分類に属する画像には、その分類に対応する標識が関連付けられることとなる。なお、画像は複数の分類に属することもあり得る。その場合には、画像に複数の標識が関連付けられることとなる。 In the present embodiment, for example, at least one of L types of labels (labels) determined in advance is associated with the image received by the image receiving unit 20. In the present embodiment, a label number j (j = 1,..., L) is assigned to each of the L types of labels. In the present embodiment, there is a one-to-one correspondence between the sign and the image classification. That is, an image belonging to a certain category is associated with a label corresponding to that category. An image may belong to a plurality of categories. In that case, a plurality of signs are associated with the image.
本実施形態では、学習モデル情報記憶部22に、予め、図3に例示する学習モデル情報50が記憶されている。本実施形態では、学習モデル情報50は、情報処理装置10が学習の対象となる複数の画像(学習画像)を学習することにより生成される。学習モデル情報50は、上述の標識番号、サポートベクタ情報、パラメータ情報、を含んでいる。学習モデル情報50は、例えば、標識に対応する特徴量と他の標識に対応する特徴量とを識別するバイナリサポートベクタマシンの学習モデルを表す情報である。サポートベクタ情報及びパラメータ情報は、後述する判別基準値を算出する基礎となる情報である。また、図3に示すように、標識番号iに対応付けられるサポートベクタ情報の値は(xi1,xi2,・・・,xiNi)、パラメータ情報の値は(ai1,ai2,・・・,aiNi)及びbiである。学習画像に基づく、学習モデル情報50の生成処理については後述する。
In the present embodiment, learning
また、本実施形態では、相関マトリックス情報記憶部24に、予め、図4に例示する第1の相関マトリックス情報52−1、及び、図5に例示する第2の相関マトリックス情報52−2が記憶されている。第1の相関マトリックス情報52−1、及び、第2の相関マトリックス情報52−2は、情報処理装置10が複数の学習画像を学習することにより生成される。これらの学習画像は、学習モデル情報50の生成の際に用いられる学習画像と同じであっても異なっていても構わない。第1の相関マトリックス情報52−1のi行j列の値Rijには、例えば、標識番号jの標識が関連付けられている学習画像に標識番号iの標識も関連付けられている条件付確率P(Ci|Cj)と、学習画像に標識番号iの標識が関連付けられている確率P(Ci)との差の絶対値Rij=|P(Ci)−P(Ci|Cj)|が設定される。学習画像に標識番号jの標識が関連付けられているときに、その学習画像に標識番号iの標識も関連付けられている場合には、そうでない場合よりもP(Ci|Cj)の値が大きくなる。一方、学習画像に標識番号jの標識が関連付けられていないときに、その学習画像に標識番号iの標識も関連付けられていない場合には、そうでない場合よりもP(Ci|Cj)の値が小さくなる。いずれにしても、標識番号iの標識と標識番号jの標識とに学習画像に関連付けられているか否かについての相関がある場合には、|P(Ci)−P(Ci|Cj)|の値は大きくなる。一方、その相関がない場合は、|P(Ci)−P(Ci|Cj)|の値は小さくなる。独立である場合は、|P(Ci)−P(Ci|Cj)|の値はゼロとなる。
Further, in the present embodiment, first correlation matrix information 52-1 exemplified in FIG. 4 and second correlation matrix information 52-2 exemplified in FIG. 5 are stored in the correlation matrix information storage unit 24 in advance. Has been. The first correlation matrix information 52-1 and the second correlation matrix information 52-2 are generated by the
一方、第2の相関マトリックス情報52−2のi行j列の値R’ijには、例えば、標識番号jの標識が関連付けられていない学習画像に標識番号iの標識も関連付けられていない条件付確率P(C’i|C’j)と、学習画像に標識番号iの標識が関連付けられていない確率P(C’i)との差の絶対値R’ij=|P(C’i)−P(C’i|C’j)|が設定される。 On the other hand, the value R ′ ij in the i-th row and j-th column of the second correlation matrix information 52-2 is, for example, a condition in which the sign of the sign number i is not associated with the learning image that is not associated with the sign of the sign number j. The absolute value R ′ ij = | P (C ′ i ) of the difference between the assigned probability P (C ′ i | C ′ j ) and the probability P (C′i) that the sign of the sign number i is not associated with the learning image ) -P (C ′ i | C ′ j ) | is set.
また、本実施形態では、確率モデル情報記憶部26に、予め、図6に例示する確率モデル情報54が記憶されている。本実施形態では、確率モデル情報54は、情報処理装置10が複数の学習画像を学習することにより生成される。これらの学習画像は、確率モデル情報54の生成の際に用いられる学習画像と同じであっても異なっていても構わない。確率モデル情報54は、L行L列の行列(i行j列の値はチルダAij(上方に〜が配置されたAij))であるパラメータチルダA及び各行に割り当てられる要素(i行に対応付けられるこの要素の値はチルダBi(上方に〜が配置されたBi))であるパラメータチルダBが含まれている。本実施形態では、図6に示すように、確率モデル情報54における、i行目のパラメータが、標識番号iの標識に対応するパラメータとなっている。確率モデル情報54は、本実施形態では、例えば、sigmoid関数のパラメータベクトルである。学習画像に基づく、確率モデル情報54の生成処理については後述する。
In the present embodiment,
ここで、本実施形態に係る情報処理装置10で行われる処理の流れの一例を、図7に例示するフロー図を参照しながら説明する。
Here, an example of the flow of processing performed by the
まず、画像受付部20が、分類の対象となる画像(すなわち、上述のL種類の標識のうちの少なくとも1つが関連付けられることとなる画像)を受け付けて、この画像の画素行列を出力する(S101)。以下、S101に示す処理で受け付ける画像を、受付画像と呼ぶこととする。なお、S101に示す処理で、一般的な前処理(例えば、移動、色の修正、変形、フォーマットの変換、ノイズ削除等)を行ってもよい。 First, the image receiving unit 20 receives an image to be classified (that is, an image to which at least one of the above-described L types of signs is associated), and outputs a pixel matrix of this image (S101). ). Hereinafter, the image received in the process shown in S101 is referred to as a received image. Note that general preprocessing (for example, movement, color correction, transformation, format conversion, noise deletion, etc.) may be performed in the processing shown in S101.
そして、特徴量抽出部28が、例えば、受付画像の特徴量を特定する(S102)。本処理例では、特徴量抽出部28は、例えば、受付画像に含まれる各画素のRGB値、normalized−RGB値、HSV値、LAB値、robustHue特徴量(van de Weijer, C. Schmid, "Coloring Local Feature Extraction", ECCV 2006を参照)Gabor特徴量、DCT特徴量、SIFT特徴量、GIST特徴量等を特定する。そして、特徴量抽出部28は、予め、学習コーパスからK−Meansクラスタリングによって生成されたコードブックに基づいて、抽出された特徴量を量子化する。そして、特徴量抽出部28は、量子化された特徴量の受付画像全体におけるヒストグラムを、S102に示す処理における特徴量ベクトルxとして特定する。 Then, the feature amount extraction unit 28 specifies, for example, the feature amount of the received image (S102). In the present processing example, the feature amount extraction unit 28, for example, the RGB value, normalized-RGB value, HSV value, LAB value, robustHue feature amount (van de Weijer, C. Schmid, “Coloring”) of each pixel included in the received image. Local Feature Extraction "(Refer to ECCV 2006) Gabor feature value, DCT feature value, SIFT feature value, GIST feature value, etc. are specified. Then, the feature quantity extraction unit 28 quantizes the extracted feature quantity in advance based on a codebook generated by K-Means clustering from the learning corpus. Then, the feature amount extraction unit 28 specifies the histogram of the entire received image of the quantized feature amount as the feature amount vector x in the process shown in S102.
そして、判別基準値算出部30が、S102に示す処理で特定された受付画像の特徴量と、学習モデル情報記憶部22に予め記憶されている学習モデル情報50とに基づいて、受付画像が各分類に属するか否か(受付画像に標識を関連付けるか否か)を判別する基準となる値である判別基準値を算出する(S103)。本実施形態では、判別基準値算出部30は、例えば、各分類について(各標識について)、判別基準値を算出する。例えば、判別基準値算出部30は、次式を計算することにより、標識番号iの標識に対応付けられる判別基準値Fi(i=1,・・・,L)を算出する。なお、次式において、Kはカーネル関数(例えば、ガウシアンカーネル)、太文字のxはS102に示す処理で特定される受付画像の特徴量ベクトルである。xinは、学習モデル情報50に含まれるサポートベクタ情報の値である。ain及びbiの値は、学習モデル情報50に含まれるパラメータ情報の値である。判別基準値Fiは、標識に対応する分類に属する画像については、大きな値をとり、その他の画像については小さな値をとる。判別基準値は、例えば、対応する分類と他の分類とを識別するバイナリサポートベクタマシンの決定関数の出力である。
Then, the discrimination reference
そして、判別基準値重み付け部32が、S103に示す処理で算出された、標識番号iの標識に対応付けられる判別基準値Fi(i=1,・・・,L)に対する、相関マトリックス情報52に基づく重み付けを行う(S104)。判別基準値重み付け部32は、具体的には、例えば、各標識について、その標識に対応付けられるL個の重み付け済判別基準値を算出する。以下、標識番号iの標識に対応付けられるL個の重み付け済判別基準値をF’ij(j=1,・・・,L)で表すこととする。
The discrimination reference
判別基準値重み付け部32は、例えば、標識番号j(j=1,・・・,L)の標識に対応付けられる判別基準値Fjの値がゼロより大きい際に、第1の相関マトリックス情報52−1に含まれる値Rjiが予め定められた閾値よりも大きいか否かを確認する。そして、判別基準値重み付け部32は、値Rjiが閾値よりも大きい場合に、重みwijの値を1に設定し、そうでない場合に、重みwijの値を0に設定する。標識番号j(j=1,・・・,L)の標識に対応付けられる判別基準値Fjの値がゼロより小さい際に、第2の相関マトリックス情報52−2に含まれる値R’jiが予め定められた閾値よりも大きいか否かを確認する。そして、判別基準値重み付け部32は、値R’jiが閾値よりも大きい場合に、重みwijの値を1に設定し、そうでない場合に、重みwijの値を0に設定する。そして、判別基準値重み付け部32は、F’ij=Fj×wijという数式に従って、F’ij(j=1,・・・,L)の値を算出する。以上の処理を各i(i=1,・・・,L)について繰り返し実行することで、F’ij(i=1,・・・,L,j=1,・・・,L)の値が算出される。
For example, the discrimination reference
そして、属否可能性算出部34が、F’ijの値、及び、確率モデル情報54に基づいて、次式を計算することにより、各i(i=1,・・・,L)についての、属否可能性の値チルダpi(上方に〜が配置されたpi)の値を算出する(S105)。次式において、Tは特徴量を表している。チルダAij及びチルダBiの値は、上述の確率モデル情報54に含まれる値を指す。チルダpiは標識番号iの標識に対応する事後確率である。
Then, the affiliation
そして、分類決定部36は、チルダpi(i=1,・・・,L)の値に基づいて、受付画像が属する分類(すなわち、受付画像に関連付けられる標識)を決定する(S106)。本実施形態では、分類決定部36は、例えば、チルダpi(i=1,・・・,L)の値が予め定められた閾値以上である標識番号を特定する。そして、分類決定部36は、特定された標識番号のうち、チルダpi(i=1,・・・,L)の値が大きいものから順に、予め定められた個数以下の標識番号を特定する。分類決定部36は、このようにして特定された標識番号に対応する分類を、受付画像が属する分類として特定する。 Then, the classification determination unit 36 determines the classification to which the received image belongs (that is, the label associated with the received image) based on the value of the tilde p i (i = 1,..., L) (S106). In the present embodiment, the classification determination unit 36 identifies a label number whose tilde p i (i = 1,..., L) is greater than or equal to a predetermined threshold value, for example. Then, the classification determination unit 36 specifies a number of label numbers equal to or less than a predetermined number in order from the identified label number in descending order of the value of the tilde p i (i = 1,..., L). . The classification determination unit 36 specifies the classification corresponding to the label number specified in this way as the classification to which the received image belongs.
そして、出力部38が、S106に示す処理で決定された分類に対応する少なくとも1つの標識を受付画像に関連付けて、記憶部14に出力するとともに、標識番号をディスプレイ等のUI部16に表示出力する(S107)。このようにして、本処理例によれば、受付画像が属する分類が決定され、対応する標識が受付画像に関連付けられるとともに、標識番号がディスプレイ等に表示出力されることとなる。
Then, the
ここで、情報処理装置10による学習モデル情報50の生成処理の一例について説明する。
Here, an example of the generation process of the
まず、画像受付部20が、学習の対象となる画像(学習画像)を複数(例えば、N個)受け付ける。各学習画像には、その学習画像が属する分類に対応する標識が少なくとも1つ関連付けられている。そして、特徴量抽出部28は、各学習画像の特徴量を抽出する。特徴量抽出部28は、具体的には、例えば、学習画像に含まれる各画素のRGB値、normalized−RGB値、HSV値、LAB値、robustHue特徴量(van de Weijer, C. Schmid, "Coloring Local Feature Extraction", ECCV 2006を参照)、Gabor特徴量、DCT特徴量、SIFT特徴量、GIST特徴量等を特定する。そして、特徴量抽出部28は、予め、学習コーパスからK−Meansクラスタリングによって生成されたコードブックに基づいて、抽出された特徴量を量子化する。そして、特徴量抽出部28は、量子化された特徴量の受付画像全体におけるヒストグラムを、学習画像の特徴量ベクトルとして特定する。以下、第nの学習画像(n=1,・・・,N)から特定される特徴量ベクトルをxnで表す。 First, the image receiving unit 20 receives a plurality (for example, N) of images (learning images) to be learned. Each learning image is associated with at least one sign corresponding to the classification to which the learning image belongs. Then, the feature amount extraction unit 28 extracts the feature amount of each learning image. Specifically, the feature quantity extraction unit 28, for example, includes RGB values, normalized-RGB values, HSV values, LAB values, robustHue feature values (van de Weijer, C. Schmid, “Coloring”) of each pixel included in the learning image. Local Feature Extraction "(see ECCV 2006), Gabor feature, DCT feature, SIFT feature, GIST feature, etc. Then, the feature quantity extraction unit 28 quantizes the extracted feature quantity in advance based on a codebook generated by K-Means clustering from the learning corpus. Then, the feature amount extraction unit 28 specifies the histogram of the entire received image of the quantized feature amount as the feature amount vector of the learning image. Hereinafter, a feature vector identified from the nth learning image (n = 1,..., N) is represented by xn .
そして、学習部40は、各識別番号j(j=1,・・・,L)についての、サポートベクタ情報及びパラメータ情報の特定処理を実行する。ここで、識別番号jのサポートベクタ情報及びパラメータ情報の特定処理は、例えば、第nの学習画像(n=1,・・・,N)の特徴量ベクトルxnと、第nの学習画像が識別番号jに対応する標識に関連付けられているか否かを示す値tn(識別番号jに対応する標識に関連付けられている場合は、tn=+1。そうでない場合は、tn=0。)とを対応付ける処理(この処理により、N組のベクトルと値の組合せ(x1,t1),・・・,(xN,tN)が生成される。)、これらN組のベクトルと値の組合せをサポートベクタマシン(SVM)により学習する処理(例えば、N.Cristianini and J.Shawe-Taylor, "An Introduction to Support Vector Machines and Other Kernel-based Learning Methods", Chapter6. Cambridge University Press 2000の最適化基準のもとで、1-v-OthersのバイナリSVMのパラメータを学習する処理)、識別番号jに対応するサポートベクタ情報及びパラメータ情報を特定する処理、を順に実行することにより実現される。本実施形態では、学習部40は、tn=+1に対応付けられている特徴量ベクトルxnを正例として、tn=0に対応付けられている特徴量ベクトルxnを負例として学習する。そして、学習部40は、上述のようにして特定されたサポートベクタ情報及びパラメータ情報に、対応する識別番号が関連付けられた学習モデル情報50を学習モデル情報記憶部22に出力する。
And the learning
このようにして、学習モデル情報記憶部22に学習モデル情報50が記憶されることとなる。
In this way, the
次に、情報処理装置10による確率モデル情報54の生成処理の一例について説明する。
Next, an example of processing for generating the
まず、画像受付部20が、学習の対象となる画像(学習画像)を複数受け付ける。これらの学習画像は、学習モデル情報50の生成処理に用いた学習画像と同じものであっても異なっていても構わない。ここでは、標識番号iの標識の学習に用いられる学習画像の数は、Miであることとする。各学習画像には、その学習画像が属する分類に対応する標識が少なくとも1つ関連付けられている。そして、情報処理装置10は、各学習画像について、上述のS102〜S104に示す処理と同様の処理により、重み付け済判別基準値(Fij n)’を特定する。そして、学習部40が、学習の対象となる標識(例えば、標識番号iの標識)が関連付けられている学習画像の重み付け済判別基準値を正例として取り扱い(ti n=+1)、学習の対象となる標識(例えば、標識番号iの標識)が関連付けられていない学習画像の重み付け済判別基準値を負例として取り扱う(ti n=0)設定を行った上で、次式で表される尤度が最大となるパラメータチルダAij及びチルダBiを、バックトラッキング線形探索法(backtracking linear search)を用いたニュートン法によって(Nocedal,J.and S.J.Wright: “Numerical Optimization” Algorithm 6.2. New York, NY: Springer- Verlag, 1999.参照)計算する。次式において、(Fij n)’の値は、標識番号iの標識の学習に用いられるn番目の学習画像(n=1,・・・,Mi)についての重み付け済判別基準値を表している。また、Tは特徴量を表している。
First, the image receiving unit 20 receives a plurality of images (learning images) to be learned. These learning images may be the same as or different from the learning images used for the generation process of the
そして、学習部40は、上述のようにして特定されたチルダAij及びチルダBiの値が含まれる確率モデル情報54を確率モデル情報記憶部26に出力する。
Then, the
このようにして、確率モデル情報記憶部26に確率モデル情報54が記憶されることとなる。
In this way, the
ここで、本実施形態の一比較例について説明する。 Here, a comparative example of the present embodiment will be described.
本比較例に係る情報処理装置10は、図2に例示する構成と比較して、判別基準値重み付け部32を含まないという点が異なる。
The
また、本比較例では、確率モデル情報記憶部26に、図8に例示する確率モデル情報54が記憶される。この確率モデル情報54では、例えば、各識別番号について2つのパラメータ(例えば、識別番号iに対しては、パラメータAi及びパラメータBi)が関連付けられている。
In this comparative example, the
そして、本比較例では、学習部40は、学習対象となる複数の画像それぞれについて、k番目の学習画像が学習の対象となる標識(例えば、標識番号iの標識)が関連付けられている場合に判別基準値Fkを正例として取り扱い(tk=+1)、学習の対象となる標識(例えば、標識番号iの標識)が関連付けられていない場合に判別基準値Fkを負例として取り扱う(tk=0)設定を行った上で、次式で表される尤度が最大となるパラメータAi及びBiを、バックトラッキング線形探索法(backtracking linear search)を用いたニュートン法によって(Nocedal,J.and S.J.Wright: “Numerical Optimization” Algorithm 6.2. New York, NY: Springer- Verlag, 1999.参照)計算する。次式において、Fkの値は、標識番号iの標識の学習に用いられるk番目の学習画像についての判別基準値Fkの値を表している。また、A、Bの値は、それぞれ、標識番号iに対応するパラメータA、Bの値を示している。
And in this comparative example, the learning
そして、本比較例では、属否可能性算出部34が、受付画像のついての判別基準値Fi(i=1,・・・,L)の値、及び、確率モデル情報54に基づいて、次式を計算することにより、各i(i=1,・・・,L)についての、属否可能性の値piの値を算出する(S105)。次式において、piが標識番号iの標識に対応する事後確率である。また、A、Bの値は、それぞれ、標識番号iに対応するパラメータA、Bの値を示している。
Then, in this comparative example, the attribute
本実施形態に係る情報処理装置10は、相関マトリックス情報52を用いて属否可能性の値を算出するという点が少なくとも比較例に係る情報処理装置10と異なっている。
The
ここで、本実施形態に係る情報処理装置10により相関マトリックス情報52に基づく重み付け済判別基準値の算出を行う場合と、行わない場合との比較結果の一例について説明する。なお、ここでは、図9に例示する第1相関マトリックス情報52−1及び図10に例示する第2相関マトリックス情報52−2を用いることとする。
Here, an example of a comparison result between the case where the
以下の説明では、例えば、標識sheepに対応付けられる重み付け済判別基準値の値をFsheepと、標識sheepに対応する事後確率をPsheep、標識sheepに対応する上述したtの値をtsheepで表す。なお、標識sheep以外の標識についても同様の表現とする。 In the following description, for example, the value of the weighted discriminating reference value associated with the sign “sheep” is F sheep , the posterior probability corresponding to the sign “sheep” is P Sheep , and the value of t described above corresponding to the sign “sheep” is t Sheep . Represent. In addition, it is set as the same expression also about labels other than label | marker sheep.
まず、第1の相関マトリックス情報52−1に基づく重み付け済判別基準値の算出を行う場合と行わない場合との比較結果の一例について説明する。図11に、第1の相関マトリックス情報52−1を用いて重み付け済判別基準値の算出を行う場合と行わない場合との、標識の認識率の比較結果を示す。図11で実施した比較では、判別基準値の値が0より大きい画像を用いた。また、図11において、丸印は、重み1が設定されるデータを示しており、バツ印は、重み0が設定されるデータを示している。
First, an example of a comparison result between when the weighted discrimination reference value is calculated based on the first correlation matrix information 52-1 and when not calculated will be described. FIG. 11 shows a comparison result of the recognition rate of the sign when the weighted discrimination reference value is calculated using the first correlation matrix information 52-1 and when it is not calculated. In the comparison performed in FIG. 11, an image having a discrimination reference value larger than 0 was used. In FIG. 11, circles indicate data for which
図11のFmotorbikeに着目し、重み付け済判別基準値の算出を行う場合と行わない場合との違いを可視化する。図12に、標識motorbikeに対する判別基準値によって、最適化された標識sheepのsigmoid関数を示す。ここでは、Fmotorbike>0の判別基準値も選択の対象となる。図13に、同一の判別基準値に対して、図9に例示する第1の相関マトリックス情報52−1に基づき、Fmotorbike>0の判別基準値を事後確率の算出の基礎としないようにした、標識sheepのsigmoid関数の、標識motorbikeの判別基準値に依存する部分を示す。図12でも図13でも、Fmotorbike<0の判別基準値については選択されている。 Focusing on F motorbike in FIG. 11, the difference between when the weighted discrimination reference value is calculated and when it is not calculated is visualized. FIG. 12 shows the sigmoid function of the label sheep optimized by the discrimination reference value for the label motorbike. Here, the discrimination reference value of F motorbike > 0 is also a selection target. In FIG. 13, for the same discriminant reference value, based on the first correlation matrix information 52-1 illustrated in FIG. 9, the discriminant reference value of F motorbike > 0 is not used as the basis for calculating the posterior probability. The part depending on the discriminant reference value of the label motorbike of the sigmoid function of the label sheep In both FIG. 12 and FIG. 13, the discrimination reference value of F motorbike <0 is selected.
図12及び図13において、丸印の点は、標識sheepが関連付けられている画像から抽出した特徴量(tsheep=1)であり、バツ印の点は、標識sheepが関連付けられていない画像から抽出した特徴量(tsheep=0)である。横軸は、標識motorbikeの学習モデルに対応する判別基準値Fmotorbikeを示している。図13の例では、Fmotorbike<0のデータについては、判別基準値の重みが1となる。Fmotorbike>0のデータについては、判別基準値の重みが0となる。 In FIG. 12 and FIG. 13, the circled points are feature amounts (t sheep = 1) extracted from the image associated with the marker shape, and the crossed points are obtained from the image not associated with the marker shape. The extracted feature amount (t sheep = 0). The horizontal axis indicates the discrimination reference value F motorbike corresponding to the learning model of the marker motorbike. In the example of FIG. 13, the weight of the discrimination reference value is 1 for data of F motorbike <0. For data of F motorbike > 0, the weight of the discrimination reference value is 0.
図12ではFmotorbike>0に該当するデータ(図12の右半分のデータ)の影響で、sigmoid関数の特性が、図13のsigmoid関数よりも緩やかなカーブとなり、Fmotorbikeの値がPsheepの値に与える影響が小さくなっていることがわかる。一方、図13ではFmotorbikeの値がPsheepの値に与える影響が図12のsigmoid関数よりも大きくなっていることがわかる。また、図11に示すように、本比較結果では、第1の相関マトリックス情報52−1を用いて重み付け済判別基準値の算出を行う場合の方が、行わない場合よりも、標識sheepの認識率が高くなっている。 Under the influence of FIG. 12, data corresponding to F motorbike> 0 (the right half of the data in FIG. 12), characteristic of sigmoid function becomes a gentle curve than sigmoid function of Fig. 13, the value of F motorbike is P sheep It can be seen that the effect on the value is small. On the other hand, in FIG. 13, it can be seen that the influence of the value F motorbike on the value of P sheep is greater than that of the sigmoid function of FIG. In addition, as shown in FIG. 11, in this comparison result, the recognition of the marker shape is performed when the weighted discrimination reference value is calculated using the first correlation matrix information 52-1, rather than when it is not performed. The rate is high.
次に、第2の相関マトリックス情報52−2を用いて重み付け済判別基準値の算出を行う場合と行わない場合との比較結果の一例について説明する。図14に、第2の相関マトリックス情報52−2を用いて重み付け済判別基準値の算出を行う場合と行わない場合との、標識の認識率の比較結果を示す。図14で実施した比較では、判別基準値の値が0より小さい画像を用いた。また、図14において、丸印は、重みとして1が設定されるデータを示しており、バツ印は、重みとして0が設定されるデータを示している。 Next, an example of a comparison result between the case where the weighted determination reference value is calculated using the second correlation matrix information 52-2 and the case where the weighted determination reference value is not calculated will be described. FIG. 14 shows a comparison result of the recognition rate of the sign when the weighted discrimination reference value is calculated using the second correlation matrix information 52-2 and when it is not calculated. In the comparison performed in FIG. 14, an image having a discrimination reference value smaller than 0 was used. In FIG. 14, circles indicate data for which 1 is set as the weight, and crosses indicate data for which 0 is set as the weight.
図14のFpersonに着目し、重み付け済判別基準値の算出を行う場合と行わない場合との違いを可視化する。図15に、標識personに対する判別基準値によって、最適化された標識catのsigmoid関数を示す。ここでは、Fperson<0の判別基準値も選択の対象となる。図16に、同一の判別基準値に対して、図15に例示する第2の相関マトリックス情報52−2に基づき、Fperson<0の判別基準値を事後確率の算出の基礎としないようにした、標識catのsigmoid関数の、標識personの判別基準値に依存する部分を示す。図15でも図16でも、Fperson>0の判別基準値については選択されている。 Focusing on F person in FIG. 14, the difference between the case where the weighted discrimination reference value is calculated and the case where it is not calculated is visualized. FIG. 15 shows the sigmoid function of the label cat optimized by the discrimination reference value for the label person. Here, a discrimination reference value of Fperson <0 is also a selection target. In FIG. 16, for the same discriminant reference value, based on the second correlation matrix information 52-2 illustrated in FIG. 15, the discriminant reference value of F person <0 is not used as the basis for calculating the posterior probability. The part depending on the discriminant reference value of the label person of the sigmoid function of the label cat is shown. In FIG. 15 and FIG. 16, the discrimination reference value of F person > 0 is selected.
図15及び図16において、丸印の点は、標識catが関連付けられている画像から抽出した特徴量(tcat=1)であり、バツ印の点は、標識catが関連付けられていない画像から抽出した特徴量(tcat=0)である。横軸は、標識personの学習モデルに対応する判別基準値Fpersonを示している。 In FIGS. 15 and 16, the circled points are feature quantities (t cat = 1) extracted from the image associated with the marker cat, and the crossed dots are from the image not associated with the marker cat. The extracted feature amount (t cat = 0). The horizontal axis indicates the discrimination reference value Fperson corresponding to the learning model of the label person.
図16の例では、Fperson>0のデータについては、判別基準値の重みが1となる。Fperson<0のデータについては、判別基準値の重みが0となる。 In the example of FIG. 16, the weight of the discrimination reference value is 1 for data with F person > 0. For data of Fperson <0, the weight of the discrimination reference value is 0.
図15ではFperson<0に該当するデータ(図15の左半分のデータ)の影響で、sigmoid関数の特性が、図16のsigmoid関数よりもより緩やかなカーブとなり、Fpersonの値がPcatの値に与える影響が小さくなっていることがわかる。一方、図16ではFpersonの値がPcatの値に与える影響が図15のsigmoid関数よりも大きくなっていることがわかる。また、図14に示すように、本比較結果では、第2の相関マトリックス情報52−2を用いて重み付け済判別基準値の算出を行う場合の方が、行わない場合よりも、標識catの認識率が高くなっている。 In FIG. 15, due to the influence of data corresponding to F person <0 (the data in the left half of FIG. 15), the characteristics of the sigmoid function become a gentler curve than the sigmoid function of FIG. 16, and the value of F person is P cat It can be seen that the influence on the value of is small. On the other hand, FIG. 16 shows that the influence of the value of F person on the value of P cat is larger than that of the sigmoid function of FIG. Further, as shown in FIG. 14, in this comparison result, the marker cat is recognized when the weighted discrimination reference value is calculated using the second correlation matrix information 52-2 than when it is not calculated. The rate is high.
図17に、本比較での確率モデル情報54に含まれるパラメータチルダAの一具体例を示す。図17からも、本比較において標識の相関性が活用されていることがわかる。例えば、行busと列carのパラメータチルダAの値が負であり、その絶対値が大きいために、標識busと標識carの正の相関性を表せていることがわかる。同様に、行busと列motorbikeのパラメータチルダAの値が正であり、その絶対値も大きいために、標識busと標識motorbikeの負の相関性を表せていることがわかる。それにより、標識busに関連付けられている画像の判別性能が高くなっている。一方、行busと列carのパラメータチルダAの値がゼロに近く、標識dogと標識carに相関性がないということも表している。
FIG. 17 shows a specific example of the parameter tilde A included in the
なお、本発明は上述の実施形態に限定されるものではない。また、上記の具体的な数値や文字列は例示であり、これらの数値や文字列には限定されない。 In addition, this invention is not limited to the above-mentioned embodiment. Moreover, the above specific numerical values and character strings are examples, and are not limited to these numerical values and character strings.
10 情報処理装置、12 制御部、14 記憶部、16 ユーザインタフェース(UI)部、20 画像受付部、22 学習モデル情報記憶部、24 相関マトリックス情報記憶部、26 確率モデル情報記憶部、28 特徴量抽出部、30 判別基準値算出部、32 判別基準値重み付け部、34 属否可能性算出部、36 分類決定部、38 出力部、40 学習部、50 学習モデル情報、52 相関マトリックス情報、54 確率モデル情報。
DESCRIPTION OF
Claims (3)
前記複数の分類それぞれについて、前記画像受付手段が受け付ける画像の特徴量と、それぞれ前記複数の分類のうちの少なくとも1つの分類に属する複数の画像の特徴量と、に基づいて、前記画像受付手段が受け付ける画像が当該分類に属するか否かを判別する基準となる判別基準値を特定する判別基準値特定手段、
前記複数の分類それぞれについて、当該分類に属するか否かを判別する前記判別基準値と、当該判別基準値に基づいて選択される、それぞれ前記複数の分類のうちの少なくとも1つの分類に属する複数の画像に基づいて特定される、当該分類に属する画像が他の分類にも属する可能性を表す第1の相関情報、又は、当該分類に属さない画像が前記他の分類にも属さない可能性を表す第2の相関情報、のいずれか一方とに基づいて、当該分類と前記他の分類との組合せに対応付けられる重み付け済判別基準値を特定する重み付け済判別基準値特定手段、
前記複数の分類それぞれについて、複数の他の分類それぞれについて特定される当該分類と当該他の分類との組合せに対応付けられる前記重み付け済判別基準値に基づいて、前記画像受付手段が受け付ける画像が当該分類に属する可能性の高低を表す値を特定する分類属否可能性特定手段、
前記分類属否可能性特定手段により特定される前記値に基づいて特定される、前記画像受付手段が受け付ける画像が属する少なくとも1つの分類を示す情報を出力する出力手段、
としてコンピュータを機能させることを特徴とするプログラム。 Image receiving means for receiving an image that is a target for specifying at least one of a plurality of classifications;
For each of the plurality of classifications, the image receiving means is based on the feature quantity of the image received by the image receiving means and the feature quantities of a plurality of images belonging to at least one of the plurality of classifications. A discriminant reference value specifying means for specifying a discriminant reference value serving as a reference for discriminating whether or not the received image belongs to the classification;
For each of the plurality of classifications, a plurality of classification criteria values that determine whether or not they belong to the classifications, and a plurality of classifications that belong to at least one of the plurality of classifications that are selected based on the discrimination criterion values First correlation information that is specified based on the image and represents the possibility that an image belonging to the category belongs to another category, or a possibility that an image not belonging to the category belongs to the other category Weighted discrimination reference value specifying means for specifying a weighted discrimination reference value associated with a combination of the classification and the other classification based on any one of the second correlation information to be expressed,
For each of the plurality of classifications, the image received by the image receiving unit is based on the weighted determination reference value associated with the combination of the classification specified for each of the plurality of other classifications and the other classification. Classification categorical possibility determination means for specifying a value indicating the likelihood of belonging to a classification,
An output means for outputting information indicating at least one classification to which an image received by the image receiving means is specified, which is specified based on the value specified by the classification affiliation possibility specifying means;
A program characterized by causing a computer to function.
ことを特徴とする請求項1に記載のプログラム。 The image that the image receiving means accepts based on the combination of the correlation information and the discrimination reference value for each of the classifications that is different from the classification for each classification, Identify values that are likely to belong to
The program according to claim 1.
前記複数の分類それぞれについて、前記画像受付手段が受け付ける画像の特徴量と、それぞれ前記複数の分類のうちの少なくとも1つの分類に属する複数の画像の特徴量と、に基づいて、前記画像受付手段が受け付ける画像が当該分類に属するか否かを判別する基準となる判別基準値を特定する判別基準値特定手段と、
前記複数の分類それぞれについて、当該分類に属するか否かを判別する前記判別基準値と、当該判別基準値に基づいて選択される、それぞれ前記複数の分類のうちの少なくとも1つの分類に属する複数の画像に基づいて特定される、当該分類に属する画像が他の分類にも属する可能性を表す第1の相関情報、又は、当該分類に属さない画像が前記他の分類にも属さない可能性を表す第2の相関情報、のいずれか一方とに基づいて、当該分類と前記他の分類との組合せに対応付けられる重み付け済判別基準値を特定する重み付け済判別基準値特定手段と、
前記複数の分類それぞれについて、複数の他の分類それぞれについて特定される当該分類と当該他の分類との組合せに対応付けられる前記重み付け済判別基準値に基づいて、前記画像受付手段が受け付ける画像が当該分類に属する可能性の高低を表す値を特定する分類属否可能性特定手段と、
前記分類属否可能性特定手段により特定される前記値に基づいて特定される、前記画像受付手段が受け付ける画像が属する少なくとも1つの分類を示す情報を出力する出力手段と、
を含むことを特徴とする情報処理システム。 Image receiving means for receiving an image that is a target for specifying at least one of a plurality of classifications;
For each of the plurality of classifications, the image receiving means is based on the feature quantity of the image received by the image receiving means and the feature quantities of a plurality of images belonging to at least one of the plurality of classifications. A discrimination reference value specifying means for specifying a discrimination reference value serving as a reference for discriminating whether or not the received image belongs to the classification;
For each of the plurality of classifications, a plurality of classification criteria values that determine whether or not they belong to the classifications, and a plurality of classifications that belong to at least one of the plurality of classifications that are selected based on the discrimination criterion values First correlation information that is specified based on the image and represents the possibility that an image belonging to the category belongs to another category, or a possibility that an image not belonging to the category belongs to the other category Weighted discrimination reference value specifying means for specifying a weighted discrimination reference value associated with a combination of the classification and the other classification based on any one of the second correlation information to be expressed;
For each of the plurality of classifications, the image received by the image receiving unit is based on the weighted determination reference value associated with the combination of the classification specified for each of the plurality of other classifications and the other classification. A classification affiliation possibility identification means for identifying a value indicating the level of possibility of belonging to a classification,
Output means for outputting information indicating at least one classification to which an image received by the image receiving means, specified based on the value specified by the classification affiliation possibility specifying means,
An information processing system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011036675A JP5633424B2 (en) | 2011-02-23 | 2011-02-23 | Program and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011036675A JP5633424B2 (en) | 2011-02-23 | 2011-02-23 | Program and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012174083A JP2012174083A (en) | 2012-09-10 |
JP5633424B2 true JP5633424B2 (en) | 2014-12-03 |
Family
ID=46976928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011036675A Expired - Fee Related JP5633424B2 (en) | 2011-02-23 | 2011-02-23 | Program and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5633424B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019239644A1 (en) * | 2018-06-11 | 2019-12-19 | パナソニックIpマネジメント株式会社 | Welding condition setting assistance device |
JP7165924B2 (en) * | 2019-03-05 | 2022-11-07 | パナソニックIpマネジメント株式会社 | Welding condition setting support device |
WO2020246416A1 (en) * | 2019-06-06 | 2020-12-10 | パナソニックIpマネジメント株式会社 | Welding condition setting assistance device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1840764A1 (en) * | 2006-03-30 | 2007-10-03 | Sony France S.A. | Hybrid audio-visual categorization system and method |
-
2011
- 2011-02-23 JP JP2011036675A patent/JP5633424B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012174083A (en) | 2012-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109934293B (en) | Image recognition method, device, medium and confusion perception convolutional neural network | |
CN108399158B (en) | Attribute emotion classification method based on dependency tree and attention mechanism | |
JP7177653B2 (en) | Improving font recognition using adversarial neural network training | |
JP5171962B2 (en) | Text classification with knowledge transfer from heterogeneous datasets | |
Chong et al. | Simultaneous image classification and annotation | |
JP5506722B2 (en) | Method for training a multi-class classifier | |
CN110837836A (en) | Semi-supervised semantic segmentation method based on maximized confidence | |
CN107943856A (en) | A kind of file classification method and system based on expansion marker samples | |
CN111373417A (en) | Apparatus related to data classification based on metric learning and method thereof | |
CN107683469A (en) | A kind of product classification method and device based on deep learning | |
CN107203775B (en) | Image classification method, device and equipment | |
CN114600117A (en) | Active learning through sample consistency assessment | |
CN109376796A (en) | Image classification method based on active semi-supervised learning | |
JP6897749B2 (en) | Learning methods, learning systems, and learning programs | |
JP2012042990A (en) | Image identification information adding program and image identification information adding apparatus | |
JP6763426B2 (en) | Information processing system, information processing method, and program | |
CN108133224B (en) | Method for evaluating complexity of classification task | |
US20230177251A1 (en) | Method, device, and system for analyzing unstructured document | |
JP6004015B2 (en) | Learning method, information processing apparatus, and learning program | |
Freytag et al. | Labeling examples that matter: Relevance-based active learning with gaussian processes | |
CN109063743A (en) | The construction method of medical data disaggregated model based on semi-supervised multi-task learning | |
CN113139664A (en) | Cross-modal transfer learning method | |
CN111475648B (en) | Text classification model generation method, text classification device and equipment | |
CN114943017A (en) | Cross-modal retrieval method based on similarity zero sample hash | |
WO2020179378A1 (en) | Information processing system, information processing method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140520 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140916 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140929 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5633424 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |