JP5378909B2 - サポートベクトルマシンの再学習方法 - Google Patents

サポートベクトルマシンの再学習方法 Download PDF

Info

Publication number
JP5378909B2
JP5378909B2 JP2009187323A JP2009187323A JP5378909B2 JP 5378909 B2 JP5378909 B2 JP 5378909B2 JP 2009187323 A JP2009187323 A JP 2009187323A JP 2009187323 A JP2009187323 A JP 2009187323A JP 5378909 B2 JP5378909 B2 JP 5378909B2
Authority
JP
Japan
Prior art keywords
support vector
learning
sample
perturbation
vector machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009187323A
Other languages
English (en)
Other versions
JP2011039831A (ja
Inventor
一則 松本
啓一郎 帆足
康弘 滝嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009187323A priority Critical patent/JP5378909B2/ja
Publication of JP2011039831A publication Critical patent/JP2011039831A/ja
Application granted granted Critical
Publication of JP5378909B2 publication Critical patent/JP5378909B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明はサポートベクトルマシンの再学習方法に関し、特に識別性能の向上と演算量の削減を図ることができるサポートベクトルマシンの再学習方法に関する。
映像アーカイブ(動画素材集)の検索や管理を行うシステムにとって、既存の映像ファイルから編集作業で生じたショットの境界を検出するショット境界検出の機能は必須の機能である。このため、サポートベクトルマシン(以下、SVMと記す)を適用する、高性能のショット境界検出器が実現されている。
下記の特許文献1には、ショット境界を検出するための特徴量抽出方法が開示されている。該文献1に明示されているように、得られた特徴量はSVMなどのパターン認識装置によって識別が行われる。SVMの場合、予め用意した訓練サンプルで学習を行い、識別用のSVMを構築することを前提にしている。また、特許文献2には、能動学習法を用いて行われた学習結果に基づいて、SVMがデータ分類を行うデータ分類装置についての発明が開示されている。
また、半自動学習(semi-supervised learning)と呼ばれる従来技術がある。半自動学習では、既知のラベル付サンプル集合から構築した学習器を使って、アンラベルのサンプル集合の中からラベル付与済みの事例に近いものを抽出し、抽出がほぼうまくいったことを前提にさらなる学習(「再学習」と呼ぶ)を行うことで、識別器の性能向上を目指すものである。この技術をSVMに適用する場合の拡張手法が非特許文献1で述べられている。
特開2007−142633号公報 特開2004−21590号公報
日本オペレーションズ・リサーチ学会「SVMを基にしたSemi-Supervised Learning」日本オペレーションズ・リサーチ学会秋期研究発表会アブストラクト集、Vol.2005(20050914) pp.32-33
前記特許文献1と非特許文献1の技術を組み合わせる、つまり、ショット検出用の識別器(SVM)に半自動学習の技術を適用すれば、識別性能が向上する可能性はある。しかし、通常の半自動学習では、再学習のために追加するサンプルのラベルは、再学習前の識別器が付与するために誤っているものを含む場合も多い。誤ってラベル付けされたものを含むサンプルを学習すると、再学習後の性能は十分に向上しないという問題がある。また、非特許文献1、2が提示した手法では、追加するサンプル数が膨大になり、再学習が非常に困難になるといった問題もある。
そこで、本発明者は、初期学習用訓練サンプルを摂動処理して得た訓練サンプルを初期学習用訓練サンプルに追加して、SVMを再学習する方法を発明し、特許出願した(特願2008−057921号、以下先願発明という)。この先願発明によれば、良質で少数のサンプルを用いてSVMを再学習させることができる。
本発明の目的は、前記した先願発明を改良し、さらに良質で少数のサンプルを用いて再学習させることにより、SVMの精度向上と計算量の削減を達成できるSVMの再学習方法を提供することにある。
前記の目的を達成するために、本発明は、SVMの再学習方法であって、既知のラベルを有する初期学習用訓練サンプルの集合を用いてサポートベクトルマシンを学習する第1の段階と、前記第1の段階のサポートベクトルマシン学習により得られたサポートベクトル情報を基に、摂動対象の学習用訓練サンプルを選択する第2の段階と、該第2の段階で選択された摂動対象の学習用訓練サンプルを摂動すると共に、2回目以降の摂動は、その摂動方向を、前回の摂動後の性能評価の良い事例とオリジナルの事例とを比較し、効果のあった摂動方向のベクトルの方向に重みをおいて行う第3の段階と、該摂動処理されたサンプルを追加用訓練サンプルとして、前記学習されたサポートベクトルマシンを再学習する第4の段階とからなり、前記第4の段階の再学習で得られたサポートベクトル情報を前記第2の段階のサポートベクトル情報とすることにより、前記第2〜第4の段階を複数回繰り返して実行するようにした点に特徴がある。
また、本発明は、前記第2〜第4の段階の複数回の繰り返しを終了する条件として、下記の(1)〜(3)のいずれか1つまたは複数を用いるようにした点に他の特徴がある。
(1)前回のサポートベクトル情報の有効サンプル集合と、今回生成したサポートベクトル情報の有効サンプル集合とが一致すること。
(2)今回の性能評価結果は、前回の性能評価結果に比べて、一定値以上の性能向上が得られること。
(3)前記複数回の繰り返し回数が規定数に達すること。
この発明によれば、SVMの再学習で得られたサポートベクトル情報を基に摂動対象の学習用訓練サンプルを選択し、摂動し、該摂動処理されたサンプルを追加用訓練サンプルとしてさらに前記SVMを再学習するといった処理を繰り返すようにしたので、SVMの精度向上に役立つ良質のサンプルを容易に増やすことができるようになる。
また、前記(1)〜(3)の終了条件で前記の繰り返しを終了するようにしたので、SVMの学習時間が爆発的に増大することがなくなる。
さらに、オリジナルの事例と新たに追加したサポートベクトルの事例とでできる摂動方向のベクトルを参照し、次に生成する学習用サンプルの位置を該ベクトルとほぼ同方向に調整するようにしたので、SVMの精度向上に役立つサンプルの質をさらに向上させることができるようになる。
本発明の一実施形態の反復型摂動学習方法の概略の構成を示す機能ブロック図である。 本実施形態の要部の機能を示すフローチャートである。 摂動の一例である画質変換を示す図である。 摂動パラメータの限定についての説明図である。 先願発明の摂動学習方法の概略の構成を示す機能ブロック図である。 ソフトマージンを表す超平面とサポートベクトルとの写像空間上での位置関係を説明する図である。
まず、前記先願発明の概略を、図5のブロック図を参照して説明する。図5は、先願発明の機能を示すブロック図である。
初期学習用訓練サンプル集合1は、SVMの学習に用いる既知のクラスラベルをもった事例、例えば正例や負例などの集合である。初期学習機能2は、前記初期学習用訓練サンプル集合1を用いて、SVMの初期学習(パイロット学習)を行う。
サポートベクトル情報3は、前記初期学習機能2から出力される情報であり、学習用のクラスラベル付き事例の集合にSVM学習を適用して得られる。該サポートベクトル情報には、学習サンプル毎に得られるパラメータ(α値、0≦α≦C、ただし、Cは学習時に与えられるコストの最大値)が含まれている。ここに、α値は、分類関数φ(x)(xはサンプル)の内部パラメータであり、前記先願発明に説明されている。図6に示されているように、α=0ならば、対応するサンプルは、該当サンプルのクラスの領域内に位置し、非サポートベクトルと呼ばれ、識別用の境界面Sから十分離れている。0<α<Cならば、対応するサンプルは、マージンを表す超平面H1,H2上に位置する。さらに、α=Cならば、対応するサンプルは、該当サンプルのクラスの領域外に位置する。
摂動対象選択機能4は、良質なサンプルを得るために、前記初期学習用訓練サンプルの中から摂動対象サンプルを次の方法で絞り込む。1)α>0となるサンプルのみを選択する。2)ラベル付与の誤りや外れ値が含まれる場合は、0<α<Cのサンプルのみを選択する。3)クラス間でサンプル数に偏りがある場合は、判別性能の良くないクラスに属する0<α<Cのサンプルを選択する。なお、上記のような絞り込みを行わずに全てのサンプルに対して摂動を行うと、学習に時間が掛かり過ぎるからである。
画像処理機能5では、摂動対象選択機能4で選択された摂動対象サンプルに対して、明度(又は、輝度)変換、コントラスト変換等のクラスラベルを変えない画像処理を行い、摂動対象サンプルの特徴量を僅かに変化させる、つまり、摂動対象サンプルを摂動させる。画像処理機能5は、初期学習用サンプル集合1に、該摂動で得られたサンプル集合を追加し、これを新たな学習用サンプル集合として出力する。なお、摂動されたサンプルのラベルは、摂動前のサンプルのラベルを引き継いでいる。
再学習機能6では、画像処理機能5が出力した学習用サンプル集合を用いて、SVMの再学習を行う。処理内容は初期学習機能2と同じであり、学習に用いるサンプル集合および出力するサポートベクトルの形式も初期学習機能2と同じである。再学習機能6からは、サポートベクトル情報7が出力される。
ここで、前記摂動により学習用サンプルを得る一具体例を説明する。摂動の一例として、映像の画質変換が考えられる。画質変換は、輝度を全体的に上げたり下げたりする場合(明度変換)と、コントラストを強めたり弱めたりする場合(コントラスト変換)がある。それぞれの場合の輝度変換の式を以下に示す。
・明度変換の場合
Z´=256.0 ×〔Z÷256.0〕δ
Z:入力輝度情報(0〜255)
Z´:出力輝度情報(0〜255)
δ:明度変換調整パラメータ
・コントラスト変換の場合
Z´= 256.0 ÷ ( 1.0 + exp(-η×( Z −128.0 ) ) )
Z:入力輝度情報(0〜255)
Z´:出力輝度情報(0〜255)
η:コントラスト変換調整パラメータ
前記明度変換調整パラメータδおよび/またはコントラスト変換調整パラメータηを変化させることにより、摂動されたサンプルを得ることができる。
上記の先願発明は、摂動による訓練サンプルの追加過程が1回だけであったのに対して、本発明はこれを複数回にして訓練サンプルを効率良く増やすようにした点に特徴があり、以下に本発明の実施形態を説明する。
図1は、本発明の一実施形態の反復型摂動学習方法の機能ブロック図であり、図5と同じ符号は同一又は同等の機能を示す。図1が図5と異なる所は、反復学習機能8とメモリ9とを設けた点であり、他の機能は同じであるので、以下では、反復学習機能8とメモリ9についてのみ説明する。
反復学習機能8では、摂動による訓練サンプルを追加してSVM学習を複数回繰り返す働きをするが、摂動を繰り返してサンプル数を増やし続けると、学習時間が爆発的に増加してしまうので、以下の終了条件が成り立つ場合には、生成したサポートベクトル情報7を最終結果として出力し、成り立たない場合には、生成したサポートベクトル情報3を摂動対象選択機能4に渡す。
(終了条件1)反復学習機能8で生成した前回のサポートベクトル情報の有効サンプル集合(α>0となるサンプルの集合)と、今回生成したサポートベクトル情報の有効サンプル集合が一致する場合、
(終了条件2)初期学習用サンプル集合に対し、前回の学習時に作成したサポートベクトル情報でF値(又は、F尺度)等の評価値を求め(いわゆる、クローズ評価)、該評価値と今回の学習で得たサポートベクトル情報による評価値とを比較した時に、精度向上の差が一定値以下の場合、
(終了条件3)反復学習の回数が規定数に達した場合、
ここに、前記F値(又は、F尺度)は、例えば社団法人電子情報通信学会発行の「電子情報通信学会論文誌 D−I Vol.J86−D−I No.5 pp293−300 2003年5月」の294頁の「2.2 再現率と精度の要約値」の冒頭に記されているように、当該技術分野においては周知の事項である。また、前記クローズ評価は、学習に使用したサンプルデータを評価用データとして使用する評価実験を意味する。
図2は、反復学習機能8の機能の詳細例を示すフローチャートである。ステップS1では、反復学習機能8は、学習で得たサポートベクトル情報をメモリ9に記憶する。ステップS2では、学習で得たサポートベクトル情報を性能評価(前記F値等の評価)し、性能評価結果をメモリ9に記憶する。ステップS3では、反復学習の回数をメモリ9に記憶する。
ステップS4,S5及びS6では、前記した終了条件1,2または3が成立しているか否かを判断し、いずれか一つの終了条件が成立すればステップS8に進み、反復学習を終了し、サポートベクトル情報7を出力する。一方、前記終了条件1,2および3が不成立の場合には、ステップS7に進み、サポートベクトル情報3を出力する。そして、ステップS1に戻り、前記した機能を再度実行する。
この実施形態によれば、摂動による訓練サンプルの追加過程が複数回となるので、訓練サンプルを効率良く増やすことができるようになる。
次に、本発明の第2実施形態を説明する。この実施形態は、画像処理機能5で行う摂動方向を限定することにより、精度向上に役立つ訓練サンプルを追加し、SVMの学習効率を向上するようにしたものであり、以下に説明する。
図3は、明度(又は輝度)変換やコントラスト変換といった摂動操作を行って得られる画像を表示したものである。中央の画像がソフトマージン超平面上にある訓練用サンプルの画像であり、上段の画像は明度が高くされ、下段の画像は明度が低くされている。また、右列の画像はコントラストが弱くされ、左列の画像はコントラストが強くされている。なお、前記明度変換、コントラスト変換以外にも、ぼかし変換、エッジ強調などの摂動をしてもよい。
図3から分かるように、ある画像から画像変換操作で得られる新規画像の特徴量は、オリジナルサンプル(図3の中央の画像)の特徴量の周辺に分布する。こうしてオリジナルサンプルの周辺に位置する新サンプルは、初期学習用サンプル集合に追加されて反復学習機能8にてSVM学習が行われることになるが、摂動対象選択機能4で選ばれた新サンプル事例と、前回のサンプル事例とを比較し、効果のあった摂動方向を見つけることができる。そこで、効果のあった方向への摂動方向のベクトルの方向に重みをおき、新たな摂動方向を限定する。
例えば、図4に示すように、摂動1回後の性能評価の良い事例11とオリジナル事例10とを比較し、効果のあった摂動方向12方向に重みをおいて2回目の摂動方向の候補13を見つける。
このようにすることにより、SVMの精度向上に役立つ訓練サンプルを効率的に追加することができるようになる。
1・・・初期学習用訓練サンプル集合、2・・・初期学習機能、3・・・サポートベクトル情報、4・・・摂動対象選択機能、5・・・画像処理機能、7・・・サポートベクトル情報(最終結果)、8・・・反復学習機能、9・・・メモリ、10・・・オリジナル事例、11・・・摂動1回後の性能評価の良い事例。

Claims (3)

  1. サポートベクトルマシンの再学習方法であって、
    既知のラベルを有する初期学習用訓練サンプルの集合を用いてサポートベクトルマシンを学習する第1の段階と、
    前記第1の段階のサポートベクトルマシン学習により得られたサポートベクトル情報を基に、摂動対象の学習用訓練サンプルを選択する第2の段階と、
    該第2の段階で選択された摂動対象の学習用訓練サンプルを摂動すると共に、2回目以降の摂動は、その摂動方向を、前回の摂動後の性能評価の良い事例とオリジナルの事例とを比較し、効果のあった摂動方向のベクトルの方向に重みをおいて行う第3の段階と、
    該摂動処理されたサンプルを追加用訓練サンプルとして、前記学習されたサポートベクトルマシンを再学習する第4の段階とからなり、
    前記第4の段階の再学習で得られたサポートベクトル情報を前記第2の段階のサポートベクトル情報とすることにより、前記第2〜第4の段階を複数回繰り返して実行するようにしたサポートベクトルマシンの再学習方法。
  2. 請求項1に記載のサポートベクトルマシンの再学習方法であって、
    前記第2の段階では、前記サポートベクトル情報に含まれるパラメータ(α値)が、α>0の学習用サンプルを選択することを特徴とするサポートベクトルマシンの再学習方法。
  3. 請求項1または2に記載のサポートベクトルマシンの再学習方法であって、
    前記第2〜第4の段階の複数回の繰り返しを終了する条件として、下記の(1)〜(3)のいずれか1つまたは複数を用いることを特徴とするサポートベクトルマシンの再学習方法。
    (1)前回のサポートベクトル情報の有効サンプル集合と、今回生成したサポートベクトル情報の有効サンプル集合とが一致すること。
    (2)今回の性能評価結果は、前回の性能評価結果に比べて、一定値以上の性能向上が得られること。
    (3)前記複数回の繰り返し回数が規定数に達すること。
JP2009187323A 2009-08-12 2009-08-12 サポートベクトルマシンの再学習方法 Active JP5378909B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009187323A JP5378909B2 (ja) 2009-08-12 2009-08-12 サポートベクトルマシンの再学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009187323A JP5378909B2 (ja) 2009-08-12 2009-08-12 サポートベクトルマシンの再学習方法

Publications (2)

Publication Number Publication Date
JP2011039831A JP2011039831A (ja) 2011-02-24
JP5378909B2 true JP5378909B2 (ja) 2013-12-25

Family

ID=43767525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009187323A Active JP5378909B2 (ja) 2009-08-12 2009-08-12 サポートベクトルマシンの再学習方法

Country Status (1)

Country Link
JP (1) JP5378909B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200027530A1 (en) * 2018-07-18 2020-01-23 International Business Machines Corporation Simulating Patients for Developing Artificial Intelligence Based Medical Solutions
WO2021053815A1 (ja) * 2019-09-20 2021-03-25 日本電気株式会社 学習装置、学習方法、推論装置、推論方法、及び、記録媒体
CN110992334B (zh) * 2019-11-29 2023-04-07 四川虹微技术有限公司 用于dcgan网络生成图像的质量评估方法
CN111310791A (zh) * 2020-01-17 2020-06-19 电子科技大学 一种基于小样本数目集的动态渐进式自动目标识别方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4314853B2 (ja) * 2003-03-20 2009-08-19 富士通株式会社 文書分類装置および文書分類プログラム
JP4645288B2 (ja) * 2005-04-28 2011-03-09 日本電気株式会社 能動学習方法および能動学習システム
EP2083379B1 (en) * 2006-10-19 2021-04-07 NEC Corporation Active studying system, method and program

Also Published As

Publication number Publication date
JP2011039831A (ja) 2011-02-24

Similar Documents

Publication Publication Date Title
JP5196425B2 (ja) サポートベクトルマシンの再学習方法
JP7112931B2 (ja) トリプレット損失ニューラル・ネットワーク・トレーニングを使用するフォント認識の改善
JP7177653B2 (ja) 敵対的ニューラル・ネットワーク・トレーニングを使用するフォント認識の改善
Fawzi et al. Adaptive data augmentation for image classification
US10515296B2 (en) Font recognition by dynamically weighting multiple deep learning neural networks
Aljundi et al. Landmarks-based kernelized subspace alignment for unsupervised domain adaptation
US9002101B2 (en) Recognition device, recognition method, and computer program product
CN102479332B (zh) 图像处理装置和图像处理方法
JP5378909B2 (ja) サポートベクトルマシンの再学習方法
Ye et al. Procrustean training for imbalanced deep learning
US9280725B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US20090228411A1 (en) Reducing method for support vector
Kong et al. 3lpr: A three-stage label propagation and reassignment framework for class-imbalanced semi-supervised learning
CN111259916A (zh) 一种标签缺失情况下的低秩投影特征提取方法
Fateh et al. Enhancing optical character recognition: Efficient techniques for document layout analysis and text line detection
US8787676B2 (en) Image processing apparatus, computer readable medium storing program, and image processing method
JP5506569B2 (ja) サポートベクトルマシンの再学習方法及び装置
CN109359677B (zh) 一种耐噪在线多分类核学习算法
Pereira et al. Assessing active learning strategies to improve the quality control of the soybean seed vigor
JP5633424B2 (ja) プログラム及び情報処理システム
Zhang et al. Divide and retain: a dual-phase modeling for long-tailed visual recognition
CN112070173A (zh) 一种以交叉熵为查询策略的主动学习方法
JP5157848B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム、及び、情報記録媒体
JP2009070321A (ja) 文書分類装置、及び文書分類プログラム
US20230137931A1 (en) Method for augmenting data for document classification and apparatus thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130926

R150 Certificate of patent or registration of utility model

Ref document number: 5378909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150