JP5906061B2 - 学習装置、学習方法、プログラム - Google Patents
学習装置、学習方法、プログラム Download PDFInfo
- Publication number
- JP5906061B2 JP5906061B2 JP2011249719A JP2011249719A JP5906061B2 JP 5906061 B2 JP5906061 B2 JP 5906061B2 JP 2011249719 A JP2011249719 A JP 2011249719A JP 2011249719 A JP2011249719 A JP 2011249719A JP 5906061 B2 JP5906061 B2 JP 5906061B2
- Authority
- JP
- Japan
- Prior art keywords
- reduction
- support vector
- learning
- unit
- support
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
[学習装置の構成例]
図1は、本実施形態における学習装置1の構成例を示している。この学習装置1は、SVM(Support Vector Machine:サポートベクターマシン)を用いた識別器に学習させるためのものである。
図3のフローチャートは、学習装置1が実行する処理手順例を示している。まず、データ分割部20は、学習データ11を所定数(図1では8個)の分割学習データに分割し(ステップS101)、特徴量生成部30は、上記分割学習データごとに含まれるデータそれぞれの特徴量を生成する(ステップS102)。
図4(a)は、図1に示した構成による学習装置1が行った学習についての評価結果を示している。この評価のための学習を学習装置1に実行させるにあたり、学習データ11におけるデータ数(学習件数)は、「200,000」個とした。また、SV削減度設定部110がSV簡約部120に対して設定する削減度Srdとしての削減目標値は「10,000」個とする。つまり、各段に対応するSV削減ユニット50(50−1、50−2、50−3)におけるSV削減部51のSV簡約部120は、入力されるサポートベクター群におけるサポートベクターの数が「10,000」を超える場合、「10,000」個にまで削減する。また、比較として、図1の構成からSV削減ユニット50(50−1、50−2、50−3)を省略してサポートベクター削減処理を行わない場合の評価結果を図4(b)に示す。
[SV削減部の構成]
上記第1の実施形態において、SV削減部51がサポートベクター群のサポートベクターを削減するにあたり、そのための削減度Srdは削減目標値として固定的に設定されていた。これに対して、第2の実施形態は、各段のSV削減ユニット50−1〜50−3におけるSV削減部51がそれぞれ個別に削減度Srdを決定する。
図6は、上記図5に示したSV削減度設定部110の構成例を示している。この図に示すSV削減度設定部110は、SV削減試行部111、識別試行部112および削減度決定部113を備える。
図8のフローチャートは、図6に示したSV削減度設定部110が実行する処理手順例を示している。まず、SV削減試行部111は、100%〜10%までにおける10%間隔の削減率のうちの1つを設定し(ステップS201)、この設定した削減率により、入力されるサポートベクター群におけるサポートベクターを削減する(ステップS202)。
上記第2の実施形態においては、各段のSV削減ユニット50(50−1〜50−3)におけるSV削減部51の各々が独立して削減度Srdを決定していた。しかし、1つのSV削減ユニット50におけるSV削減部51に入力されるサポートベクター群の内容は類似しているといえる。第3の実施形態においては、このことに着目し、SV削減ユニット50(50−1〜50−3)ごとにおいて、1つのメインのSV削減部51が決定した削減度Srdを、他のサブとしてのSV削減部51に設定するという構成を採る。
図12は、第4の実施形態に対応するSV削減ユニット50の構成として、SV削減ユニット50−1を挙げて示している。なお、残るSV削減ユニット50−2、50−3も、上記図12および図13に準じた構成を有する。
図14は、第4の実施形態に対応して、1つのSV削減ユニット50におけるSV削減部51と統合SV削減度決定部52が実行する処理手順例を示している。まず、SV削減部51が実行するステップS501〜S506までの処理は、図8のステップS201〜S206と同様となる。
図15は、本実施形態の学習装置1を具現化するハードウェアの一例であるコンピュータ200の構成例を示している。この図に示すコンピュータ200は、CPU201、RAM202、記憶部203、入力インターフェース204、出力インターフェース205およびデータインターフェース206を備える。また、これらの部位はデータバス207により接続される。
11 学習データ
12 サンプルデータ
20 データ分割部
30 特徴量生成部
40 学習部
50 SV削減ユニット
51 SV削減部
52 統合SV削減度決定部
60 SVM結合部
110 SV削減度設定部
111 SV削減試行部
112 識別試行部
113 削減度決定部
120 SV簡約部
200 コンピュータ
230 学習装置プログラム
Claims (4)
- 学習データを分割した分割学習データをそれぞれ入力して初段の学習を行う複数のサポートベクターマシンを備える学習部と、
前段の前記学習部が備える複数のサポートベクターマシンごとの学習結果として出力されるサポートベクター群について所定数のサポートベクター群同士を結合し、当該結合されたサポートベクター群を学習データとして入力することにより次段における学習を行うサポートベクターマシンを備える、2段目から最終段までの学習の各々に対応するサポートベクターマシン結合部と、
前記前段の学習部が備える複数のサポートベクターマシンから出力されたサポートベクター群におけるサポートベクター数を削減し、当該サポートベクター数が削減されたサポートベクター群を次段の前記サポートベクターマシン結合部に対して出力するサポートベクター削減部とを備え、
前記サポートベクター削減部は、
設定された削減度にしたがって前記サポートベクターを簡約化することによりサポートベクター数を削減するサポートベクター簡約部と、
前記サポートベクター簡約部に対して前記削減度を設定する削減度設定部とを備え、
前記削減度設定部の少なくとも1つは、
前記前段のサポートベクターマシンが出力するサポートベクター群について、1つのサポートベクター群から、異なる削減率に対応する複数の「サポートベクター数を削減したサポートベクター群」を生成するサポートベクター削減試行部と、
前記複数の「サポートベクター数を削減したサポートベクター群」のそれぞれを識別対象としてサポートベクターマシンによる識別処理を実行する識別試行部と、
前記識別試行部による識別結果に基づいて最適であるとして特定した削減率を前記削減度として決定する削減度決定部とを備える、
ことを特徴とする学習装置。 - 前記サポートベクター削減部ごとの前記削減度決定部により決定された削減度のうちから、最もサポートベクター数を削減する度合いの低い削減度を、前記サポートベクター削減部の各々におけるサポートベクター簡約部に対して設定すべき削減度として決定する統合削減度決定部をさらに備える
請求項1に記載の学習装置。 - 学習データを分割した分割学習データをそれぞれ入力して初段の学習を行う複数のサポートベクターマシンを備える学習ステップと、
前段の前記学習ステップが備える複数のサポートベクターマシンごとの学習結果として出力されるサポートベクター群について所定数のサポートベクター群同士を結合し、当該結合されたサポートベクター群を学習データとして入力することにより次段における学習を行うサポートベクターマシンを備える、2段目から最終段までの学習の各々に対応するサポートベクターマシン結合ステップと、
前記前段の学習ステップが備える複数のサポートベクターマシンから出力されたサポートベクター群におけるサポートベクター数を削減し、当該サポートベクター数が削減されたサポートベクター群を次段の前記サポートベクターマシン結合ステップに対して出力するサポートベクター削減ステップとを備え、
前記サポートベクター削減ステップは、
設定された削減度にしたがって前記サポートベクターを簡約化することによりサポートベクター数を削減するサポートベクター簡約ステップと、
前記削減度を設定する削減度設定ステップとを備え、
前記削減度設定ステップの少なくとも1つは、
前記前段のサポートベクターマシンが出力するサポートベクター群について、1つのサポートベクター群から、異なる削減率に対応する複数の「サポートベクター数を削減したサポートベクター群」を生成するサポートベクター削減試行ステップと、
前記複数の「サポートベクター数を削減したサポートベクター群」のそれぞれを識別対象としてサポートベクターマシンによる識別処理を実行する識別試行ステップと、
前記識別試行ステップによる識別結果に基づいて最適であるとして特定した削減率を前記削減度として決定する削減度決定ステップとを備える、
ことを特徴とする学習方法。 - コンピュータを、
学習データを分割した分割学習データをそれぞれ入力して初段の学習を行う複数のサポートベクターマシンを備える学習手段、
前段の前記学習手段が備える複数のサポートベクターマシンごとの学習結果として出力されるサポートベクター群について所定数のサポートベクター群同士を結合し、当該結合されたサポートベクター群を学習データとして入力することにより次段における学習を行うサポートベクターマシンを備える、2段目から最終段までの学習の各々に対応するサポートベクターマシン結合手段、
前記前段の学習手段が備える複数のサポートベクターマシンから出力されたサポートベクター群におけるサポートベクターを設定された削減度にしたがって簡約化することによりサポートベクター数を削減し、当該サポートベクター数が削減されたサポートベクター群を次段の前記サポートベクターマシン結合手段に対して出力するサポートベクター簡約手段と、前記削減度を設定する削減度設定手段とを含み、当該削減度設定手段の少なくとも1つは、前記前段のサポートベクターマシンが出力するサポートベクター群について、1つのサポートベクター群から、異なる削減率に対応する複数の「サポートベクター数を削減したサポートベクター群」を生成するサポートベクター削減試行手段と、前記複数の「サポートベクター数を削減したサポートベクター群」のそれぞれを識別対象としてサポートベクターマシンによる識別処理を実行する識別試行手段と、前記識別試行手段による識別結果に基づいて最適であるとして特定した削減率を前記削減度として決定する削減度決定手段とを含むサポートベクター削減手段、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011249719A JP5906061B2 (ja) | 2011-11-15 | 2011-11-15 | 学習装置、学習方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011249719A JP5906061B2 (ja) | 2011-11-15 | 2011-11-15 | 学習装置、学習方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013105377A JP2013105377A (ja) | 2013-05-30 |
JP5906061B2 true JP5906061B2 (ja) | 2016-04-20 |
Family
ID=48624851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011249719A Active JP5906061B2 (ja) | 2011-11-15 | 2011-11-15 | 学習装置、学習方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5906061B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6324124B2 (ja) * | 2014-03-11 | 2018-05-16 | 国立大学法人静岡大学 | 予測システム、予測方法、および予測プログラム |
US10083395B2 (en) * | 2015-05-21 | 2018-09-25 | Google Llc | Batch processing in a neural network processor |
WO2019012654A1 (ja) * | 2017-07-13 | 2019-01-17 | 日本電気株式会社 | 分析システム、分析方法及び記憶媒体 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8135652B2 (en) * | 2004-10-29 | 2012-03-13 | Nec Laboratories America, Inc. | Parallel support vector method and apparatus |
JP5291478B2 (ja) * | 2009-01-29 | 2013-09-18 | Kddi株式会社 | コンデンスドsvm |
-
2011
- 2011-11-15 JP JP2011249719A patent/JP5906061B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013105377A (ja) | 2013-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sedlar et al. | Bioinformatics strategies for taxonomy independent binning and visualization of sequences in shotgun metagenomics | |
KR101933916B1 (ko) | 머신 러닝에서의 대안 트레이닝 분포 데이터 | |
JP5795743B2 (ja) | 適応的重み付けを用いた様々な文書間類似度計算方法に基づいた文書比較方法および文書比較システム | |
JP2019096303A (ja) | 機械翻訳方法及び装置 | |
CN105761102B (zh) | 一种预测用户购买商品行为的方法和装置 | |
CN112805769B (zh) | 秘密s型函数计算系统、装置、方法及记录介质 | |
CN112805768B (zh) | 秘密s型函数计算系统及其方法、秘密逻辑回归计算系统及其方法、秘密s型函数计算装置、秘密逻辑回归计算装置、程序 | |
JP5906061B2 (ja) | 学習装置、学習方法、プログラム | |
Kaminski et al. | pLM-BLAST: distant homology detection based on direct comparison of sequence representations from protein language models | |
Susko | Tests for two trees using likelihood methods | |
US20210266383A1 (en) | Conversion system, method and program | |
Zhang et al. | A Sensitive and Accurate protein domain cLassification Tool (SALT) for short reads | |
EP3096308B1 (en) | Element replication device, element replication method, and program | |
JP2017151986A (ja) | データを抽出する装置及び方法 | |
JP5555238B2 (ja) | ベイジアンネットワーク構造学習のための情報処理装置及びプログラム | |
Kim et al. | Lightweight conversion from arithmetic to Boolean masking for embedded IoT processor | |
JP5906100B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
CN111563783B (zh) | 一种物品推荐方法及装置 | |
Liu et al. | Multiple sequence alignment based on deep reinforcement learning with self-attention and positional encoding | |
WO2020044413A1 (ja) | 仮説推論装置、仮説推論方法、及びコンピュータ読み取り可能な記録媒体 | |
JP2011170632A (ja) | 公開情報のプライバシー保護装置、公開情報のプライバシー保護方法およびプログラム | |
WO2019208113A1 (ja) | 計算装置、計算方法及びプログラム | |
JP6524340B2 (ja) | 計算機及び計算方法 | |
JP6394630B2 (ja) | 情報処理装置、方法、及びプログラム | |
Su et al. | A novel many-objective optimization algorithm based on the hybrid angle-encouragement decomposition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140723 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20140724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20151112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5906061 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |