JP2020004057A - 選定プログラム、選定方法および選定装置 - Google Patents
選定プログラム、選定方法および選定装置 Download PDFInfo
- Publication number
- JP2020004057A JP2020004057A JP2018122476A JP2018122476A JP2020004057A JP 2020004057 A JP2020004057 A JP 2020004057A JP 2018122476 A JP2018122476 A JP 2018122476A JP 2018122476 A JP2018122476 A JP 2018122476A JP 2020004057 A JP2020004057 A JP 2020004057A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- learning model
- determination
- discrimination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/93—Document management systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
図1は、実施例1にかかる学習装置の全体例を説明する図である。図1に示す学習装置10は、再学習後に判別対象とするデータを選定する選定装置の一例である。例えば、学習装置10は、教師データを用いて学習された学習モデルを用いて、判別対象データの判別を実行して判別結果を得る。そして、学習装置10は、判別結果から、学習モデルが更改された場合に判別が変わりやすいものを特定する。その後、学習装置10は、学習モデルが更改されると、更改後の学習モデルに対して、判別が変わりやすいと特定された順で判別対象データの再判別処理を実行し、新たな判別結果を得る。
図2は、実施例1にかかる学習装置10の機能構成を示す機能ブロック図である。図2に示すように、学習装置10は、通信部11、記憶部12、制御部20を有する。
図7は、処理の流れを示すフローチャートである。ここでは、判別処理、選定処理、再判別処理の一連の流れを説明するが、別々に実行することもできる。
次に、図8から図13を用いて、文書間の類似判別を実行する例を用いて、具体例を説明する。図8は、具体的なデータ例を示す図である。図9は、特徴量である文書間の単語の重複度合を示す図である。図10は、学習対象の入力データおよび出力結果を説明する図である。図11は、判別対象データの判別結果を説明する図である。図12は、乖離指標の算出例を説明する図である。図13は、再判別時の優先順位の設定例を説明する図である。なお、ここでは、説明を簡単にするために、学習時のデータと判別時のデータとが同じ例で説明するが、あくまで一例であり、これに限定されるものではない。
上述した不安定度(乖離指標)による優先度付けは、学習モデルの更改前後での変化が微小であればより効果的である。学習モデルの変化が微小とは、学習モデルのパラメータの変化が微小であるということであり、学習モデルの変化が微小とは、更改前モデルf(x;wold)と更改後モデルf(x;wnew)においてwnew−woldが微小であることである。
上述したように、学習装置10は、学習モデルが更改された場合、更改前の学習モデルでの判別結果のうち判別結果が変わりやすいものから優先的に再判別処理を行うことができるので、高速に判定結果を判明させることができる。したがって、影響の大きい判別対象データのみを再判別することもでき、学習モデル更改後の再判別処理にかかる時間を短縮することができる。
実施例1では、学習データとして教師有データを用いた教師有学習を例にして説明したが、これに限定されるものではなく、教師無データを用いた教師無学習、教師有データおよび教師無データを用いた半教師学習などを採用することもできる。また、実施例1では、文書の類似関係を学習する例を説明したが、学習内容を限定するものではなく、一般的な様々な学習を採用することができる。
また、学習装置10は、複数の判別対象データの中から、乖離指標に関する所定の基準に基づき、再判別対象の判別対象データを選定することもできる。例えば、学習装置10は、過去の実績から判別結果が変わる可能性が高い閾値を決定し、当該閾値以上の乖離指標に該当するデータを判別対象データに選定することもできる。また、閾値は、過去の実績等により判別対象とする範囲指定することもできる。
例えば、学習装置10は、学習モデルAから学習モデルBに更改された後、学習モデルBのパラメータを用いて判別対象データの優先順位を決定し、優先順位の順で再判別を実行する。ここで、再判別の処理中に、学習モデルBが学習モデルCに更改されることもある。この場合、学習装置10は、現在の再判別処理を終了し、学習モデルCのパラメータを用いて判別対象データの優先順位を決定して、優先順位の順で再判別を実行することもできる。また、学習装置10は、現在の再判別処理を継続しつつ、並行して、学習モデルCのパラメータを用いて判別対象データの優先順位を決定する。そして、学習装置10は、現在の再判別処理が終了した後、学習モデルCによる優先順位の順で再判別を実行することもできる。
本実施例では、一般的な機械学習に加えて、RNNやCNN(Convolutional Neural Network)など様々なニューラルネットワークを用いることができる。また、学習の手法も、誤差逆伝播以外にも公知の様々な手法を採用することができる。また、ニューラルネットワークは、例えば入力層、中間層(隠れ層)、出力層から構成される多段構成であり、各層は複数のノードがエッジで結ばれる構造を有する。各層は、「活性化関数」と呼ばれる関数を持ち、エッジは「重み」を持ち、各ノードの値は、前の層のノードの値、接続エッジの重みの値(重み係数)、層が持つ活性化関数から計算される。なお、計算方法については、公知の様々な手法を採用できる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
図17は、ハードウェア構成例を示す図である。図17に示すように、学習装置10は、ネットワーク接続装置10a、入力装置10b、HDD(Hard Disk Drive)10c、メモリ10d、プロセッサ10eを有する。また、図17に示した各部は、バス等で相互に接続される。
11 通信部
12 記憶部
13 学習データDB
14 学習結果DB
15 判別対象データDB
16 判別結果DB
17 優先順位DB
20 制御部
21 学習部
22 判別部
23 順位判定部
Claims (6)
- コンピュータに、
複数のデータを学習モデルを用いて複数の判別候補のいずれかに判別する際に、前記複数のデータのそれぞれについて、前記学習モデルによる判別結果の前記複数の判別候補に対する不確かさを示す乖離指標を算出し、
前記学習モデルの更改に応じ、前記乖離指標に基づき、更改された前記学習モデルを用いて再判別を行うデータを前記複数のデータから選定する
処理を実行させる選定プログラム。 - 請求項1に記載の選定プログラムであって、
前記選定する処理は、前記複数のデータそれぞれの判別結果に対する前記乖離指標に基づき、前記複数のデータそれぞれに優先順位の順位付けを行い、前記優先順位にしたがって、前記複数のデータの中から、更改された前記学習モデルを用いて再判別を行うデータを選定する処理を実行する、選定プログラム。 - 請求項1に記載の選定プログラムであって、
前記選定する処理は、前記複数のデータの中から、前記乖離指標に関する所定の基準に基づき、更改された前記学習モデルを用いて再判別を行うデータを選定する処理を実行する、選定プログラム。 - 請求項1に記載の選定プログラムであって、
前記選定する処理は、更改前後の前記学習モデルの更新量を用いて、更改された前記学習モデルを用いて再判別を行うデータに選定する対象となる前記乖離指標の範囲を決定する処理を実行する、選定プログラム。 - コンピュータが、
複数のデータを学習モデルを用いて複数の判別候補のいずれかに判別する際に、前記複数のデータのそれぞれについて、前記学習モデルによる判別結果の前記複数の判別候補に対する不確かさを示す乖離指標を算出し、
前記学習モデルの更改に応じ、前記乖離指標に基づき、更改された前記学習モデルを用いて再判別を行うデータを前記複数のデータから選定する
処理を実行する選定方法。 - 複数のデータを学習モデルを用いて複数の判別候補のいずれかに判別する際に、前記複数のデータのそれぞれについて、前記学習モデルによる判別結果の前記複数の判別候補に対する不確かさを示す乖離指標を算出する算出部と、
前記学習モデルの更改に応じ、前記乖離指標に基づき、更改された前記学習モデルを用いて再判別を行うデータを前記複数のデータから選定する選定部と
を有する選定装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018122476A JP7139723B2 (ja) | 2018-06-27 | 2018-06-27 | 選定プログラム、選定方法および選定装置 |
US16/430,699 US20200005182A1 (en) | 2018-06-27 | 2019-06-04 | Selection method, selection apparatus, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018122476A JP7139723B2 (ja) | 2018-06-27 | 2018-06-27 | 選定プログラム、選定方法および選定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020004057A true JP2020004057A (ja) | 2020-01-09 |
JP7139723B2 JP7139723B2 (ja) | 2022-09-21 |
Family
ID=69008217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018122476A Active JP7139723B2 (ja) | 2018-06-27 | 2018-06-27 | 選定プログラム、選定方法および選定装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20200005182A1 (ja) |
JP (1) | JP7139723B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113205082B (zh) * | 2021-06-22 | 2021-10-15 | 中国科学院自动化研究所 | 基于采集不确定性解耦的鲁棒虹膜识别方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017145960A1 (ja) * | 2016-02-24 | 2017-08-31 | 日本電気株式会社 | 学習装置、学習方法および記録媒体 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040111253A1 (en) * | 2002-12-10 | 2004-06-10 | International Business Machines Corporation | System and method for rapid development of natural language understanding using active learning |
US7792353B2 (en) * | 2006-10-31 | 2010-09-07 | Hewlett-Packard Development Company, L.P. | Retraining a machine-learning classifier using re-labeled training samples |
-
2018
- 2018-06-27 JP JP2018122476A patent/JP7139723B2/ja active Active
-
2019
- 2019-06-04 US US16/430,699 patent/US20200005182A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017145960A1 (ja) * | 2016-02-24 | 2017-08-31 | 日本電気株式会社 | 学習装置、学習方法および記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP7139723B2 (ja) | 2022-09-21 |
US20200005182A1 (en) | 2020-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7169369B2 (ja) | 機械学習アルゴリズムのためのデータを生成する方法、システム | |
US20190354810A1 (en) | Active learning to reduce noise in labels | |
US8346776B2 (en) | Generating a taxonomy for documents from tag data | |
US10452993B1 (en) | Method to efficiently apply personalized machine learning models by selecting models using active instance attributes | |
JP4429236B2 (ja) | 分類ルール作成支援方法 | |
US20220044148A1 (en) | Adapting prediction models | |
JP7473511B2 (ja) | 学習装置、学習方法および学習プログラム | |
KR20210064344A (ko) | 코드 분류를 위한 하이브리드 머신러닝 모델 | |
US20200394265A1 (en) | Matching Bias and Relevancy in Reviews with Artificial Intelligence | |
JP2023512856A (ja) | 対話型機械学習 | |
JP2023052555A (ja) | 対話型機械学習 | |
CN116127376A (zh) | 模型训练方法、数据分类分级方法、装置、设备及介质 | |
JP6975685B2 (ja) | 学習制御方法及び計算機システム | |
KR20230054167A (ko) | 기계학습모델의 생성 방법 및 그 장치 | |
US20210192361A1 (en) | Intelligent data object generation and assignment using artificial intelligence techniques | |
JP7139723B2 (ja) | 選定プログラム、選定方法および選定装置 | |
JP5187635B2 (ja) | 能動学習システム、能動学習方法、及び能動学習用プログラム | |
KR102221263B1 (ko) | 뇌기능 지식 베이스 자가 성장 시스템 및 방법 | |
JP5555238B2 (ja) | ベイジアンネットワーク構造学習のための情報処理装置及びプログラム | |
KR20230127861A (ko) | 신용평가 모델 업데이트 또는 교체 방법 및 장치 | |
JP7458352B2 (ja) | 学習装置、学習方法および学習プログラム | |
JP2019159918A (ja) | クラスタリングプログラム、クラスタリング方法およびクラスタリング装置 | |
JP2022047526A (ja) | 分類装置、分類方法および分類プログラム | |
JP2018156332A (ja) | 生成装置、生成方法および生成プログラム | |
JP7044642B2 (ja) | 評価装置、評価方法および評価プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220822 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7139723 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |