JP7026922B1 - 情報処理装置、方法、プログラム及びシステム - Google Patents
情報処理装置、方法、プログラム及びシステム Download PDFInfo
- Publication number
- JP7026922B1 JP7026922B1 JP2021574916A JP2021574916A JP7026922B1 JP 7026922 B1 JP7026922 B1 JP 7026922B1 JP 2021574916 A JP2021574916 A JP 2021574916A JP 2021574916 A JP2021574916 A JP 2021574916A JP 7026922 B1 JP7026922 B1 JP 7026922B1
- Authority
- JP
- Japan
- Prior art keywords
- tree structure
- data set
- trained model
- leaf node
- structure trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims description 99
- 238000012545 processing Methods 0.000 claims abstract description 61
- 238000012549 training Methods 0.000 claims abstract description 53
- 238000011156 evaluation Methods 0.000 claims description 60
- 238000007637 random forest analysis Methods 0.000 claims description 6
- 238000003672 processing method Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 7
- 238000010801 machine learning Methods 0.000 description 35
- 238000011157 data evaluation Methods 0.000 description 30
- 238000012854 evaluation process Methods 0.000 description 16
- 238000012795 verification Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000003066 decision tree Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007636 ensemble learning method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
Description
図1~図5を参照しつ、第1の実施形態について説明する。第1の実施形態においては、本発明を情報処理装置へと適用した例について説明する。ここで、情報処理装置は、後述の通り、CPU等を含む演算ユニットとメモリを備えたコンピュータであり、例えば、PC、マイコン等が含まれる。なお、情報処理装置に相当する機能をFPGA等のICにより回路的に実現してもよい。
図1は、本実施形態に係る情報処理装置1の機能ブロック図である。同図から明らかな通り、情報処理装置1は、記憶部11、データ読出部12、機械学習処理部13、記憶処理部15、データ評価部16及びデータ出力部17を備えている。
次に、情報処理装置1の動作について説明する。情報処理装置1の動作は、学習済モデルの生成のための機械学習処理と、生成された学習済モデルを利用した評価用データセットの評価処理を含む。
図2は、機械学習処理に関する動作フローチャートである。同図から明らかな通り、処理が開始すると、データ読出部12は、記憶部11から所定のデータセットを読み出す。機械学習処理部13は、この読み出されたデータセットから重複を許して無作為に所定数のデータを取り出すことにより、学習用データセット(トレーニングセットと呼んでもよい)と評価用データセット(バリデーションセット又はテストセットと呼んでもよい)をそれぞれ生成する(S11)。生成された学習用データセットと評価用データセットは、それぞれ、記憶処理部15により記憶部11へと記憶される。
次に、学習用データセットに基づいて生成された学習済モデルを用いた評価用データセットの評価処理について説明する。
とする処理を行う。
第1の実施形態においては、学習用データセットに基づいて生成された学習済モデルを用いて、評価用データセットの評価処理を行った。本実施形態においては、評価用データセットに基づいて生成された学習済モデルを用いて、学習用データセットの評価処理を行う。
本実施形態に係るハードウェア構成は第1の実施形態と略同一であるので詳細な説明は省略する。
本実施形態に係る動作は、第一の実施形態において学習用データセットを用いた場面で評価用データセットを用い、評価用データセットを用いた場面で学習用データセットを用いる点において相違するのみである。すなわち、評価用データセットに基づいて生成された学習済モデルを用いて、学習用データセットの評価処理を行うものである。そのため、詳細な説明は省略する。
本発明は、複数の木構造学習済モデルを得るアンサンブル学習アルゴリズムにより得られた各学習済モデルに対しても適用することができる。従って、本実施形態においては、本発明をバギング学習、例として、ランダムフォレストアルゴリズムにより得られる学習済モデルに対して適用した例について説明する。なお、アンサンブル学習には、複数の木構造モデルを含む、バギング学習とブースティング学習が含まれる。
本実施形態に係るハードウェア構成と第1の実施形態に係るハードウェア構成とは略同一であるため、詳細な説明は省略する。
図7は、本実施形態に係る評価処理に関するゼネラルフローチャートである。同図から明らかな通り、評価処理のおよその流れは、第1の実施形態と略同一である。しかしながら、本実施形態は、以下の点において第1の実施形態と相違する。
本発明は、上述の実施形態に限定されず、様々に変形して実施することができる。
11 記憶部
12 データ読出部
13 機械学習処理部
15 記憶処理部
16 データ評価部
17 データ出力部
Claims (20)
- 第1のデータセットを用いて木構造モデルに対して学習処理を行うことにより得られた木構造学習済モデルを読み出す、読出部と、
前記木構造学習済モデルに対して、第2のデータセットを入力して、前記木構造学習済モデルにおいて、前記第2のデータセットに対応する葉ノードである第1の葉ノードを特定する、葉ノード特定部と、
前記木構造学習済モデルの全ての葉ノードの個数と、前記第1の葉ノードの個数又は前記木構造学習済モデルの葉ノードのうち前記第1の葉ノードに該当しない葉ノードである第2の葉ノードの個数との比率に関する情報を生成する、比率情報生成部と、を備えた、情報処理装置。 - 前記木構造学習済モデルの葉ノードのうち前記第2の葉ノードに対応する分岐条件を出力する、条件出力部を、さらに、備えた、請求項1に記載の情報処理装置。
- 前記第2の葉ノードに対応する分岐条件を満たすデータセットを所定のデータベースから検索する、データ検索部を、さらに、備えた、請求項2に記載の情報処理装置。
- 前記分岐条件は、前記木構造学習済モデルの根ノードから前記第2の葉ノードへと至る一連の分岐条件である、請求項2又は3に記載の情報処理装置。
- 前記木構造学習済モデルの葉ノードのそれぞれについて、前記第2のデータセットが対応付けられた回数を記憶する、回数記憶部を、さらに、備える、請求項1~4のいずれか1項に記載の情報処理装置。
- 前記第1の葉ノードのうち、前記回数が所定回数以下の葉ノードに対応する分岐条件を出力する、第2条件出力部を、さらに、備える、請求項5に記載の情報処理装置。
- 前記木構造学習済モデルの葉ノードのそれぞれについて、前記葉ノードに基づく出力と正解値との推論誤差を生成する、誤差生成部を、さらに、備える、請求項1~6のいずれか1項に記載の情報処理装置。
- 前記第1のデータセットは、学習用データセットであり、前記第2のデータセットは評価用データセットである、請求項1~7のいずれか1項に記載の情報処理装置。
- 前記第1のデータセットは、評価用データセットであり、前記第2のデータセットは学習用データセットである、請求項1~7のいずれか1項に記載の情報処理装置。
- 前記第1のデータセットと前記第2のデータセットは、同一のデータセットに由来する、請求項1~9のいずれか1項に記載の情報処理装置。
- 第1のデータセットを用いて木構造モデルに対して学習処理を行うことにより得られた木構造学習済モデルを読み出す、読出部と、
前記木構造学習済モデルに対して、第2のデータセットを入力して、前記木構造学習済モデルにおいて、前記第2のデータセットに対応する葉ノードである第1の葉ノードを特定する、葉ノード特定部と、
前記木構造学習済モデルの全ての葉ノードの個数と、前記第1の葉ノードの個数又は前記木構造学習済モデルの葉ノードのうち前記第1の葉ノードに該当しない葉ノードである第2の葉ノードの個数との比率に関する情報を生成する、比率情報生成部と、を備えた、情報処理システム。 - 第1のデータセットを用いて木構造モデルに対して学習処理を行うことにより得られた木構造学習済モデルを読み出す、読出ステップと、
前記木構造学習済モデルに対して、第2のデータセットを入力して、前記木構造学習済モデルにおいて、前記第2のデータセットに対応する葉ノードである第1の葉ノードを特定する、葉ノード特定ステップと、
前記木構造学習済モデルの全ての葉ノードの個数と、前記第1の葉ノードの個数又は前記木構造学習済モデルの葉ノードのうち前記第1の葉ノードに該当しない葉ノードである第2の葉ノードの個数との比率に関する情報を生成する、比率情報生成ステップと、を備えた、情報処理方法。 - 第1のデータセットを用いて木構造モデルに対して学習処理を行うことにより得られた木構造学習済モデルを読み出す、読出ステップと、
前記木構造学習済モデルに対して、第2のデータセットを入力して、前記木構造学習済モデルにおいて、前記第2のデータセットに対応する葉ノードである第1の葉ノードを特定する、葉ノード特定ステップと、
前記木構造学習済モデルの全ての葉ノードの個数と、前記第1の葉ノードの個数又は前記木構造学習済モデルの葉ノードのうち前記第1の葉ノードに該当しない葉ノードである第2の葉ノードの個数との比率に関する情報を生成する、比率情報生成ステップと、を備えた、情報処理プログラム。 - 第1のデータセットを用いて木構造モデルに対して学習処理を行うことにより得られた複数の木構造学習済モデルを読み出す、読出部と、
各前記木構造学習済モデルに対して、第2のデータセットを入力して、各前記木構造学習済モデルにおいて、前記第2のデータセットに対応する葉ノードである第1の葉ノードを特定する、葉ノード特定部と、
各前記木構造学習済モデルの全ての葉ノードの個数と、前記第1の葉ノードの個数又は前記木構造学習済モデルの葉ノードのうち前記第1の葉ノードに該当しない葉ノードである第2の葉ノードの個数との比率に関する情報を、各木構造学習済モデルについて生成する、比率情報生成部と、を備えた、情報処理装置。 - 前記複数の木構造学習済モデルは、アンサンブル学習により得られる、請求項14に記載の情報処理装置。
- 前記アンサンブル学習は、バギング学習又はブースティング学習を含む、請求項15に記載の情報処理装置。
- 前記バギング学習は、ランダムフォレストを含む、請求項16に記載の情報処理装置。
- 第1のデータセットを用いて木構造モデルに対して学習処理を行うことにより得られた複数の木構造学習済モデルを読み出す、読出部と、
各前記木構造学習済モデルに対して、第2のデータセットを入力して、各前記木構造学習済モデルにおいて、前記第2のデータセットに対応する葉ノードである第1の葉ノードを特定する、葉ノード特定部と、
各前記木構造学習済モデルの全ての葉ノードの個数と、前記第1の葉ノードの個数又は前記木構造学習済モデルの葉ノードのうち前記第1の葉ノードに該当しない葉ノードである第2の葉ノードの個数との比率に関する情報を、各木構造学習済モデルについて生成する、比率情報生成部と、を備えた、情報処理システム。 - 第1のデータセットを用いて木構造モデルに対して学習処理を行うことにより得られた複数の木構造学習済モデルを読み出す、読出ステップと、
各前記木構造学習済モデルに対して、第2のデータセットを入力して、各前記木構造学習済モデルにおいて、前記第2のデータセットに対応する葉ノードである第1の葉ノードを特定する、葉ノード特定ステップと、
各前記木構造学習済モデルの全ての葉ノードの個数と、前記第1の葉ノードの個数又は前記木構造学習済モデルの葉ノードのうち前記第1の葉ノードに該当しない葉ノードである第2の葉ノードの個数との比率に関する情報を、各木構造学習済モデルについて生成する、比率情報生成ステップと、を備えた、情報処理方法。 - 第1のデータセットを用いて木構造モデルに対して学習処理を行うことにより得られた複数の木構造学習済モデルを読み出す、読出ステップと、
各前記木構造学習済モデルに対して、第2のデータセットを入力して、各前記木構造学習済モデルにおいて、前記第2のデータセットに対応する葉ノードである第1の葉ノードを特定する、葉ノード特定ステップと、
各前記木構造学習済モデルの全ての葉ノードの個数と、前記第1の葉ノードの個数又は前記木構造学習済モデルの葉ノードのうち前記第1の葉ノードに該当しない葉ノードである第2の葉ノードの個数との比率に関する情報を、各木構造学習済モデルについて生成する、比率情報生成ステップと、を備えた、情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022012934A JP2023046206A (ja) | 2021-09-22 | 2022-01-31 | 情報処理装置、方法、プログラム及びシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/034775 WO2023047484A1 (ja) | 2021-09-22 | 2021-09-22 | 情報処理装置、方法、プログラム及びシステム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022012934A Division JP2023046206A (ja) | 2021-09-22 | 2022-01-31 | 情報処理装置、方法、プログラム及びシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7026922B1 true JP7026922B1 (ja) | 2022-03-01 |
JPWO2023047484A1 JPWO2023047484A1 (ja) | 2023-03-30 |
Family
ID=81183891
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021574916A Active JP7026922B1 (ja) | 2021-09-22 | 2021-09-22 | 情報処理装置、方法、プログラム及びシステム |
JP2022012934A Pending JP2023046206A (ja) | 2021-09-22 | 2022-01-31 | 情報処理装置、方法、プログラム及びシステム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022012934A Pending JP2023046206A (ja) | 2021-09-22 | 2022-01-31 | 情報処理装置、方法、プログラム及びシステム |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4407525A1 (ja) |
JP (2) | JP7026922B1 (ja) |
WO (1) | WO2023047484A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013033450A (ja) * | 2011-06-27 | 2013-02-14 | Nippon Steel & Sumitomo Metal | 製造工期予測装置、製造工期予測方法、及びコンピュータプログラム |
CN112580781A (zh) * | 2020-12-14 | 2021-03-30 | 深圳前海微众银行股份有限公司 | 深度学习模型的处理方法、装置、设备和存储介质 |
-
2021
- 2021-09-22 EP EP21958361.4A patent/EP4407525A1/en active Pending
- 2021-09-22 WO PCT/JP2021/034775 patent/WO2023047484A1/ja active Application Filing
- 2021-09-22 JP JP2021574916A patent/JP7026922B1/ja active Active
-
2022
- 2022-01-31 JP JP2022012934A patent/JP2023046206A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013033450A (ja) * | 2011-06-27 | 2013-02-14 | Nippon Steel & Sumitomo Metal | 製造工期予測装置、製造工期予測方法、及びコンピュータプログラム |
CN112580781A (zh) * | 2020-12-14 | 2021-03-30 | 深圳前海微众银行股份有限公司 | 深度学习模型的处理方法、装置、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2023046206A (ja) | 2023-04-03 |
WO2023047484A1 (ja) | 2023-03-30 |
EP4407525A1 (en) | 2024-07-31 |
JPWO2023047484A1 (ja) | 2023-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lingjun et al. | Random forest as a predictive analytics alternative to regression in institutional research | |
US20190156216A1 (en) | Machine learning model interpretation | |
US20200027528A1 (en) | Systems and methods for predicting chemical reactions | |
JP5403727B2 (ja) | 教材選択システムの方法とプログラム | |
CN111310860B (zh) | 改进梯度提升决策树性能的方法及计算机可读存储介质 | |
CN111026664B (zh) | 基于ann的程序检测方法和检测系统及应用 | |
Beresnev et al. | Approximation of the competitive facility location problem with MIPs | |
CN115114421A (zh) | 一种问答模型训练方法 | |
CN112420125A (zh) | 分子属性预测方法、装置、智能设备和终端 | |
CN110472659B (zh) | 数据处理方法、装置、计算机可读存储介质和计算机设备 | |
CN117056452A (zh) | 知识点学习路径构建方法、装置、设备以及存储介质 | |
Lopes et al. | Generating applicable synthetic instances for branch problems | |
US20210397960A1 (en) | Reliability evaluation device and reliability evaluation method | |
Haraldsson et al. | Exploring fitness and edit distance of mutated python programs | |
Bader-El-Den | Self-adaptive heterogeneous random forest | |
Zhang et al. | Task Me Anything | |
JP7026922B1 (ja) | 情報処理装置、方法、プログラム及びシステム | |
CN113628077B (zh) | 生成不重复考题的方法、终端及可读存储介质 | |
Koljonen | Comparison of nearest point algorithms by genetic algorithms | |
CN111026661B (zh) | 一种软件易用性全面测试方法及系统 | |
Singh et al. | Folksonomy based trend analysis on community question answering sites: A perspective on software technologies | |
CN114254199A (zh) | 基于二分图投影和node2vec的课程推荐方法 | |
Potolea et al. | Meta-learning framework for prediction strategy evaluation | |
CN113656279A (zh) | 基于残差网络和度量注意机制的代码气味检测方法 | |
JP7062250B1 (ja) | 情報処理装置、方法、プログラム及びシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20211216 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211216 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7026922 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |