JP7421136B2 - 機械学習プログラム、機械学習方法および機械学習装置 - Google Patents
機械学習プログラム、機械学習方法および機械学習装置 Download PDFInfo
- Publication number
- JP7421136B2 JP7421136B2 JP2021552063A JP2021552063A JP7421136B2 JP 7421136 B2 JP7421136 B2 JP 7421136B2 JP 2021552063 A JP2021552063 A JP 2021552063A JP 2021552063 A JP2021552063 A JP 2021552063A JP 7421136 B2 JP7421136 B2 JP 7421136B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- value
- variable
- learning
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 112
- 238000012549 training Methods 0.000 claims description 101
- 238000000034 method Methods 0.000 claims description 88
- 230000008569 process Effects 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 40
- 238000009826 distribution Methods 0.000 claims description 20
- 238000003860 storage Methods 0.000 claims description 18
- 238000007781 pre-processing Methods 0.000 description 48
- 239000003814 drug Substances 0.000 description 32
- 238000010586 diagram Methods 0.000 description 24
- 239000000126 substance Substances 0.000 description 22
- 229940079593 drug Drugs 0.000 description 20
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000012795 verification Methods 0.000 description 9
- 230000001174 ascending effect Effects 0.000 description 8
- 230000002950 deficient Effects 0.000 description 8
- 238000004519 manufacturing process Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000007637 random forest analysis Methods 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 5
- 230000010365 information processing Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000007477 logistic regression Methods 0.000 description 3
- 238000010187 selection method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/24765—Rule-based classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明の上記および他の目的、特徴および利点は本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
[第1の実施の形態]
第1の実施の形態を説明する。
第1の実施の形態の機械学習装置10は、学習データに対して前処理を行い、前処理後の学習データを用いて機械学習を行い、未知の結果を予測するためのモデルを学習する。機械学習装置10は、クライアント装置でもよいしサーバ装置でもよい。機械学習装置10をコンピュータや情報処理装置と言うこともできる。
次に、第2の実施の形態を説明する。
第2の実施の形態の機械学習装置は、訓練データを用いて機械学習により、複数の説明変数の値の組み合わせから目的変数の値を予測するモデルを学習する。第2の実施の形態では、機械学習アルゴリズムとしてWide Learning(登録商標)を使用する。第2の実施の形態の機械学習装置は、クライアント装置でもよいしサーバ装置でもよい。また、第2の実施の形態の機械学習装置を、コンピュータや情報処理装置と言うこともできる。
機械学習装置100は、CPU101、RAM102、HDD103、画像インタフェース104、入力インタフェース105、媒体リーダ106および通信インタフェース107を有する。機械学習装置100が有するこれらのユニットは、バスに接続されている。機械学習装置100は、第1の実施の形態の機械学習装置10に対応する。CPU101は、第1の実施の形態の処理部12に対応する。RAM102またはHDD103は、第1の実施の形態の記憶部11に対応する。
図3は、訓練データテーブルの例を示す図である。
訓練データテーブル131は、複数のサンプルに対応する複数のレコードを含む訓練データを記憶する。訓練データテーブル131に記憶される訓練データは、製品の製造時に製造ラインにおいて収集されたデータである。訓練データテーブル131に含まれる各サンプルは、ID、複数の説明変数の値および目的変数の値を含む。
訓練データテーブル132は、訓練データテーブル131に対して離散化の前処理を行うことで生成される。訓練データテーブル132は、訓練データテーブル131と同様に、複数のサンプルに対応する複数のレコードを含む訓練データを記憶する。ただし、訓練データテーブル132の各サンプルには、幾つかの説明変数が追加されている。
図5は、Wide Learningの例を示す図である。
Wide Learningでは、少数の説明変数の値の組み合わせと目的変数の値との間に成立する可能性がある仮説を示すチャンクが網羅的に生成され、それら多数のチャンクの中から、訓練データのもとで信頼性が高い仮説を示すチャンクが採用される。採用されたチャンクの集合がモデルとなる。チャンクが示す仮説は、ある説明変数の値が特定の値であるならば目的変数の値が特定の値になる、という含意の論理命題である。仮説の仮定部分は、2以上の説明変数に関する条件の論理積であることもある。
離散化では、説明変数の値の範囲を2以上の区間に分割し、同一区間に属する値を同一視することで、説明変数の値を近似しその取り得る値の個数を減少させる。
エントロピーに基づく離散化(エントロピーベースの離散化)では、訓練データに含まれるサンプルを説明変数の値の昇順にソートし、同一の目的変数の値をもつサンプルが集中している区間を検出する。同一の区間の中では、目的変数の値ができる限り均一であることが好ましい。目的変数の値が「1」であるサンプルの集まりや目的変数の値が「0」であるサンプルの集まりは、できる限り分割しないようにする。目的変数の値が「1」であるサンプルと目的変数の値が「0」であるサンプルとが混在した集合は、できる限り目的変数の値に応じて分かれるようにする。エントロピーに基づく離散化では、同一の目的変数の値をもつサンプルの分布に応じて、複数の区間の境界が決定される。隣接する2つの区間の境界をカットポイントと言うことがある。
図7は、サンプルの分布と離散化の関係例を示す図である。
ここでは、説明変数として薬品量と温度に着目する。グラフ160は、薬品量を示す横軸と温度を示す縦軸とによって形成される二次元空間にサンプルを配置した分布図である。薬品量に着目すると、サンプル間の薬品量の分布は、グラフ160に含まれるサンプルを横軸に投影したものとなる。また、温度に着目すると、サンプル間の温度の分布は、グラフ160に含まれるサンプルを縦軸に投影したものとなる。
機械学習装置100は、訓練データに対して説明変数毎の離散化を前処理として行い、前処理後の訓練データを用いて1回目のWide Learningを実行する。ただし、離散化を行わない訓練データを用いて1回目のWide Learningを実行するようにしてもよい。機械学習装置100は、1回目のWide Learningの学習結果からチャンクテーブル134を生成する。チャンクテーブル134は、有効な仮説を示す複数のチャンクの情報を記憶する。チャンクの情報には、仮説の仮定部分に相当する説明変数の値の組み合わせと、前述の方法で算出されたチャンクの重要度とが含まれる。チャンクテーブル134に登録された複数のチャンクは、重要度の降順にソートされる。
図9は、複数の説明変数の離散化例を示す図である。
複数の説明変数の離散化は、単一の説明変数の離散化と同様に、数式(3)~(9)に従って行われる。ただし、複数の説明変数の離散化には、組み合わされた複数の説明変数の中から、次にカットポイントを追加する1つの説明変数を選択することが含まれる。
次に、領域166-3に着目し、領域166-3に属するサンプルを用いて、薬品量についてエントロピー最小のカットポイントが探索され、温度についてエントロピー最小のカットポイントが探索される。領域166-3に属するサンプルの集合が、前述のサンプル集合allに相当することになる。ここでは、温度のカットポイント164のエントロピーが、薬品量のカットポイントより小さいとする。また、カットポイント164のゲインが閾値より大きいとする。すると、温度に対してカットポイント164が追加される。これにより、領域166-3が、温度がカットポイント164以上である領域166-6と、温度がカットポイント164未満である領域とに分割される。
図11は、機械学習装置の機能例を示すブロック図である。
機械学習装置100は、訓練データ記憶部121、モデル記憶部122、前処理部123および機械学習部124を有する。訓練データ記憶部121およびモデル記憶部122は、例えば、RAM102またはHDD103の記憶領域を用いて実現される。前処理部123および機械学習部124は、例えば、プログラムを用いて実現される。
(S10)前処理部123は、訓練データ記憶部121から訓練データを取得する。
(S11)単一変数離散化部125は、ステップS10の訓練データに対して、前処理として単一変数離散化を行う。単一変数離散化の詳細は後述する。
(S16)機械学習部124は、ステップS15のWide Learningによって学習されたモデルを出力する。例えば、機械学習部124は、学習されたモデルをモデル記憶部122に格納する。また、例えば、機械学習部124は、学習されたモデルに含まれるチャンクを表示装置111に表示する。また、例えば、機械学習部124は、学習されたモデルを他の情報処理装置に送信する。
単一変数離散化は、前述のステップS11で実行される。
(S20)単一変数離散化部125は、訓練データの中の説明変数を1つ選択する。ここで選択する説明変数は、整数型や実数型など取り得る値の個数が多い「連続値」型の説明変数である。取り得る値の個数が少ない説明変数は、以下の処理の対象外としてよい。
(S22)単一変数離散化部125は、ステップS21でソートされた説明変数の最小値から最大値までの範囲のうち、以下のステップS23~S26の判定をまだ行っていない区間を1つ選択する。最初は、最小値から最大値までの範囲全体が1つの区間とみなされる。当該範囲が分割された場合、分割後の区間が選択対象となる。
(S24)単一変数離散化部125は、ステップS23で検出されたカットポイントについて、数式(7)のゲインおよび数式(9)の閾値を算出する。
Wide Learningは、前述のステップS12,S15で実行される。
(S30)機械学習部124は、訓練データから複数の説明変数および目的変数を抽出し、説明変数および目的変数それぞれの取り得る値を列挙する。
(S33)機械学習部124は、ステップS32で検索されたサンプルのうち、目的変数の値がステップS31のチャンクと合致するサンプルの個数をヒット数として算出する。また、機械学習部124は、ステップS32で検索されたサンプルの個数をカウントし、当該個数に対するヒット数の割合をヒット率として算出する。
(S36)機械学習部124は、説明変数の値および目的変数の値の組み合わせを全て選択したか判断する。全ての組み合わせを選択した場合はステップS37に進み、未選択の組み合わせがある場合はステップS31に戻る。
次に、変数選択の2通りの方法を説明する。
この変数選択は、前述のステップS13で実行され得る。
(S40)変数選択部126は、重要度の高い方からチャンクを1つ選択する。ここで選択するチャンクは、説明変数が2個以上使用されているチャンクである。説明変数が1個のみであるチャンクは以下の処理の対象外としてよい。
(S42)変数選択部126は、ステップS41で抽出された説明変数の組が既に出現済みであるか判断する。同じ説明変数の組が出現済みである場合はステップS44に進み、それ以外の場合はステップS43に進む。
(S44)変数選択部126は、学習されたモデルに含まれる全てのチャンクを選択したか判断する。全てのチャンクを選択した場合はステップS45に進み、未選択のチャンクがある場合はステップS40に戻る。
(S46)変数選択部126は、ステップS45で選択した説明変数の組の中に、離散化対象として既に採用された説明変数が含まれるか判断する。採用済みの説明変数が含まれる場合はステップS48に進み、それ以外の場合はステップS47に進む。
(S48)変数選択部126は、ステップS40~S43で抽出された説明変数の組を全て選択したか判断する。全ての説明変数の組を選択した場合はステップS49に進み、未選択の説明変数の組がある場合はステップS45に戻る。
図16は、変数選択の他の手順例を示すフローチャートである。
(S50)変数選択部126は、学習されたモデルに含まれる複数のチャンクそれぞれから、仮説の仮定部分に出現する説明変数の組を抽出する。
(S52)変数選択部126は、説明変数の組を出現数の降順にソートする。
(S54)変数選択部126は、ステップS53で選択した説明変数の組の中に、離散化対象として既に採用された説明変数が含まれるか判断する。採用済みの説明変数が含まれる場合はステップS56に進み、それ以外の場合はステップS55に進む。
(S56)変数選択部126は、ステップS50~S52で抽出された説明変数の組を全て選択したか判断する。全ての説明変数の組を選択した場合はステップS57に進み、未選択の説明変数の組がある場合はステップS53に戻る。
図15および図16に示す処理では、チャンクの選択順序について、重要度の高い順(図15)または出現数の多い順(図16)でチャンクが選択される。ただし、その他の態様として、例えば、チャンクのヒット数やヒット率に基づいて、ヒット数やヒット率の高い順にチャンクが選択され、変数選択が実行されてもよい。
・データセットの80%を訓練用のデータセットとして利用し、残りの20%をラベル推定の精度評価用のデータセットとして利用する。
・訓練用のデータセットのうちの75%を、カットポイントの決定における学習用のデータセットとして利用し、残りの25%をカットポイントの決定における評価用のデータセットとして利用する。なお、カットポイントの決定における評価用のデータセットは、比較例の場合には、カットポイントの最適化処理に利用される。
検証結果テーブル171は、効果検証の結果を示す。図17において、cut、qcut、mdlpおよびmmdlpAllは、比較例の判定精度を示す。また、count_maxおよびweight(abs)_maxは、提案手法の判定精度を示す。
図17に示す判定精度は、評価用のデータセットに対する判定処理の全試行に対して、判定が成功した比率を示す。判定精度に示される数値が1の場合、全試行が正解であることを意味し、数値が大きいほど判定精度が高いことを意味する。
図17を参照すると、提案手法による前処理を実施した場合の判定精度は、比較例として、実施した何れの手法による精度を上回ることが分かる。また、機械学習アルゴリズムとしてランダムフォレストを利用した場合においても、提案手法による前処理を実施した場合の判定精度が、ほとんどの比較例の精度を上回る。従って、提案手法による前処理の有効性は、機械学習アルゴリズムがWide Learningである場合に限定されないことが分かる。
複数変数離散化は、前述のステップS14で実行される。
(S60)複数変数離散化部127は、変数選択部126によって離散化対象に採用された説明変数の組のうち、1つの説明変数の組を選択する。
(S66)複数変数離散化部127は、ステップS65で算出されたゲインが、ステップS65で算出された閾値を超えるか判断する。ゲインが閾値を超える場合はステップS67に進み、ゲインが閾値以下である場合はステップS68に進む。
11 記憶部
12 処理部
13,14 学習データ集合
13a,13b データ項目
13c ラベル情報
15 モデル
16 特徴情報集合
17 指標値集合
Claims (7)
- コンピュータに、
それぞれが複数のデータ項目のデータ項目値の組み合わせに対してラベル情報を関連付けたデータである複数の学習データについて、データ項目毎に前記データ項目値を所定の基準に基づいて離散化した離散化データ値に変換し、
前記複数のデータ項目の前記離散化データ値を入力として前記ラベル情報に関する判定を行うモデルであって、それぞれが前記複数のデータ項目のうち一部のデータ項目が満たす前記離散化データ値の条件と前記ラベル情報の推定値との複数の関係と、前記複数の関係それぞれの重要性を示す指標値とを含むモデルを学習する学習処理を、変換後の前記複数の学習データを用いて実行し、
前記モデルに含まれる前記複数の関係から前記条件に使用されている前記一部のデータ項目を抽出することで、それぞれが前記複数のデータ項目のうち前記判定に用いる2以上のデータ項目の組み合わせを示す異なる複数の特徴情報と、前記複数の特徴情報それぞれに対応付ける前記指標値とを取得し、
前記指標値に基づいて前記複数の特徴情報のうち1以上の特徴情報を選択し、選択した前記1以上の特徴情報に基づいて、前記データ項目値の離散化に用いる基準を変更する、
処理を実行させる機械学習プログラム。 - 1つのデータ項目の前記データ項目値の離散化は、前記1つのデータ項目が取り得る前記データ項目値の範囲を2以上の区間に分割することを含み、
離散化に用いる基準の変更では、選択した1つの特徴情報が示す前記2以上のデータ項目の組み合わせに対して前記データ項目値の多次元分布を算出し、算出した前記多次元分布に基づいて前記2以上のデータ項目それぞれの前記2以上の区間を変更する、
請求項1記載の機械学習プログラム。 - 前記2以上の区間の変更では、前記ラベル情報が同一である学習データの密度に応じて前記多次元分布を複数の領域に分割し、前記複数の領域の間の境界に基づいて前記2以上のデータ項目それぞれが取り得る前記データ項目値の範囲に対する分割点を決定する、
請求項2記載の機械学習プログラム。 - 前記コンピュータに更に、データ項目毎に前記データ項目値を前記変更した基準に基づいて離散化した他の離散化データ値に変換し、再変換後の前記複数の学習データを用いて前記学習処理を実行し、学習された前記モデルを出力する処理を実行させる、
請求項1記載の機械学習プログラム。 - コンピュータに、
それぞれが複数のデータ項目のデータ項目値の組み合わせに対してラベル情報を関連付けたデータである複数の学習データについて、データ項目毎に前記データ項目値を所定の基準に基づいて離散化した離散化データ値に変換し、
前記複数のデータ項目の前記離散化データ値を入力として前記ラベル情報に関する判定を行うモデルを学習する学習処理を、変換後の前記複数の学習データを用いて実行し、
前記学習処理の実行結果から、それぞれが前記複数のデータ項目のうち前記判定に用いる2以上のデータ項目の組み合わせを示す異なる複数の特徴情報と、前記複数の特徴情報それぞれの重要性を示す指標値とを取得し、
前記指標値に基づいて前記複数の特徴情報のうち1以上の特徴情報を、前記1以上の特徴情報の中で同一のデータ項目を含む特徴情報の個数が閾値以下になるように選択し、選択した前記1以上の特徴情報に基づいて、前記データ項目値の離散化に用いる基準を変更する、
処理を実行させる機械学習プログラム。 - コンピュータが、
それぞれが複数のデータ項目のデータ項目値の組み合わせに対してラベル情報を関連付けたデータである複数の学習データについて、データ項目毎に前記データ項目値を所定の基準に基づいて離散化した離散化データ値に変換し、
前記複数のデータ項目の前記離散化データ値を入力として前記ラベル情報に関する判定を行うモデルであって、それぞれが前記複数のデータ項目のうち一部のデータ項目が満たす前記離散化データ値の条件と前記ラベル情報の推定値との複数の関係と、前記複数の関係それぞれの重要性を示す指標値とを含むモデルを学習する学習処理を、変換後の前記複数の学習データを用いて実行し、
前記モデルに含まれる前記複数の関係から前記条件に使用されている前記一部のデータ項目を抽出することで、それぞれが前記複数のデータ項目のうち前記判定に用いる2以上のデータ項目の組み合わせを示す異なる複数の特徴情報と、前記複数の特徴情報それぞれに対応付ける前記指標値とを取得し、
前記指標値に基づいて前記複数の特徴情報のうち1以上の特徴情報を選択し、選択した前記1以上の特徴情報に基づいて、前記データ項目値の離散化に用いる基準を変更する、
機械学習方法。 - それぞれが複数のデータ項目のデータ項目値の組み合わせに対してラベル情報を関連付けたデータである複数の学習データを記憶する記憶部と、
前記複数の学習データについて、データ項目毎に前記データ項目値を所定の基準に基づいて離散化した離散化データ値に変換し、前記複数のデータ項目の前記離散化データ値を入力として前記ラベル情報に関する判定を行うモデルであって、それぞれが前記複数のデータ項目のうち一部のデータ項目が満たす前記離散化データ値の条件と前記ラベル情報の推定値との複数の関係と、前記複数の関係それぞれの重要性を示す指標値とを含むモデルを学習する学習処理を、変換後の前記複数の学習データを用いて実行し、前記モデルに含まれる前記複数の関係から前記条件に使用されている前記一部のデータ項目を抽出することで、それぞれが前記複数のデータ項目のうち前記判定に用いる2以上のデータ項目の組み合わせを示す異なる複数の特徴情報と、前記複数の特徴情報それぞれに対応付ける前記指標値とを取得し、前記指標値に基づいて前記複数の特徴情報のうち1以上の特徴情報を選択し、選択した前記1以上の特徴情報に基づいて、前記データ項目値の離散化に用いる基準を変更する処理部と、
を有する機械学習装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/040906 WO2021075029A1 (ja) | 2019-10-17 | 2019-10-17 | 機械学習プログラム、機械学習方法および機械学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021075029A1 JPWO2021075029A1 (ja) | 2021-04-22 |
JP7421136B2 true JP7421136B2 (ja) | 2024-01-24 |
Family
ID=75537764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021552063A Active JP7421136B2 (ja) | 2019-10-17 | 2019-10-17 | 機械学習プログラム、機械学習方法および機械学習装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220207302A1 (ja) |
EP (1) | EP4047531A4 (ja) |
JP (1) | JP7421136B2 (ja) |
CN (1) | CN114556380A (ja) |
WO (1) | WO2021075029A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11681610B2 (en) * | 2020-05-13 | 2023-06-20 | Data-Core Systems, Inc. | Synthesizing data based on topic modeling for training and testing machine learning systems |
JP2024125909A (ja) * | 2023-03-06 | 2024-09-19 | 横河電機株式会社 | 情報提供装置、情報提供方法及び情報提供プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016121053A1 (ja) | 2015-01-29 | 2016-08-04 | 株式会社日立製作所 | 計算機システム及びグラフィカルモデルの管理方法 |
JP2019079214A (ja) | 2017-10-24 | 2019-05-23 | 富士通株式会社 | 探索方法、探索装置および探索プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113610239B (zh) * | 2016-09-27 | 2024-04-12 | 第四范式(北京)技术有限公司 | 针对机器学习的特征处理方法及特征处理系统 |
US20190133480A1 (en) * | 2017-11-08 | 2019-05-09 | Koninklijke Philips N.V. | Discretized embeddings of physiological waveforms |
CN108444708B (zh) * | 2018-04-16 | 2021-02-12 | 长安大学 | 基于卷积神经网络的滚动轴承智能诊断模型的建立方法 |
CN110297469B (zh) * | 2019-05-17 | 2022-02-18 | 同济大学 | 基于重采样的集成特征选择算法的生产线故障判断方法 |
-
2019
- 2019-10-17 JP JP2021552063A patent/JP7421136B2/ja active Active
- 2019-10-17 EP EP19949449.3A patent/EP4047531A4/en active Pending
- 2019-10-17 CN CN201980101036.XA patent/CN114556380A/zh active Pending
- 2019-10-17 WO PCT/JP2019/040906 patent/WO2021075029A1/ja unknown
-
2022
- 2022-03-17 US US17/697,670 patent/US20220207302A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016121053A1 (ja) | 2015-01-29 | 2016-08-04 | 株式会社日立製作所 | 計算機システム及びグラフィカルモデルの管理方法 |
JP2019079214A (ja) | 2017-10-24 | 2019-05-23 | 富士通株式会社 | 探索方法、探索装置および探索プログラム |
Non-Patent Citations (1)
Title |
---|
BAY, Stephen D.,Multivariate Discretization of Continuous Variables for Set Mining,Proceedings of the sixth ACM SIGKDD international conference on Knowledge discovery and data mining,2000年08月,pp.315-319,<URL:https://dl.acm.org/citation.cfm?id=347159>,<DOI:10.1145/347090.347159> |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021075029A1 (ja) | 2021-04-22 |
EP4047531A1 (en) | 2022-08-24 |
WO2021075029A1 (ja) | 2021-04-22 |
US20220207302A1 (en) | 2022-06-30 |
EP4047531A4 (en) | 2022-10-26 |
CN114556380A (zh) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180082215A1 (en) | Information processing apparatus and information processing method | |
WO2021143175A1 (zh) | 测试用例筛选方法、装置及介质 | |
US9489455B2 (en) | Method and apparatus for multi-dimensional content search and video identification | |
US7949167B2 (en) | Automatic learning of image features to predict disease | |
Zhang et al. | Comparing data mining methods with logistic regression in childhood obesity prediction | |
US7640219B2 (en) | Parameter optimized nearest neighbor vote and boundary based classification | |
US6507843B1 (en) | Method and apparatus for classification of data by aggregating emerging patterns | |
US20180018566A1 (en) | Finding k extreme values in constant processing time | |
US20220207302A1 (en) | Machine learning method and machine learning apparatus | |
Gove et al. | New guidance for using t-SNE: Alternative defaults, hyperparameter selection automation, and comparative evaluation | |
Neutatz et al. | Data Cleaning and AutoML: Would an optimizer choose to clean? | |
Cheng et al. | Data-driven causal effect estimation based on graphical causal modelling: A survey | |
CN113515597A (zh) | 一种基于关联规则挖掘的档案处理方法 | |
JP7207540B2 (ja) | 学習支援装置、学習支援方法、及びプログラム | |
CN112233070A (zh) | 一种平扫ct图像的影像组学特征处理方法及装置 | |
Widyawati et al. | Comparison Analysis of Classification Model Performance in Lung Cancer Prediction Using Decision Tree, Naive Bayes, and Support Vector Machine | |
TWI816078B (zh) | 樣本分群探勘方法 | |
CN117216687A (zh) | 一种基于集成学习的大语言模型生成文本检测方法 | |
JP3650572B2 (ja) | 時系列データの分類装置 | |
CN111582313A (zh) | 样本数据生成方法、装置及电子设备 | |
US12066910B2 (en) | Reinforcement learning based group testing | |
CN115185920A (zh) | 一种日志类型的检测方法、装置及设备 | |
Lai et al. | A review of Bayesian group selection approaches for linear regression models | |
Borges et al. | Networked point process models under the lens of scrutiny | |
Zhang et al. | An incremental anomaly detection model for virtual machines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7421136 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |