JP2022154862A - 情報処理方法、プログラム及び情報処理装置 - Google Patents
情報処理方法、プログラム及び情報処理装置 Download PDFInfo
- Publication number
- JP2022154862A JP2022154862A JP2021058118A JP2021058118A JP2022154862A JP 2022154862 A JP2022154862 A JP 2022154862A JP 2021058118 A JP2021058118 A JP 2021058118A JP 2021058118 A JP2021058118 A JP 2021058118A JP 2022154862 A JP2022154862 A JP 2022154862A
- Authority
- JP
- Japan
- Prior art keywords
- data
- combination
- feature
- reinforcement learning
- clustering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 25
- 238000003672 processing method Methods 0.000 title claims abstract description 13
- 230000002787 reinforcement Effects 0.000 claims abstract description 80
- 238000000034 method Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 16
- 230000002159 abnormal effect Effects 0.000 description 45
- 238000010586 diagram Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 7
- 230000002547 anomalous effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
(実施の形態1)
図1は、情報処理装置1の構成例を示すブロック図である。本実施の形態では、入力データを分類するクラスタリングモデルを構築(生成)する場合において、クラスタリングモデルの入力に採用するデータの特徴量を、強化学習モデルを用いて探索する形態について説明する。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部16に記憶されたプログラムPを読み出して実行することにより、種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。表示部14は、液晶ディスプレイ等の表示画面であり、画像を表示する。入力部15は、キーボード、マウス等の操作インターフェイスであり、操作入力を受け付ける。
サーバ1の制御部11は、各データが複数の特徴量から成るデータ群を取得する(ステップS11)。制御部11は、特徴量を変更(削減)するステップ数の指定入力を受け付ける(ステップS12)。
(変形例1)
上記では不正会計検知用のクラスタリングモデル51を生成する形態について説明したが、分類対象とするデータは企業の会計データに限定されず、本システムを他の用途で利用することが想定される。
上記ではクラスタリングモデル51を新規に生成する形態について説明したが、既存のクラスタリングモデル51の更新、具体的にはクラスタリングモデル51の入力に採用する特徴量を新たに追加する場合に、本システムを応用してもよい。
上記では、訓練用のデータ群以外の新規のデータから異常を検出すべく、クラスタリングモデル51を生成するものとして説明したが、本システムを、元のデータ群から未知異常データを除去するための手段として応用することもできる。
11 制御部
12 主記憶部
13 通信部
14 表示部
15 入力部
16 補助記憶部
P プログラム
51 クラスタリングモデル
52 強化学習モデル
Claims (10)
- 各データが複数の特徴量から成るデータ群であって、一定数のデータにラベルが付与されたデータ群を取得し、
クラスタリングに用いる前記特徴量を選択し、
選択した前記特徴量に基づき、前記データ群を複数のクラスタに分類したクラスタリングモデルを生成し、
現時点で選択されている前記特徴量の組み合わせを入力した場合に、次に選択すべき前記特徴量の組み合わせを出力する強化学習モデルに、現時点で選択されている前記特徴量の組み合わせを入力することで、次に選択すべき前記特徴量の組み合わせを出力し、
前記強化学習モデルからの出力に基づいて前記特徴量を逐次選択して前記クラスタリングモデルを生成し、
各クラスタに分類された前記ラベル付きのデータ数に基づき、前記ラベル付きのデータが少数の前記クラスタに分類されている度合いを表す少数度を算出し、
前記強化学習モデルを前記少数度に応じて逐次更新する
処理をコンピュータが実行する情報処理方法。 - 各クラスタに分類された前記ラベル付きのデータ数を、前記データ群全体における前記ラベル付きのデータの総数で除算した値を算出し、
算出した値に比例する前記少数度を算出する
請求項1に記載の情報処理方法。 - 各クラスタに分類された前記ラベル付きのデータ数を、各クラスタにおけるデータの総数で除算した値を算出し、
算出した値に比例する前記少数度を算出する
請求項1又は2に記載の情報処理方法。 - 一時点で選択した前記特徴量の組み合わせに対応する前記少数度と、前記一時点の次の時点で選択した前記特徴量の組み合わせに対応する前記少数度との差分に応じて報酬値を算出し、
算出した前記報酬値に応じて前記強化学習モデルを更新する
請求項1~3のいずれか1項に記載の情報処理方法。 - 前記特徴量を選択する場合に、前記強化学習モデルから出力された前記特徴量の組み合わせを含む、複数の前記特徴量の組み合わせを選択し、
選択した各組み合わせに対応して、複数の前記クラスタリングモデルを生成し、
前記複数のクラスタリングモデルそれぞれにおける前記ラベル付きのデータの分類結果に基づき、前記各組み合わせに対応する前記少数度を算出し、
前記各組み合わせの少数度と、前時点で選択した前記特徴量の組み合わせに対応する前記少数度との差分に応じて、前記各組み合わせに対応する前記報酬値を算出し、
算出した前記各組み合わせの報酬値に応じて強化学習モデルを更新する
請求項4に記載の情報処理方法。 - 各時点で選択した前記特徴量の組み合わせを示すオブジェクトであって、前時点から前記少数度が増加した前記特徴量の組み合わせを識別可能なオブジェクトを表示部に表示する
請求項5に記載の情報処理方法。 - 前記強化学習モデルは、現時点で選択されている前記特徴量の組み合わせを入力した場合に、現時点の組み合わせから削減すべき前記特徴量を出力するモデルであり、
前記強化学習モデルからの出力に基づき、前記特徴量を逐次削減する
請求項1~6のいずれか1項に記載の情報処理方法。 - 前記データ群は、複数の企業の会計データであり、
一定数の前記会計データに不正会計が有ることを示すラベルが付与された前記データ群を複数のクラスタに分類することで、前記会計データが入力された場合に不正会計の有無を分類する前記クラスタリングモデルを生成する
請求項1~6のいずれか1項に記載の情報処理方法。 - 各データが複数の特徴量から成るデータ群であって、一定数のデータにラベルが付与されたデータ群を取得し、
クラスタリングに用いる前記特徴量を選択し、
選択した前記特徴量に基づき、前記データ群を複数のクラスタに分類したクラスタリングモデルを生成し、
現時点で選択されている前記特徴量の組み合わせを入力した場合に、次に選択すべき前記特徴量の組み合わせを出力する強化学習モデルに、現時点で選択されている前記特徴量の組み合わせを入力することで、次に選択すべき前記特徴量の組み合わせを出力し、
前記強化学習モデルからの出力に基づいて前記特徴量を逐次選択して前記クラスタリングモデルを生成し、
各クラスタに分類された前記ラベル付きのデータ数に基づき、前記ラベル付きのデータが少数の前記クラスタに分類されている度合いを表す少数度を算出し、
前記強化学習モデルを前記少数度に応じて逐次更新する
処理をコンピュータに実行させるプログラム。 - 各データが複数の特徴量から成るデータ群であって、一定数のデータにラベルが付与されたデータ群を取得する取得部と、
クラスタリングに用いる前記特徴量を選択する選択部と、
選択した前記特徴量に基づき、前記データ群を複数のクラスタに分類したクラスタリングモデルを生成する生成部と、
現時点で選択されている前記特徴量の組み合わせを入力した場合に、次に選択すべき前記特徴量の組み合わせを出力する強化学習モデルに、現時点で選択されている前記特徴量の組み合わせを入力することで、次に選択すべき前記特徴量の組み合わせを出力する出力部と、
前記選択部は前記強化学習モデルからの出力に基づいて前記特徴量を逐次選択して、前記生成部は前記クラスタリングモデルを生成し、
各クラスタに分類された前記ラベル付きのデータ数に基づき、前記ラベル付きのデータが少数の前記クラスタに分類されている度合いを表す少数度を算出する算出部と、
前記強化学習モデルを前記少数度に応じて逐次更新する更新部と
を備える情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021058118A JP7532300B2 (ja) | 2021-03-30 | 2021-03-30 | 情報処理方法、プログラム及び情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021058118A JP7532300B2 (ja) | 2021-03-30 | 2021-03-30 | 情報処理方法、プログラム及び情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022154862A true JP2022154862A (ja) | 2022-10-13 |
JP7532300B2 JP7532300B2 (ja) | 2024-08-13 |
Family
ID=83556919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021058118A Active JP7532300B2 (ja) | 2021-03-30 | 2021-03-30 | 情報処理方法、プログラム及び情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7532300B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7419583B1 (ja) | 2023-02-17 | 2024-01-22 | Lineヤフー株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102906A (ja) | 2015-11-25 | 2017-06-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6345856B1 (ja) | 2017-09-29 | 2018-06-20 | 新日本有限責任監査法人 | 財務分析装置、財務分析方法及び財務分析プログラム |
JP2019169147A (ja) | 2018-03-20 | 2019-10-03 | 国立大学法人電気通信大学 | 情報処理装置及び情報処理システム |
-
2021
- 2021-03-30 JP JP2021058118A patent/JP7532300B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7419583B1 (ja) | 2023-02-17 | 2024-01-22 | Lineヤフー株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7532300B2 (ja) | 2024-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11741361B2 (en) | Machine learning-based network model building method and apparatus | |
Xie et al. | Customer churn prediction using improved balanced random forests | |
US7433879B1 (en) | Attribute based association rule mining | |
CN108108762B (zh) | 一种用于冠心病数据的核极限学习机及随机森林分类方法 | |
Baldán et al. | Distributed fastshapelet transform: a big data time series classification algorithm | |
US11640539B2 (en) | Techniques for visualizing the operation of neural networks using samples of training data | |
Muneer et al. | Predicting customers churning in banking industry: A machine learning approach | |
Raza et al. | A parallel rough set based dependency calculation method for efficient feature selection | |
US11615321B2 (en) | Techniques for modifying the operation of neural networks | |
WO2021007259A1 (en) | Techniques for modifying neural network definitions | |
CN113609345A (zh) | 目标对象关联方法和装置、计算设备以及存储介质 | |
JP2022154862A (ja) | 情報処理方法、プログラム及び情報処理装置 | |
Vairetti et al. | Efficient hybrid oversampling and intelligent undersampling for imbalanced big data classification | |
CN113706285A (zh) | 一种信用卡欺诈检测方法 | |
US20230307092A1 (en) | Identifying genome features in health and disease | |
Chen et al. | Evaluation of customer behaviour with machine learning for churn prediction: The case of bank customer churn in europe | |
CN114722941A (zh) | 信贷违约识别方法、装置、设备和介质 | |
Melnikov et al. | On the Application of Heuristics of the TSP for the Task of Restoring the DNA Matrix | |
Almas et al. | Enhancing the performance of decision tree: A research study of dealing with unbalanced data | |
JP2023177116A (ja) | 情報処理方法、プログラム及び情報処理装置 | |
Himani et al. | A comparative study on machine learning based prediction of citations of articles | |
JP5623344B2 (ja) | 縮約素性生成装置、方法、プログラム、モデル構築装置及び方法 | |
Xing et al. | Anytime neural architecture search on tabular data | |
CN113515383B (zh) | 系统资源数据分配方法和装置 | |
CN112509640B (zh) | 基因本体项名称生成方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231019 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240717 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7532300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |