JP7409080B2 - 学習データ生成方法、学習データ生成プログラムおよび情報処理装置 - Google Patents
学習データ生成方法、学習データ生成プログラムおよび情報処理装置 Download PDFInfo
- Publication number
- JP7409080B2 JP7409080B2 JP2019237904A JP2019237904A JP7409080B2 JP 7409080 B2 JP7409080 B2 JP 7409080B2 JP 2019237904 A JP2019237904 A JP 2019237904A JP 2019237904 A JP2019237904 A JP 2019237904A JP 7409080 B2 JP7409080 B2 JP 7409080B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- learning data
- data
- result
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 64
- 230000010365 information processing Effects 0.000 title claims description 49
- 238000012545 processing Methods 0.000 claims description 36
- 238000013528 artificial neural network Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 34
- 230000009471 action Effects 0.000 claims description 27
- 238000010801 machine learning Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 13
- 238000009223 counseling Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 36
- 238000004891 communication Methods 0.000 description 26
- 238000000605 extraction Methods 0.000 description 23
- 239000011159 matrix material Substances 0.000 description 22
- 230000006870 function Effects 0.000 description 14
- 239000000284 extract Substances 0.000 description 11
- 238000000354 decomposition reaction Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Multimedia (AREA)
Description
図1(a)は、実施例1にかかる情報処理装置100の機能構成を示す機能ブロック図である。図1(a)に示すように、情報処理装置100は、通信部101、記憶部102、制御部110を有する。
上述したように、情報処理装置100は、学習モデルの精度を向上させることが可能な学習データを生成することができる。また、情報処理装置100は、所定の行為を実施した後の学習データに教師ラベルを付与する際の教師ラベル付与の精度を高めることができる。
実施例2では、ディープテンソル(DeepTensor:DT)を用いて、学習データに教師ラベルを付与する方法を説明する。DTは、グラフ構造のデータを深層学習する技術である。つまり、DTは、入力としてグラフ構造を用い、グラフ構造をテンソルデータ(以下では、テンソルと記載する場合がある)に変換する。そして、DTでは、予測に寄与するグラフの部分構造をコアテンソルとして抽出することで、高精度な予測を実現する。言い換えると、コアテンソルは、複数の状態の相関を示す部分パターンであるとともに、学習データのうち予測結果を決定するための特徴を示している。
ここで、実施例2で用いるディープテンソルについて説明する。ディープテンソルとは、グラフ情報に基づくテンソルを入力とするディープラーニングに関する技術である。ディープテンソルは、ニューラルネットワークを学習させるとともに、予測に寄与する部分グラフ構造(グラフ情報の特徴量)の抽出方法も学習する。この抽出方法の学習は、入力したテンソルに対するテンソル分解のパラメータを最適化することによって実現される。
図9は、実施例2にかかる情報処理装置100の機能構成を示す機能ブロック図である。図9に示すように、情報処理装置100は、通信部101、記憶部102、および制御部110を有する。
図16と図17は、処理の流れを示すフローチャートである。図16および図17に示すように、処理開始が指示されるまで(S101:No)、S101を繰り返す。そして、処理開始が指示されると(S101:Yes)、学習部111は、学習データを読み込み(S102)、コアテンソルを生成および保存を実行し(S103)、コアテンソルを用いた学習モデルの学習を実行する(S104)。
上述したように、情報処理装置100は、予測結果に基づいた施策効果を考慮した教師ラベル付与を行い、新たな学習データとして採用することで学習モデル精度を維持できる。情報処理装置100は、インバランスな予測タスクにおいて、希少なサンプルデータ(正例)が損なわれることを防ぐことで学習モデルの精度維持を実現できる。
ここで、比較例を用いて、実施例1または実施例2の効果について具体的に説明する。図1および図9に示す情報処理装置100は、従業員の6か月間の出勤簿データを説明変数とし、療養経験がある「正例」または療養経験がない「負例」を示す教師ラベルを目的変数とする各学習データを用いて、6か月間の出勤簿データからその後の3か月以内に療養する可能性があるか否かを予測する学習モデルを学習する。
ここでは、ある従業員の出勤簿データを例にして説明する。予測時(過去)に、そのときの最新日から6か月遡った予測元期間の出勤簿データAを学習済みの学習モデルに入力して、「正例」の予測結果を取得する。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
また、上記実施例で用いたデータ例、数値、各閾値、教師ラベル数、具体例等は、あくまで一例であり、任意に変更することができる。また、入力データや学習方法などもあくまで一例であり、任意に変更することができる。また、学習モデルには、ニューラルネットワークなど様々なモデルを採用することができる。
例えば、上記フローチャート等では、「正例」と予測されたが、実際に「負例」となった予測対象データについて、教師ラベルの補正を行う例を説明したが、これに限定されるものではない。例えば、すべての予測対象データについて、教師ラベルの補正を行うことができる。また、予測結果と実際の結果が異なる予測対象データについてのみ、上記処理を実行することができる。また、予測結果と実際の結果が同じ予測対象データについては、実際の結果をそのまま教師ラベルとして用いた更新用の学習データを生成することができる。なお、実際の結果は、出勤簿データにより特定することができる。
上述した学習処理は、任意の回数だけ実行することもできる。例えば、すべての学習データを用いて実行することもでき、所定回数だけ実行することもできる。また、分類誤差の算出方法は、最小二乗法など公知の算出手法を採用することができ、NNで用いられる一般的な算出手法を採用することもできる。なお、学習データや出勤簿データは、外部の装置から取得することもできる。
上記実施例では、出勤簿データを学習して療養する可能性がある従業員を予測する例で説明したが、これに限定されるものではない。例えば、電子部品の動作データを用いた故障予測、通信データを用いた攻撃予測、道路の交通量データを用いた渋滞予測などにも適用することができる。
本実施例では、RNN(Recurrent Neural Networks)やCNN(Convolutional Neural Network)など様々なニューラルネットワークを用いることができる。また、学習の手法も、誤差逆伝播法以外にも公知の様々な手法を採用することができる。また、ニューラルネットワークは、例えば入力層、中間層(隠れ層)、出力層から構成される多段構成であり、各層は複数のノードがエッジで結ばれる構造を有する。各層は、「活性化関数」と呼ばれる関数を持ち、エッジは「重み」を持ち、各ノードの値は、前の層のノードの値、接続エッジの重みの値(重み係数)、層が持つ活性化関数から計算される。なお、計算方法については、公知の様々な手法を採用できる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
図19は、ハードウェア構成例を説明する図である。図19に示すように、情報処理装置100は、通信装置100a、HDD(Hard Disk Drive)100b、メモリ100c、およびプロセッサ100dを有する。また、図19に示した各部は、バス等で相互に接続される。
図20は、ハードウェア構成例を説明する図である。図20に示すように、端末装置200は、通信装置200a、HDD(Hard Disk Drive)200b、メモリ200c、プロセッサ200d、表示装置200e、入力装置200fを有する。また、図20に示した各部は、バス等で相互に接続される。
101 通信部
102 記憶部
103 センサデータDB
104 学習データDB
105 学習結果DB
106 コアテンソルデータDB
107 更新用データDB
108 予測対象データDB
110 制御部
111 学習部
112 予測部
113 ラベル推定部
114 更新部
121 第1の抽出部
122 第2の抽出部
123 判定部
124 実行部
200 端末装置
201 通信部
202 制御部
203 表示部
204 入力部
Claims (9)
- コンピュータに、
第1期間における対象の時系列な第1状態が入力されることによって前記第1期間の後における前記対象の第1結果を推定する機械学習モデルから、前記第1状態の特徴である第1の特徴を取得し、
前記第1結果が確定した後の期間を含む第2期間における時系列な第2状態を前記機械学習モデルに入力することにより、前記第2状態の特徴である第2の特徴を取得し、
前記第1の特徴と前記第2の特徴とに基づいて、前記第2状態を説明変数とするとともに前記第1結果の確定した結果を変更した第2結果を目的変数とした学習データを生成する、
処理を実行させることを特徴とする学習データ生成プログラム。 - 前記説明変数をニューラルネットワークに入力したときの出力結果と前記目的変数である正解情報との誤差が小さくなるように前記ニューラルネットワークのパラメータを変更した学習モデルを生成する、
処理を実行させることを特徴とする請求項1に記載の学習データ生成プログラム。 - 対象の複数の状態を示す前記説明変数と、前記複数の状態に対する結果を示す前記目的変数と、を含む学習データのうち、前記対象に対して所定の行為を実施する前の第1の学習データから、前記複数の状態の相関と、前記第1の学習データの前記目的変数の特徴と、を示す前記第1の特徴を抽出し、
前記学習データのうち、前記対象に対して前記所定の行為を実施した後の第2の学習データから、前記複数の状態の相関と、前記第2の学習データの前記目的変数の特徴と、を示す前記第2の特徴を抽出し、
前記第1の特徴と前記第2の特徴とに基づいて、前記第2の学習データの前記目的変数を変更するか否かを判定する、
処理を実行させることを特徴とする請求項1に記載の学習データ生成プログラム。 - 前記説明変数は、従業員の出欠区分の状態であって、
前記目的変数は、前記従業員の療養の有無であって、
前記所定の行為は、前記従業員に対するカウンセリングである、
ことを特徴とする請求項3に記載の学習データ生成プログラム。 - 前記所定の行為は、教師ラベルが正例である学習データの対象に対して、前記教師ラベルが負例になるようにする行為であることを特徴とする請求項3に記載の学習データ生成プログラム。
- 前記第1の特徴を抽出する処理は、
前記複数の状態の相関を示す部分パターンであるとともに前記第1の学習データのうち予測結果を決定する特徴を有する第1のコアテンソルと、予測結果が特定された学習データの第3のコアテンソルとの第1の類似度を算出する処理を含み、
前記第2の特徴を抽出する処理は、
前記複数の状態の相関を示す部分パターンであるとともに前記第2の学習データのうち予測結果を決定する特徴を有する第2のコアテンソルと、前記第3のコアテンソルとの第2の類似度を算出する処理を含み、
前記判定する処理は、
前記第1の類似度と前記第2の類似度との差分が予め設定された閾値を超える場合に、前記第2の学習データの前記目的変数の教師ラベルを変更する処理を含むことを特徴とする請求項3に記載の学習データ生成プログラム。 - 前記第1の特徴を抽出する処理は、
学習モデルの学習に利用された、教師ラベルがそれぞれに付与される各学習データに基づいて生成される学習時の複数のコアテンソルを取得し、
前記第1の学習データから第1のコアテンソルを生成し、
前記第1のコアテンソルと前記学習時の複数のコアテンソルとの各第1の類似度を算出する処理を含み、
前記第2の特徴を抽出する処理は、
学習モデルの学習に利用された、教師ラベルがそれぞれに付与される各学習データに基づいて生成される学習時の複数のコアテンソルを取得し、
前記第2の学習データから第2のコアテンソルを生成し、
前記第2のコアテンソルと前記学習時の複数のコアテンソルとの各第2の類似度を算出する処理を含み、
前記判定する処理は、
前記各第1の類似度と前記各第2の類似度とに基づき、教師ラベルを決定する処理を含むことを特徴とする請求項3に記載の学習データ生成プログラム。 - コンピュータが、
第1期間における対象の時系列な第1状態が入力されることによって前記第1期間の後における前記対象の第1結果を推定する機械学習モデルから、前記第1状態の特徴である第1の特徴を取得し、
前記第1結果が確定した後の期間を含む第2期間における時系列な第2状態を前記機械学習モデルに入力することにより、前記第2状態の特徴である第2の特徴を取得し、
前記第1の特徴と前記第2の特徴とに基づいて、前記第2状態を説明変数とするとともに前記第1結果の確定した結果を変更した第2結果を目的変数とした学習データを生成する
処理を実行することを特徴とする学習データ生成方法。 - 第1期間における対象の時系列な第1状態が入力されることによって前記第1期間の後における前記対象の第1結果を推定する機械学習モデルから、前記第1状態の特徴である第1の特徴を取得する第1の特徴部と、
前記第1結果が確定した後の期間を含む第2期間における時系列な第2状態を前記機械学習モデルに入力することにより、前記第2状態の特徴である第2の特徴を取得する第2の特徴部と、
前記第1の特徴と前記第2の特徴とに基づいて、前記第2状態を説明変数とするとともに前記第1結果の確定した結果を変更した第2結果を目的変数として学習データを生成する判定部と
を有することを特徴とする情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019237904A JP7409080B2 (ja) | 2019-12-27 | 2019-12-27 | 学習データ生成方法、学習データ生成プログラムおよび情報処理装置 |
US17/086,485 US11347972B2 (en) | 2019-12-27 | 2020-11-02 | Training data generation method and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019237904A JP7409080B2 (ja) | 2019-12-27 | 2019-12-27 | 学習データ生成方法、学習データ生成プログラムおよび情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021105928A JP2021105928A (ja) | 2021-07-26 |
JP7409080B2 true JP7409080B2 (ja) | 2024-01-09 |
Family
ID=76547388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019237904A Active JP7409080B2 (ja) | 2019-12-27 | 2019-12-27 | 学習データ生成方法、学習データ生成プログラムおよび情報処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11347972B2 (ja) |
JP (1) | JP7409080B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7331369B2 (ja) * | 2019-01-30 | 2023-08-23 | 日本電信電話株式会社 | 異常音追加学習方法、データ追加学習方法、異常度算出装置、指標値算出装置、およびプログラム |
JP2022095024A (ja) * | 2020-12-16 | 2022-06-28 | キヤノン株式会社 | 学習データ生成装置、学習データ生成方法及びコンピュータプログラム |
US20230196301A1 (en) * | 2021-12-22 | 2023-06-22 | Avaya Management L.P. | Systems and methods for determining and managing probability of attendance |
CN114417889A (zh) * | 2022-01-14 | 2022-04-29 | 山东新一代信息产业技术研究院有限公司 | 一种基于seq2seq架构的任务型对话系统和方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019142331A1 (ja) | 2018-01-19 | 2019-07-25 | 株式会社日立製作所 | 障害予測システムおよび障害予測方法 |
JP2019212155A (ja) | 2018-06-07 | 2019-12-12 | 富士通株式会社 | 学習用データ生成プログラムおよび学習用データ生成方法 |
JP2019215698A (ja) | 2018-06-13 | 2019-12-19 | アズビル株式会社 | 画像検査支援装置および方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012165517A1 (ja) * | 2011-05-30 | 2012-12-06 | 日本電気株式会社 | 確率モデル推定装置、方法、および記録媒体 |
US10853826B2 (en) * | 2012-02-07 | 2020-12-01 | Yeast, LLC | System and method for evaluating and optimizing media content |
US10496927B2 (en) * | 2014-05-23 | 2019-12-03 | DataRobot, Inc. | Systems for time-series predictive data analytics, and related methods and apparatus |
US10558924B2 (en) * | 2014-05-23 | 2020-02-11 | DataRobot, Inc. | Systems for second-order predictive data analytics, and related methods and apparatus |
US20170371073A1 (en) * | 2015-01-30 | 2017-12-28 | Nec Corporation | Prediction apparatus, prediction method, and non-transitory storage medium |
JP6555015B2 (ja) * | 2015-08-31 | 2019-08-07 | 富士通株式会社 | 機械学習管理プログラム、機械学習管理装置および機械学習管理方法 |
US20180218380A1 (en) * | 2015-09-30 | 2018-08-02 | Nec Corporation | Information processing system, information processing method, and information processing program |
EP3301675B1 (en) * | 2016-09-28 | 2019-08-21 | Panasonic Intellectual Property Corporation of America | Parameter prediction device and parameter prediction method for acoustic signal processing |
WO2018216629A1 (ja) * | 2017-05-22 | 2018-11-29 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6870527B2 (ja) * | 2017-08-04 | 2021-05-12 | 富士通株式会社 | 部品見積もりプログラム、部品見積もりシステム及び部品見積もり方法 |
JP7124404B2 (ja) | 2018-04-12 | 2022-08-24 | 富士通株式会社 | 機械学習プログラム、機械学習方法および機械学習装置 |
JP6481794B1 (ja) | 2018-04-20 | 2019-03-13 | 富士通株式会社 | 学習用データ生成方法、学習用データ生成プログラム |
US10388272B1 (en) * | 2018-12-04 | 2019-08-20 | Sorenson Ip Holdings, Llc | Training speech recognition systems using word sequences |
US10573312B1 (en) * | 2018-12-04 | 2020-02-25 | Sorenson Ip Holdings, Llc | Transcription generation from multiple speech recognition systems |
KR102137151B1 (ko) * | 2018-12-27 | 2020-07-24 | 엘지전자 주식회사 | 노이즈 캔슬링 장치 및 그 방법 |
-
2019
- 2019-12-27 JP JP2019237904A patent/JP7409080B2/ja active Active
-
2020
- 2020-11-02 US US17/086,485 patent/US11347972B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019142331A1 (ja) | 2018-01-19 | 2019-07-25 | 株式会社日立製作所 | 障害予測システムおよび障害予測方法 |
JP2019212155A (ja) | 2018-06-07 | 2019-12-12 | 富士通株式会社 | 学習用データ生成プログラムおよび学習用データ生成方法 |
JP2019215698A (ja) | 2018-06-13 | 2019-12-19 | アズビル株式会社 | 画像検査支援装置および方法 |
Also Published As
Publication number | Publication date |
---|---|
US11347972B2 (en) | 2022-05-31 |
US20210201079A1 (en) | 2021-07-01 |
JP2021105928A (ja) | 2021-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7409080B2 (ja) | 学習データ生成方法、学習データ生成プログラムおよび情報処理装置 | |
US11829867B2 (en) | Computer-readable recording medium and learning data generation method | |
JP7063080B2 (ja) | 機械学習プログラム、機械学習方法および機械学習装置 | |
JP7067235B2 (ja) | 機械学習プログラム、機械学習方法および機械学習装置 | |
US8149441B2 (en) | Expected time to collect a print job | |
Bosnes et al. | Predicting blood donor arrival | |
JP2019185422A (ja) | 故障予知方法、故障予知装置および故障予知プログラム | |
JP6481794B1 (ja) | 学習用データ生成方法、学習用データ生成プログラム | |
CN111259922A (zh) | 基于客户退单预警的订单数据处理方法、装置 | |
JP7063079B2 (ja) | 機械学習プログラム、機械学習方法および機械学習装置 | |
KR101729283B1 (ko) | 목표 달성 진단 장치 및 진단 방법 | |
JP6832329B2 (ja) | データ構造 | |
JP7067236B2 (ja) | 機械学習用データ生成方法および機械学習用データ生成プログラム | |
Das et al. | Functional regression-based monitoring of quality of service in hospital emergency departments | |
WO2020223184A1 (en) | Analytical model training method for customer experience estimation | |
US20230008936A1 (en) | System and method for adaptive learning for hospital census simulation | |
JP2021096511A (ja) | 学習データ生成方法、学習データ生成プログラムおよび情報処理装置 | |
US11915180B2 (en) | Systems and methods for identifying an officer at risk of an adverse event | |
JP6843109B2 (ja) | 医療用のデータ構造 | |
JP2021068163A (ja) | 予測プログラム、予測方法及び予測装置 | |
CN116362429B (zh) | 基于社区网格信息采集的城域房屋租赁预测方法及系统 | |
US20220108196A1 (en) | Improved computer-implemented event forecasting and information provision | |
CA3136409A1 (en) | Systems and methods for automated modeling of service processes | |
CN114444810A (zh) | 基于改进sru模型的可用停车位预测方法 | |
Ravichandran | Study and Analysis of Effort Prediction for Software Maintenance Activity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7409080 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |