JP6562121B1 - 学習用データ生成プログラムおよび学習用データ生成方法 - Google Patents

学習用データ生成プログラムおよび学習用データ生成方法 Download PDF

Info

Publication number
JP6562121B1
JP6562121B1 JP2018109392A JP2018109392A JP6562121B1 JP 6562121 B1 JP6562121 B1 JP 6562121B1 JP 2018109392 A JP2018109392 A JP 2018109392A JP 2018109392 A JP2018109392 A JP 2018109392A JP 6562121 B1 JP6562121 B1 JP 6562121B1
Authority
JP
Japan
Prior art keywords
tensor
learning
data
learning data
attendance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018109392A
Other languages
English (en)
Other versions
JP2019212155A (ja
Inventor
聡子 岩倉
聡子 岩倉
俊一 渡邉
俊一 渡邉
塩田 哲義
哲義 塩田
泉 新田
泉 新田
福田 大輔
大輔 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018109392A priority Critical patent/JP6562121B1/ja
Priority to US16/422,481 priority patent/US11829867B2/en
Application granted granted Critical
Publication of JP6562121B1 publication Critical patent/JP6562121B1/ja
Publication of JP2019212155A publication Critical patent/JP2019212155A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Educational Administration (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】予測精度の劣化を抑制することを課題とする。【解決手段】学習装置は、対象毎に、予め設定された期間の対象者の特徴を多次元で示す複数の要素から成るテンソルの生成元となる学習データを入力する。そして、学習装置は、対象者が予め設定された条件を満たす場合は、学習データにおいて条件に該当する該当期間を特定する。その後、学習装置は、該当期間の前後の少なくともいずれかの学習データに対し、重みづけされたテンソルを生成する。【選択図】図6

Description

本発明は、学習用データ生成プログラム、学習用データ生成方法およびデータ構造に関する。
グラフ構造のデータを深層学習することが可能なグラフ構造学習技術(以降、このようなグラフ構造学習を行う装置の一形態を「ディープテンソル(DeepTensor:DT)」と呼ぶ。)が知られている。DTは、入力としてグラフ構造を用い、グラフ構造をテンソルデータ(以下では、テンソルと記載する場合がある)として扱う。そして、DTでは、予測に寄与するグラフの部分構造(テンソルの部分パターン)をコアテンソルとして抽出することで、高精度な予測を実現する。
特開平08−329196号公報
しかしながら、上記DTでは、コアテンソルで部分的な共通パターンを処理することができるが、部分的なテンソル上は類似しているが実はデータ全体でみると特徴が異なるデータも同じ共通パターンとして処理される場合があり、予測精度が低下する。
例えば、出勤簿データをDTで学習する場合、体調不良者の出勤簿データおよび通常者の出勤簿データをDTに入力して予測モデルを学習する。そして、学習済みの予測モデルに、判別対象者の出勤簿データを入力して、判別対象者が療養(休職)する可能性を予測する。
このような学習では、過去にメンタル疾患などを発症して療養経験のある既往者の出勤簿データが、復職して通常勤務している状態であっても、休暇や遅刻が頻出するなど、乱れがあることがある。このとき、新規療養前の兆候である出勤の乱れがある出勤簿データと、部分的なテンソル上では似た状態になることがある。しかし、その後で療養が発生するとは限らない。よって、既往者の出勤簿データがノイズとなり、新規療養者の予測精度を低下させる。
一つの側面では、予測精度の劣化を抑制することができる学習用データ生成プログラム、学習用データ生成方法およびデータ構造を提供することを目的とする。
第1の案では、学習用データ生成プログラムは、コンピュータに、対象毎に、予め設定された期間の対象者の特徴を多次元で示す複数の要素から成るテンソルの生成元となる学習データを入力する処理を実行させる。学習用データ生成プログラムは、コンピュータに、対象者が予め設定された条件を満たす場合は、前記学習データにおいて前記条件に該当する該当期間を特定する処理を実行させる。学習用データ生成プログラムは、コンピュータに、前記該当期間の前後の少なくともいずれかの前記学習データに対し、重みづけされたテンソルを生成する処理を実行させる。
一実施形態によれば、予測精度の劣化を抑制することができる。
図1は、実施例1にかかる機械学習の全体例を説明する図である。 図2は、学習データの例を説明する図である。 図3は、グラフ構造とテンソルとの関係の一例を示す図である。 図4は、部分グラフ構造の抽出の一例を示す図である。 図5は、ディープテンソルの学習例を説明する図である。 図6は、実施例1にかかる学習装置の機能構成を示す機能ブロック図である。 図7は、出勤簿データDBに記憶される情報の例を示す図である。 図8は、出勤簿データで療養期間を判別する例を説明する図である。 図9は、テンソル化を説明する図である。 図10は、重みが1の通常者の入力テンソルを説明する図である。 図11は、重みが0の既往者の入力テンソルを説明する図である。 図12は、学習時の処理の流れを示すフローチャートである。 図13は、予測時の処理の流れを示すフローチャートである。 図14は、一般的なテンソル化の問題点を説明する図である。 図15は、重みを付加したテンソル化の効果を説明する図である。 図16は、ハードウェア構成例を説明する図である。
以下に、本願の開示する学習用データ生成プログラム、学習用データ生成方法およびデータ構造の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体例]
近年、従業員の体調管理などは、企業にとっても取り組むべき重要な事項に位置づけられており、従業員の出勤簿データから、数か月先のメンタル不調を予測し、カウンセリング等の対応を早期に実施することが行われている。一般的には、専任スタッフが、膨大な人数の従業員の出勤簿データを閲覧し、頻繁な出張、長時間残業、連続する欠勤、無断欠勤、これらの組合せなどの特徴的なパターンの勤務状態に該当する従業員を目視で探している。このような特徴的なパターンは、各専任スタッフにより基準が異なることもあり、明確に定義することが難しい。
そこで、本実施例では、ディープテンソルを用いた深層学習の一例として、従業員等の出勤簿データを学習対象とし、体調不良者の出勤簿データおよび通常者の出勤簿データをディープテンソルに入力して従業員のメンタル不調を予測する予測モデルを学習する例を説明する。図1は、実施例1にかかる機械学習の全体例を説明する図である。図1に示すように、実施例1にかかる学習装置100は、社員の日々の出勤、退勤時間、休暇取得、出張などの状況を含む出勤簿データを機械学習して予測モデルを生成し、学習後の予測モデルを用いて、予測対象のある社員の出勤簿データから、当該社員が療養(休職)するか療養しないかを予測するコンピュータ装置の一例である。なお、ここでは、学習装置100が学習処理と予測処理とを実行する例で説明するが、別々の装置で実行することもできる。
具体的には、学習装置100は、療養したことがある体調不良者の出勤簿データ(ラベル=療養あり)と、療養したことがない通常者の出勤簿データ(ラベル=療養なし)とを学習データとして、グラフ構造のデータを深層学習(ディープラーニング・Deep Learning;DL)するディープテンソルによって予測モデルを生成する。その後、学習結果を適用した予測モデルを用いて新規なグラフ構造のデータの正確な事象(ラベル)の推定を実現する。
例えば、学習装置100は、対象毎に、予め設定された期間の対象者の特徴を多次元で示す複数の要素から成るテンソルを生成する。このとき、学習装置100は、対象者が予め設定された条件を満たす場合は、テンソル化の対象である学習データにおいて条件に該当する該当期間を特定する。その後、学習装置100は、該当期間の前の期間よりも該当期間の後の期間の重みを軽くしたテンソルを生成し、生成したテンソルをテンソル分解して、ディープテンソルによる学習を実行する。
ここで、ディープテンソルに入力する学習データについて説明する。図2は、学習データの例を説明する図である。学習データは、6か月ごとの出勤簿データと、その6か月以降から3か月以内に療養実績があるか否かを示すラベルとから構成される。図2の(a)は、ラベル(療養あり)が付される体調不良者の出勤簿データであり、図2の(b)は、療養しなかったラベル(療養なし)が付される通常者の出勤簿データである。図2に示すように、実施例1にかかる学習装置100は、「6か月分の出勤簿データ、ラベル(療養あり)」と、「6か月分の出勤簿データ、ラベル(療養なし)」とを学習データとして予測モデルを学習する。学習装置100は、学習後、ある人の6か月分の出勤簿データから3か月以内に療養するか否かを予測する。なお、図2内の網掛けは、休暇を示す。
次に、ディープテンソルについて説明する。ディープテンソルとは、テンソル(グラフ情報)を入力とするディープラーニングであり、ニューラルネットワークの学習とともに、判別に寄与する部分グラフ構造を自動的に抽出する。この抽出処理は、ニューラルネットワークの学習とともに、入力テンソルデータのテンソル分解のパラメータを学習することによって実現される。
次に、図3および図4を用いてグラフ構造について説明する。図3は、グラフ構造とテンソルとの関係の一例を示す図である。図3に示すグラフ20は、4つのノードがノード間の関係性(例えば「相関係数が所定値以上」)を示すエッジで結ばれている。なお、エッジで結ばれていないノード間は、当該関係性がないことを示す。グラフ20を2階のテンソル、つまり行列で表す場合、例えば、ノードの左側の番号に基づく行列表現は「行列A」で表され、ノードの右側の番号(囲み線で囲んだ数字)に基づく行列表現は「行列B」で表される。これらの行列の各成分は、ノード間が結ばれている(接続している)場合「1」で表され、ノード間が結ばれていない(接続していない)場合「0」で表される。以下の説明では、この様な行列を接続行列ともいう。ここで、「行列B」は、「行列A」の2,3行目および2,3列目を同時に置換することで生成できる。ディープテンソルでは、この様な置換処理を用いることで順序の違いを無視して処理を行う。すなわち、「行列A」および「行列B」は、ディープテンソルでは順序性が無視され、同じグラフとして扱われる。なお、3階以上のテンソルについても同様の処理となる。
図4は、部分グラフ構造の抽出の一例を示す図である。図4に示すグラフ21は、6つのノードがエッジで結ばれたものである。グラフ21は、行列(テンソル)で表すと行列22に示すように表現できる。行列22に対して、特定の行および列を入れ替える演算、特定の行および列を抽出する演算、ならびに、接続行列における非ゼロ要素をゼロに置換する演算を組み合わせることで、部分グラフ構造を抽出できる。例えば、行列22の「ノード1,4,5」に対応する行列を抽出すると、行列23となる。次に、行列23の「ノード4,5」間の値をゼロに置換すると、行列24となる。行列24に対応する部分グラフ構造は、グラフ25となる。
このような部分グラフ構造の抽出処理は、テンソル分解と呼ばれる数学的演算によって実現される。テンソル分解とは、入力されたn階テンソルをn階以下のテンソルの積で近似する演算である。例えば、入力されたn階テンソルを1つのn階テンソル(コアテンソルと呼ばれる。)、および、より低階のn個のテンソル(n>2の場合、通常は2階のテンソル、つまり行列が用いられる。)の積で近似する。この分解は一意ではなく、入力データが表すグラフ構造中の任意の部分グラフ構造をコアテンソルに含める事ができる。
続いて、ディープテンソルの学習について説明する。図5は、ディープテンソルの学習例を説明する図である。図5に示すように、学習装置100は、療養ありなどの教師ラベル(ラベルA)が付された出勤簿データから入力テンソルを生成する。そして、学習装置100は、入力テンソルにテンソル分解を行って、初回にランダムに生成されたターゲットコアテンソルに類似するようにコアテンソルを生成する。そして、学習装置100は、コアテンソルをニューラルネットワーク(NN:Neural Network)に入力して分類結果(ラベルA:70%、ラベルB:30%)を得る。その後、学習装置100は、分類結果(ラベルA:70%、ラベルB:30%)と教師ラベル(ラベルA:100%、ラベルB:0%)との分類誤差を算出する。
ここで、学習装置100は、誤差逆伝搬法を拡張した拡張誤差伝搬法を用いて予測モデルの学習およびテンソル分解の方法の学習を実行する。すなわち、学習装置100は、NNが有する入力層、中間層、出力層に対して、分類誤差を下層に伝搬させる形で、分類誤差を小さくするようにNNの各種パラメータを修正する。さらに、学習装置100は、分類誤差をターゲットコアテンソルまで伝搬させ、予測に寄与するグラフの部分構造、すなわち体調不良者の特徴を示す特徴パターンもしくは通常者の特徴を示す特徴パターンに近づくように、ターゲットコアテンソルを修正する。
なお、学習後の予測時には、テンソル分解により、入力テンソルをコアテンソル(入力テンソルの部分パターン)に変換し、コアテンソルをニューラルネットに入力することで、予測結果を得ることができる。テンソル分解では、コアテンソルがターゲットコアテンソルに類似するように変換される。
そして、学習装置100は、通常者と体調不良者のそれぞれの出勤簿データから生成されたテンソルを用いて学習する際に、1つの学習データとして切り出された期間(例えば、6か月+ラベル用の3か月)内に療養が含まれるか否かに関わらず、出勤簿データの全期間を参照し、過去に療養経験がある者(以降、既往者と呼ぶ)を特定する。そして、学習装置100は、コアテンソル化(部分パターン抽出)した際に、療養前の兆候となる乱れた出勤簿のパターンと部分的に類似のデータを持つ恐れがある既往者の療養明け(復職後)期間のデータについてのテンソルの重みを減らす。このようにすることで、学習装置100は、既往者の出勤簿データが、休暇や遅刻が頻発するなど、新規に療養に入る前の体調不良者の出勤簿データと部分的に類似していても、既往者のデータの重みを減らすことで、新規療養前の兆候と同じコアテンソルとしては処理しなくなる。よって、新規療養の予測精度の劣化を抑制することができる。
[機能構成]
図6は、実施例1にかかる学習装置100の機能構成を示す機能ブロック図である。図6に示すように、学習装置100は、通信部101、記憶部102、制御部110を有する。
通信部101は、他の装置との通信を制御する処理部であり、例えば通信インタフェースである。例えば、通信部101は、管理者の端末から、処理開始指示、学習データ、学習データがテンソル化された入力テンソルなどを受信する。また、通信部11は、管理者の端末に対して、学習結果や学習後の予測結果などを出力する。
記憶部102は、プログラムやデータを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部102は、出勤簿データDB103、学習データDB104、テンソルDB105、学習結果DB106、予測対象DB107を記憶する。
出勤簿データDB103は、社員等の出勤に関する出勤簿データを記憶するデータベースである。ここで記憶される出勤簿データは、各企業で使用される出勤簿をデータ化したものであり、公知の様々な出勤管理システムなどから取得することができる。図7は、出勤簿データDB103に記憶される情報の例を示す図である。図7に示すように、出勤簿データは、「従業員No、日付、曜日、出欠区分、出勤時刻、退勤時刻、残業時間、出張」を対応付けて記憶する。なお、出欠区分には、出社、療養、休暇などの種別が格納される。
図7の例は、従業員No.100の従業員の出勤簿データを示している。例えば、図7の2行目は、「2015年4月2日木曜日」の出勤簿データであり、この日は、出張がなく、「8:49」に出社して「0:00」に退社し、残業時間が「360分」である例を示す。また、図7の7行目は、「2015年8月24日水曜日」の出勤簿データであり、この日から「2015年10月4日火曜日」まで「療養」したことを示す。なお、出勤簿データの単位は、日ごとに限らず、週単位や月単位であってもよい。
学習データDB104は、テンソル化対象となる学習データを記憶するデータベースである。具体的には、学習データDB104は、出勤簿データを6か月の期間で切出されたデータと、ラベルの組となる各学習データを記憶する。例えば、学習データDB104は、「データ、ラベル」として「学習データa、ラベル(療養なし)」や「学習データb、ラベル(療養あり)」などを記憶する。
例えば、6か月の出勤簿データを1つの学習データとし、その後の3か月以内に療養した療養期間がある場合に、ラベルとして「療養あり」が設定され、その後の3か月以内に療養期間がない場合に、ラベルとして「療養なし」が設定される。なお、6か月の出勤簿データに療養期間が含まれている場合、そのデータは学習データとして採用されない。これは、予測時に、予測元のデータ(入力)となる6か月分の出勤簿データにすでに「療養」が入っている人は、明らかに直近で療養しているとわかっており、この先3か月の療養予測の対象にはしないためである。
テンソルDB105は、各従業員の学習データから生成された各テンソル(テンソルデータ)を記憶するデータベースである。このテンソルDB105は、各テンソルとラベルとを対応付けたテンソルデータを記憶する。例えば、テンソルDB105は、「データNo、ラベル」として「テンソルNo.1、ラベル(療養なし)」や「テンソルNo.2、ラベル(療養あり)」などを記憶する。なお、ここで記憶される各テンソルは、学習装置100以外の別の装置で生成してもよく、学習装置100が生成することもできる。
学習結果DB106は、学習結果を記憶するデータベースである。例えば、学習結果DB106は、制御部110による学習データの判別結果(分類結果)、機械学習やディープラーニングによって学習された、NNの各種パラメータやディープテンソルの各種パラメータなどを記憶する。
予測対象DB107は、学習された予測モデルを用いて、新規に療養の有無を予測する対象の出勤簿データを記憶するデータベースである。例えば、予測対象DB107は、予測対象の出勤簿データ、または、予測対象の出勤簿データから生成されたテンソルなどを記憶する。
制御部110は、学習装置100全体の処理を司る処理部であり、例えばプロセッサなどである。この制御部110は、学習データ生成部111、既往者判定部112、重み設定部113、テンソル生成部114、学習部115、予測部116を有する。なお、学習データ生成部111、既往者判定部112、重み設定部113、テンソル生成部114、学習部115、予測部116は、プロセッサなどが有する電子回路やプロセッサなどが実行するプロセスの一例である。
学習データ生成部111は、出勤簿データDB103に記憶される各出勤簿データから、始期の異なる一定期間のデータと、始期に対応したラベルの組となる学習データを生成する処理部である。具体的には、学習データ生成部111は、一人の出勤簿データから重複を許して、指定された期間のデータをサンプリングする。学習データ生成部111は、各出勤簿データから、期間のはじまり(始期)が異なる複数のデータを抽出し、各データについて、データの終期から3か月以内に療養期間があればラベル「療養あり」を設定し、データの終期から3か月以内に療養期間がなければラベル「療養なし」を設定する。
例えば、学習データ生成部111は、1月から12月の出勤簿データから、1月から6月の出勤簿データを抽出する。そして、学習データ生成部111は、7月から9月の3か月に療養期間がない場合はラベル「療養なし」を、抽出した出勤簿データに付加して学習データを生成する。続いて、学習データ生成部111は、1月から12月の出勤簿データから、2月から7月の出勤簿データを抽出する。そして、学習データ生成部111は、8月から10月の3か月に療養期間がある場合はラベル「療養あり」を、抽出した出勤簿データに付加して学習データを生成する。
既往者判定部112は、各学習データの元となった出勤簿データに基づいて、該当する従業員が既往者か否かを判定する処理部である。例えば、既往者判定部112は、予測に用いる「6か月」などの区間切り出しではなく、該当従業員の全データ区間である出勤簿データを参照し、「療養期間」がある場合は既往者と判定し、「療養期間」がない場合は通常者と判定する。そして、既往者判定部112は、各学習データに対する判定結果を重み設定部113に通知する。
なお、既往者とは、1つの学習データとして使用する期間に限らず、過去の出勤簿データ全体において療養期間がある従業員を指す。例えば、療養期間が学習時から2年前の場合、直近6か月のデータだけみると「体調不良者」ではないが、「既往者」に該当する場合がある。
重み設定部113は、各学習データが既往者の療養明け期間に該当するか否かを判定し、その判定結果に応じて重みを設定する処理部である。つまり、重み設定部113は、ある条件の一例である既往者の学習データについて、療養明けで復職したデータの重要度を減少させるために、重みを設定する。例えば、重み設定部113は、既往者判定部112によって既往者であると判定された出勤簿データから生成された各学習データについて、当該学習データが療養期間の後の復職後のデータ期間に該当する場合は、当該学習データに対する重みを減らす。
ここで、図8を用いて、療養区間と重みの設定について説明する。図8は、出勤簿データで療養期間を判別する例を説明する図である。図8に示すように、重み設定部113は、テンソル化に際して、各学習データが「療養期間」の前後のいずれに該当するかを判定する。そして、重み設定部113は、「2016年8月24日」から「2016年10月4日」まで「療養期間」がある場合、療養開始の「2016年8月24日」より前に該当する学習データについては重みを「1」に設定し、療養終了の「2016年10月4日」より後の学習データについては重みを「0」に設定する。
つまり、療養期間より前の療養前期間は、療養要因となる部分パターンであるコアテンソル(予測に影響を与える部分パターン)として抽出するのに重要と判定し、重みとして「1」を設定する。一方で、療養期間より後の療養後期間は、療養要因となる部分パターンであるコアテンソルとして抽出するのに重要ではないと判定し、重みとして「0」を設定する。
テンソル生成部114は、各学習データをテンソル化する処理部である。具体的には、テンソル生成部114は、学習データDB104に記憶される各学習データであって、重み設定部113による重み設定が完了した各学習データについて、各学習データに含まれる要素で構成されるテンソルを生成して、テンソルDB105に格納する。テンソル生成部114は、学習データDB104に記憶される各学習データであって、重み設定部113による重み設定が完了した各学習データについて、例えば、各学習データに含まれる4要素で構成される4階テンソルを生成して、テンソルDB105に格納する。このとき、テンソル生成部114は、学習データに付加されるラベル(療養あり)またはラベル(療養なし)を、テンソルに対応付けて格納する。
具体的には、テンソル生成部114は、療養する傾向を特徴づけると想定される各属性を各次元として、学習データからテンソルを生成する。例えば、テンソル生成部114は、月度、日付、出欠区分、出張有無の4要素を用いた4次元の4階テンソルを生成する。なお、6か月分のデータである場合は、月度の要素数は「6」、各月の日付数の最大値が31であることから日付の要素数は「31」、出欠の種類が出社・休暇・休日であれば出欠区分の要素数は「3」、出張はありとなしであることから出張有無の要素数は「2」となる。したがって、学習データから生成されるテンソルは、「6×31×3×2」のテンソルとなり、学習データの各月度、日付における出欠区分、出張有無に対応する要素の値が1、そうでない要素の値が0となる。
図9は、テンソル化を説明する図である。図9に示すように、テンソル生成部114が生成するテンソルは、横方向に月度、縦方向に日付、奥行き方向に出欠区分、左側が出張あり、右側が出張なしのデータとなる。日付は、上から1日目を順に示し、出欠区分は、手前から出社、休暇、休日を示す。例えば、図9の(a)は、月度1の1日目に出社して出張した要素を示し、図9の(b)は、月度1の2日目に休暇を取得して出張しなかった要素を示す。
なお、本実施例では、上述したテンソルを簡略化して図9の(c)のように記載することとする。すなわち、月度、日付、出欠区分、出張有無の各要素を重ねたキューブ状で表現することとし、各月度かつ日付の出張有無を区別して表現し、各月度かつ日付の出欠区分を区別して表現することとする。
なお、テンソル生成部114は、予測時には、学習時と同様の手法で、予測対象DB107に記憶される各予測対象の出勤簿データから、ニューラルネットワークへの入力対象となるテンソルを生成する。
学習部115は、各学習データから生成された各テンソルおよびラベルを入力として、ディープテンソルによる予測モデルの学習およびテンソル分解の方法の学習を実行する処理部である。具体的には、学習部115は、ディープテンソルの「グラフ(テンソル)の部分構造を認識することができる」という性質を利用して、学習を実行する。例えば、学習部115は、図5で説明した手法と同様、入力対象のテンソル(入力テンソル)からコアテンソルを抽出してNNに入力し、NNからの分類結果と入力テンソルに付与されているラベルとの誤差(分類誤差)を算出する。そして、学習部115は、分類誤差を用いて、NNのパラメータの学習およびターゲットコアテンソルの最適化を実行する。その後、学習部115は、学習が終了すると、各種パラメータを学習結果として学習結果DB106に格納する。
ここで、重みが設定された入力テンソルについて説明する。図10は、重みが1の通常者の入力テンソルを説明する図であり、図11は、重みが0の既往者の入力テンソルを説明する図である。テンソルは線形の量なのであることから、重みづけを行うということは、元々の長さに対して、0から1あるいはそれ以上の数値を掛け合わせ、長さを変えることになる。
実施例1で説明するテンソル分解は、ターゲットコアテンソルに類似するようにコアテンソルを算出することにより、分類に重要な構造をコアテンソルの類似の位置に配置する。そして、このコアテンソルを用いてNNを学習することにより、精度の高い分類を実現する。テンソル分解は、2段階の最適化により計算される。図10に示すように、第1段階では、与えられたターゲットコアテンソルを用いて、入力テンソルを最もよく近似するように要素行列のみ最適化される。第2段階では、第1段階で最適化された要素行列を用いて、入力テンソルを最もよく近似するようにコアテンソルを最適化する。
入力テンソルに重みづけするということは、コアテンソルに数字的な重みづけ(線形の量を変更している)を行っていることになる。図11に示すように、入力テンソルをすべて0と重みづけすると、コアテンソルも0に重みづけされるので、既往者のデータはすべて0のコアテンソルとしてNNに入力されることになる。したがって、仮に重みづけ前の入力テンソルが同一のテンソルだったとしても、重み1と重み0のテンソルは異なる入力として学習されるので、新規に療養に入る前の乱れた出勤状況と、既往者の乱れた出勤状況を、異なる状況として適切に学習することができる。
より詳細に説明する。既往者のデータはすべて重みづけされたコアテンソルとしてNNに入力され、NNから出力することで分類させる。そして、分類された結果を教師ラベルと比較し、誤差を逆に伝搬させて誤差を最小化するようにNNのパラメータを更新する。このとき、逆伝搬で各要素の誤差情報が返ってくるので、その誤差情報を基にして、ターゲットコアテンソルも更新する。その更新したターゲットコアテンソルに類似するように、重みづけされた入力テンソルから要素を取り出した新たなコアテンソルを生成する。そして、新たなコアテンソルをNNに入力され、NNから出力することで分類させる。そして、分類された結果を教師ラベルと比較し、誤差を逆に伝搬させて誤差を最小化するようにNNのパラメータを更新する。このとき、逆伝搬で各要素の誤差情報が返ってくるので、その誤差情報を基にして、ターゲットコアテンソルも更新する。つまり、分類された結果と教師ラベルとの誤差が最小化するまで学習を繰り返すことで、最適化したターゲットコアテンソルおよびNNのパラメータが決定する。
予測部116は、学習結果を用いて、判別対象のデータのラベルを予測する処理部である。具体的には、予測部116は、学習結果DB106から各種パラメータを読み出し、各種パラメータを設定したニューラルネットワークを構築する。そして、予測部116は、予測対象の出勤簿データから生成されたテンソルをニューラルネットワークに入力する。その後、予測部116は、療養するまたは療養しないかの予測結果を出力する。そして、予測部116は、予測結果をディスプレイに表示したり、管理者端末に送信したりする。
また、予測部116は、予測対象の従業員の出勤簿データを参照して、予測対象の出勤簿データ期間よりも前に療養期間が含まれているか否かを判定し、療養期間が含まれていない通常者の場合に予測を実行し、療養期間が含まれている既往者である場合にアラートを出力することもできる。
[学習の流れ]
図12は、学習時の処理の流れを示すフローチャートである。図12に示すように、学習データ生成部111は、出勤簿データを出勤簿データDB103から読み込み(S101)、学習対象の従業員1人を選択する(S102)。
続いて、学習データ生成部111は、出勤簿データから6か月期間のデータを切出すとともに、続く3か月間の出勤簿データ内の療養期間の有無によって、切出された各データにラベルを付与して、学習データを生成する(S103)。なお、6か月のデータ内に療養が含まれている場合は学習データとして採用されない。
その後、S104からS108の処理が各学習データについて実行される。具体的には、既往者判定部112が、対象の従業員の出勤簿データを参照して、既往者に該当するか否かを判定する(S104)。
ここで、既往者に該当する場合(S104:Yes)、重み設定部113が、学習データに対する既往者の療養明け区間の重みづけ(重み=0)を実行し(S105)、テンソル生成部114が、重み付けされた学習データのテンソル化を実行する(S106)。
一方、既往者に該当しない場合(S104:No)、重み設定部113が、学習データに対する重みづけ(重み=1)を実行し(S107)、テンソル生成部114が、学習データのテンソル化を実行する(S108)。すなわち、重みの変更が実行されない。
その後、次の対象となる従業員がいる場合(S109:Yes)、S102以降が実行され、次の対象となる従業員がいない場合(S109:No)、学習部115による学習処理が実行される(S110)。
[予測の流れ]
図13は、予測時の処理の流れを示すフローチャートである。なお、予測対象の出勤簿データについても、学習時と同様、期間6か月分を入力とし、その後3か月以内に療養する/しないを予測する。図13に示すように、予測部116は、予測対象DB107から出勤簿データを読み込み(S201)、予測対象の従業員1人を選択する(S202)。
続いて、予測部116は、対象の従業員の出勤簿データを参照して、既往者に該当するか否かを判定する(S203)。
ここで、既往者に該当しない場合(S203:No)、予測部116は、出勤簿データのテンソル化を実行し(S204)、学習済みの予測モデルを用いて予測を実行し(S205)、該当従業員が3か月以内に療養するまたは療養しないを示す予測結果のラベルを記憶部102等に格納する(S206)。
その後、次の対象となる従業員がいる場合(S207:Yes)、S202以降が実行され、次の対象となる従業員がいない場合(S207:No)、処理を終了する。また、S203において、予測部116は、既往者に該当すると判定した場合(S203:Yes)、予測結果に既往者であることを示す既往者アラートを格納する(S208)。なお、S203で既往者に該当するとは、対象従業員が、予測対象の出勤簿データ(6か月分)よりも前の期間の出勤簿データに療養を含んでいる既往者である場合の他、予測対象の出勤簿データ(6か月分)内に療養を含んでおり予測対象外となる場合もある。
[効果]
上述したように、学習装置100は、ディープテンソルの「予測に寄与するグラフの部分構造(テンソルの部分パターン)をコアテンソルとして抽出することができる」という性質を利用し、少ない学習データ量でも精度良く予測が可能である。特に、既往者の療養明け期間のテンソルデータの重みを変えることにより、新規に療養に入る前の乱れた出勤状況と既往者の乱れた出勤状況が、出勤簿データ上、部分的に同じ出勤パターンを示していても、異なる状況として適切に学習することができるため、新規療養者予測の精度向上ができる。
また、従来から従業員の体調管理などを行う専任スタッフが、学習装置100による予測対象者の既往者チェックの結果を閲覧することにより、再療養リスクが高い既往者がすでにフォロー対象になっているか確認することができる。また、学習装置100は、予測対象者の既往者チェックの結果を用いて、再療養リスクが高い既往者を検出して、「既往者アラート」などを出力することもできる。
ここで、一般的なテンソル化と実施例1による重みを付加したテンソル化との比較例を説明する。図14は、一般的なテンソル化の問題点を説明する図である。図15は、重みを付加したテンソル化の効果を説明する図である。ここでは、療養明けの既往者に該当する従業員A(ラベル:療養なし)の学習データのテンソルと、3か月以内に療養する従業員B(ラベル:療養あり)の学習データのテンソルとの比較例を説明する。
図14に示すように、一般的なテンソル化の場合、従業員Aのテンソルと従業員Bのテンソルとは、長期間で比較すると別のテンソルであるが、短期間で比較すると同じテンソルとなる。つまり、同じコアテンソルが抽出される可能性がある。この場合、同じ事例として処理されるので、既往者のデータがノイズとなり、ターゲットコアテンソルの最適化やNNの学習の精度劣化に繋がる結果、予測モデルの精度劣化が発生する。
一方、実施例1の場合、図15に示すように、従業員A、B、Cの各テンソルは、長期間で比較すると別のテンソルであるが、短期間で比較すると同じテンソルとなり、コアテンソルとして共通パターンが抽出される可能性がある。しかし、従業員Aが既往者であることから、テンソルの重みが変更される。したがって、コアテンソルと同じパターンであっても、NNに入力されるときには同じパターン(コアテンソル)として処理されなくなり、別例として学習される。一方、従業員BおよびCのテンソルは、共通パターンとして学習される。この結果、既往者の学習データによる予測モデルの精度劣化を抑制することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[学習]
上述した学習処理は、任意の回数だけ実行することもできる。例えば、すべての学習データを用いて実行することもでき、所定回数だけ実行することもできる。また、分類誤差の算出方法は、最小二乗法など公知の算出手法を採用することができ、NNで用いられる一般的な算出手法を採用することもできる。なお、学習データや出勤簿データは、外部の装置から取得することもできる。
[重み]
実施例では、療養明けのテンソルに重みとして0を設定する例を説明したが、これに限定されるものではない。例えば、療養前期間に重み(1)、療養明けから1年以内は重み(0)、その後は重み(0.5)などのように、複数の重みを設定することもできる。また、療養明けのテンソルに重みとして0を設定し、療養明けから2年後は重みを(0)から元の重み(1)に戻すこともできる。また、学習対象のテンソルは、該当期間の前後に応じて、重みを変更することもできる。例えば、所定条件に該当する該当期間の前の期間の重みを該当期間の後ろの期間の重みよりも重くすることもできる。また、重みの数値は一例であり、療養前期間のデータの重要度を高く、復職後期間のデータの重要度を低くすることができれば、他の値を用いることもできる。なお、所定条件によっては、所定条件に該当する該当期間の前の期間の重みを該当期間の後ろの期間の重みよりもこともできる。
[特定条件]
実施例1では、過去に療養経験のある既往者のテンソルデータの重みを変更する例を説明したが、これに限定されるものではない。たとえば、育児や介護をしている従業員など、本人の体調不良には起因しない勤務の乱れがあるような従業員のデータも、新規療養予測のノイズとなりうるため、これらの従業員を対象とするなど、テンソルデータの重みを変更する条件は、任意に変更できる。
また、上記実施例では、学習時、出勤簿データから自動で6か月や3か月の期間抽出の上、「療養あり」「療養なし」のラベルを付与し学習する例を説明したが、これに限定されるものではない。例えば、ユーザによりあらかじめ期間抽出やラベルが付与されている場合は、与えられたデータや付与済みのラベルを使用することもできる。また、ラベルの設定例も一例であり、療養ありと療養なしに限らず、体調不良者と通常者、休職ありと休職なしなどのように、体調不良者の有無を区別できる様々なラベルを用いることもできる。
また、6か月の出勤簿データを予測に用いるデータとして使用したが、これに限定されるものではなく、4か月など任意に変更することができる。また、6か月の出勤簿データに対して、その後3か月以内に療養したか否かによってラベルを付与する例を説明したが、これに限定されるものではなく、2か月以内など任意に変更することができる。また、上記実施例では、学習装置100が出勤簿データをテンソル化する例を説明したが、他の装置がテンソル化したデータを取得して上記各処理を実行することもできる。
[想定システム]
上記実施例では、出勤簿データを学習して療養する可能性がある従業員を予測する例で説明したが、これに限定されるものではない。例えば、電子部品の動作データを用いた故障予測、通信データを用いた攻撃予測、道路の交通量データを用いた渋滞予測などにも適用することができる。
[ニューラルネットワーク]
本実施例では、RNN(Recurrent Neural Networks)やCNN(Convolutional Neural Network)など様々なニューラルネットワークを用いることができる。また、学習の手法も、誤差逆伝播以外にも公知の様々な手法を採用することができる。また、ニューラルネットワークは、例えば入力層、中間層(隠れ層)、出力層から構成される多段構成であり、各層は複数のノードがエッジで結ばれる構造を有する。各層は、「活性化関数」と呼ばれる関数を持ち、エッジは「重み」を持ち、各ノードの値は、前の層のノードの値、接続エッジの重みの値(重み係数)、層が持つ活性化関数から計算される。なお、計算方法については、公知の様々な手法を採用できる。
また、ニューラルネットワークにおける学習とは、出力層が正しい値となるように、パラメータ、すなわち、重みとバイアスを修正していくことである。誤差逆伝播法においては、ニューラルネットワークに対して、出力層の値がどれだけ正しい状態(望まれている状態)から離れているかを示す「損失関数(loss function)」を定め、最急降下法等を用いて、損失関数が最小化するように、重みやバイアスの更新が行われる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図16は、ハードウェア構成例を説明する図である。図16に示すように、学習装置100は、通信装置100a、HDD(Hard Disk Drive)100b、メモリ100c、プロセッサ100dを有する。また、図16に示した各部は、バス等で相互に接続される。
通信装置100aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD100bは、図6に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ100dは、図6に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図6等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、学習装置100が有する各処理部と同様の機能を実行する。具体的には、プロセッサ100dは、学習データ生成部111、既往者判定部112、重み設定部113、テンソル生成部114、学習部115、予測部116等と同様の機能を有するプログラムをHDD100b等から読み出す。そして、プロセッサ100dは、学習データ生成部111、既往者判定部112、重み設定部113、テンソル生成部114、学習部115、予測部116等と同様の処理を実行するプロセスを実行する。
このように学習装置100は、プログラムを読み出して実行することで学習方法を実行する情報処理装置として動作する。また、学習装置100は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、学習装置100によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO(Magneto−Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
100 学習装置
101 通信部
102 記憶部
103 出勤簿データDB
104 学習データDB
105 テンソルDB
106 学習結果DB
107 予測対象DB
110 制御部
111 学習データ生成部
112 既往者判定部
113 重み設定部
114 テンソル生成部
115 学習部
116 予測部

Claims (2)

  1. コンピュータに、
    対象毎に、予め設定された期間の対象者の特徴を多次元で示す複数の要素から成るテンソルの生成元となる、過去に療養期間を含む既往者の出勤簿データおよび前記既往者以外の前記対象者である通常者の出勤簿データを含む複数の学習データを入力し、
    入力された学習データが前記既往者に該当するか否かを判定し、
    前記入力された学習データが前記既往者に該当しない場合、当該学習データから生成されるテンソルを用いて、ニューラルネットワークの深層学習を実行し、
    前記入力された学習データが前記既往者に該当する場合、当該学習データから生成されるテンソルにおける前記学習データに含まれる前記療養期間よりも後のテンソル部分に、他のテンソルよりも重要度を下げるための重みを設定し、重みが設定されたテンソルを用いて、前記ニューラルネットワークの深層学習を実行する、
    処理を実行させる学習用データ生成プログラム。
  2. コンピュータが、
    対象毎に、予め設定された期間の対象者の特徴を多次元で示す複数の要素から成るテンソルの生成元となる、過去に療養期間を含む既往者の出勤簿データおよび前記既往者以外の前記対象者である通常者の出勤簿データを含む複数の学習データを入力し、
    入力された学習データが前記既往者に該当するか否かを判定し、
    前記入力された学習データが前記既往者に該当しない場合、当該学習データから生成されるテンソルを用いて、ニューラルネットワークの深層学習を実行し、
    前記入力された学習データが前記既往者に該当する場合、当該学習データから生成されるテンソルにおける前記学習データに含まれる前記療養期間よりも後のテンソル部分に、他のテンソルよりも重要度を下げるための重みを設定し、重みが設定されたテンソルを用いて、前記ニューラルネットワークの深層学習を実行する、
    処理を実行する学習用データ生成方法。
JP2018109392A 2018-06-07 2018-06-07 学習用データ生成プログラムおよび学習用データ生成方法 Active JP6562121B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018109392A JP6562121B1 (ja) 2018-06-07 2018-06-07 学習用データ生成プログラムおよび学習用データ生成方法
US16/422,481 US11829867B2 (en) 2018-06-07 2019-05-24 Computer-readable recording medium and learning data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018109392A JP6562121B1 (ja) 2018-06-07 2018-06-07 学習用データ生成プログラムおよび学習用データ生成方法

Publications (2)

Publication Number Publication Date
JP6562121B1 true JP6562121B1 (ja) 2019-08-21
JP2019212155A JP2019212155A (ja) 2019-12-12

Family

ID=67690495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018109392A Active JP6562121B1 (ja) 2018-06-07 2018-06-07 学習用データ生成プログラムおよび学習用データ生成方法

Country Status (2)

Country Link
US (1) US11829867B2 (ja)
JP (1) JP6562121B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068163A (ja) * 2019-10-23 2021-04-30 富士通株式会社 予測プログラム、予測方法及び予測装置
JPWO2021131754A1 (ja) * 2019-12-24 2021-07-01

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11037330B2 (en) * 2017-04-08 2021-06-15 Intel Corporation Low rank matrix compression
JP2021096511A (ja) * 2019-12-13 2021-06-24 富士通株式会社 学習データ生成方法、学習データ生成プログラムおよび情報処理装置
US20210192314A1 (en) * 2019-12-18 2021-06-24 Nvidia Corporation Api for recurrent neural networks
JP7409080B2 (ja) * 2019-12-27 2024-01-09 富士通株式会社 学習データ生成方法、学習データ生成プログラムおよび情報処理装置
JP7392537B2 (ja) * 2020-03-19 2023-12-06 富士通株式会社 学習プログラム、学習方法、および情報処理装置
US20220309361A1 (en) * 2021-03-25 2022-09-29 Capital One Services, Llc Automated program access configuration based on interaction and timing data
CN117196560B (zh) * 2023-11-07 2024-02-13 深圳市慧云智跑网络科技有限公司 一种基于物联网的打卡设备数据采集方法及系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3469677B2 (ja) 1995-05-31 2003-11-25 三洋電機株式会社 文字認識装置およびその学習方法
IL120136A0 (en) * 1997-02-03 1997-06-10 Yissum Res Dev Co Synthesizing virtual two dimensional images of three dimensional space from a collection of real two dimensional images
US20040030584A1 (en) * 2002-08-12 2004-02-12 Harris Jeffrey Saul System and method for guideline-based, rules assisted medical and disability management
US8560582B2 (en) * 2002-08-12 2013-10-15 Jeffrey Saul Harris Method for analyzing records in a data base
JP4499503B2 (ja) * 2004-08-10 2010-07-07 株式会社エヌ・ティ・ティ・データ 発症リスク算出システム及びプログラム
US8818919B2 (en) * 2011-08-05 2014-08-26 International Business Machines Corporation Multiple imputation of missing data in multi-dimensional retail sales data sets via tensor factorization
US9645212B2 (en) * 2014-10-21 2017-05-09 The Regents Of The University Of California Fiber tractography using entropy spectrum pathways
CN107851295B (zh) * 2015-07-16 2022-02-25 日本电气株式会社 数据分析设备、数据分析方法和存储数据分析程序的存储介质
JP2017204214A (ja) * 2016-05-13 2017-11-16 株式会社リコー 情報処理装置及びプログラム
EP3579747A1 (en) * 2017-02-10 2019-12-18 Mynd Analytics, Inc. Qeeg/genomic analysis for predicting therapeutic outcome of psychiatric disorders
US11640526B2 (en) * 2017-05-23 2023-05-02 Intel Corporation Methods and apparatus for enhancing a neural network using binary tensor and scale factor pairs
US20190096525A1 (en) * 2017-09-26 2019-03-28 Owned Outcomes Inc. Patient data management system
US11147459B2 (en) * 2018-01-05 2021-10-19 CareBand Inc. Wearable electronic device and system for tracking location and identifying changes in salient indicators of patient health

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068163A (ja) * 2019-10-23 2021-04-30 富士通株式会社 予測プログラム、予測方法及び予測装置
JP7451935B2 (ja) 2019-10-23 2024-03-19 富士通株式会社 予測プログラム、予測方法及び予測装置
JPWO2021131754A1 (ja) * 2019-12-24 2021-07-01
JP7377893B2 (ja) 2019-12-24 2023-11-10 京セラ株式会社 通信機器及びプログラム

Also Published As

Publication number Publication date
US20190378011A1 (en) 2019-12-12
US11829867B2 (en) 2023-11-28
JP2019212155A (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
JP6562121B1 (ja) 学習用データ生成プログラムおよび学習用データ生成方法
JP6481794B1 (ja) 学習用データ生成方法、学習用データ生成プログラム
JP2019191783A (ja) 機械学習プログラム、機械学習方法および機械学習装置
JP2019191777A (ja) 機械学習プログラム、機械学習方法および機械学習装置
US11347972B2 (en) Training data generation method and information processing apparatus
Perelman et al. An adaptive heuristic cross-entropy algorithm for optimal design of water distribution systems
JP7063079B2 (ja) 機械学習プログラム、機械学習方法および機械学習装置
De la Sen et al. On an Sir Epidemic Model for the COVID‐19 Pandemic and the Logistic Equation
Rubinstein et al. How to deal with the curse of dimensionality of likelihood ratios in Monte Carlo simulation
JP6832329B2 (ja) データ構造
JP7067236B2 (ja) 機械学習用データ生成方法および機械学習用データ生成プログラム
Burghardt et al. Unequal impact and spatial aggregation distort COVID-19 growth rates
JP2020047079A (ja) 学習プログラム、学習方法および学習装置
Das et al. Functional regression-based monitoring of quality of service in hospital emergency departments
JP6843109B2 (ja) 医療用のデータ構造
Ayhar et al. On the asymptotic properties of some kernel estimators for continuous-time semi-Markov processes
JP7451935B2 (ja) 予測プログラム、予測方法及び予測装置
Schoenberg et al. Analytic computation of nonparametric Marsan–Lengliné estimates for Hawkes point processes
Song et al. An ordinal optimization based evolution strategy to schedule complex make-to-order products
JP2021096511A (ja) 学習データ生成方法、学習データ生成プログラムおよび情報処理装置
JP2019057029A (ja) 選択装置、選択方法、選択プログラム、モデルおよび学習データ
JP2018156332A (ja) 生成装置、生成方法および生成プログラム
Mahdipour et al. Performance evaluation of an importance sampling technique in a Jackson network
Liu et al. On estimation of covariance function for functional data with detection limits
Treibert et al. An Unsupervised Physics-Informed Neural Network to Model COVID-19 Infection and Hospitalization Scenarios

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180706

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180720

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190411

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190411

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190422

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20190423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190708

R150 Certificate of patent or registration of utility model

Ref document number: 6562121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150