JP2020042645A - 時系列データ分析装置、時系列データ分析方法、および時系列データ分析プログラム - Google Patents

時系列データ分析装置、時系列データ分析方法、および時系列データ分析プログラム Download PDF

Info

Publication number
JP2020042645A
JP2020042645A JP2018170769A JP2018170769A JP2020042645A JP 2020042645 A JP2020042645 A JP 2020042645A JP 2018170769 A JP2018170769 A JP 2018170769A JP 2018170769 A JP2018170769 A JP 2018170769A JP 2020042645 A JP2020042645 A JP 2020042645A
Authority
JP
Japan
Prior art keywords
data
time
feature
feature amount
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018170769A
Other languages
English (en)
Other versions
JP7059151B2 (ja
Inventor
琢磨 柴原
Takuma Shibahara
琢磨 柴原
鈴木 麻由美
Mayumi Suzuki
麻由美 鈴木
泰穂 山下
Yasuho Yamashita
泰穂 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018170769A priority Critical patent/JP7059151B2/ja
Priority to US16/555,644 priority patent/US20200082286A1/en
Priority to EP19194591.4A priority patent/EP3624017A1/en
Publication of JP2020042645A publication Critical patent/JP2020042645A/ja
Application granted granted Critical
Publication of JP7059151B2 publication Critical patent/JP7059151B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/045Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】時系列データの分析についての説明容易化を実現すること。【解決手段】時系列データ分析装置は、第1特徴量データ群と第1内部パラメータと第1学習パラメータとに基づいて第1内部データを生成し、第1内部データと第2学習パラメータとに基づいて特徴量空間上の位置を変換し、第1変換結果と第1特徴量データ群とに基づいて第1特徴量データを再配置し、再配置結果と第3学習パラメータとに基づいて第1予測値を算出し、目的変数と第1予測値とに基づいて統計的勾配法で第1〜第3学習パラメータを最適化し、第2特徴量データ群と第2内部パラメータと最適化された第1学習パラメータとに基づいて第2内部データを生成し、第2内部データと最適化された第2学習パラメータとに基づいて特徴量空間上の位置を変換し、第2変換結果と最適化された第3学習パラメータとに基づいて第2特徴量データの重要度データを算出する。【選択図】図3

Description

本発明は、時系列データを分析する時系列データ分析装置、時系列データ分析方法、および時系列データ分析プログラムに関する。
AI(Artificial Intelligence)を実現する技術の1つである機械学習では、特徴量ベクトルから得られた予測値と実際の値(真値)の誤差が最小となるように、学習パラメータ(パーセプトロンにおける重みベクトル等)を計算することを学習と呼ぶ。学習のプロセスが完了すると、学習に用いなかったデータ(以降、テストデータと呼ぶ)から新しい予測値を計算することができる。パーセプトロンでは、重みベクトルの各要素値の大きさが、予測に寄与した因子の重要度として用いられている。
一方、deep learningを含むニューラルネットワークは高い予測精度を実現できるが、特徴量ベクトルの各要素は複数のパーセプトロンを通過するたびに、他の要素と重み付き積和演算が実施されることから、各要素単体での重要度を知ることは原理的に困難である。このことは、医療現場においてdeep learningを用いる場合には致命的な欠点となる。
ある患者を退院させるかどうかの判断に、医師がAIを用いることを例に説明すると、deep learningを用いたAIは、ある患者に対して「再入院しやすい」という診断結果と共に、再入院すると判断するに至った要因を出力することができない。もし、AIがその判断要因まで出力できれば、医師は、患者に対して適切な治療をおこなうことがきる。
下記非特許文献1の手法は特徴量の重要度を算出する機能を持たないdeep learningなどの機械学習手法の識別結果を説明できるように、新たに線形回帰もしくはロジスティック回帰を学習させる手法である。また、ロジスティック回帰はパーセプトロンと等価な機械学習モデルであり、あらゆる分野で最も広く用いられている。たとえば、下記非特許文献2の119ページに示されるロジスティック回帰は、データサンプル全体について特徴量の重要度を算出する機能を持つ。非特許文献3は、3512次元の特徴量を構成して分析を実施する機械学習モデルを開示する。非特許文献4のTransformerは、時系列データを扱うことのできるニューラルネットワークの1つである。
Ribeiro, Marco Tulio, Sameer Singh, and Carlos Guestrin. "Why should I trust you?: Explaining the predictions of any classifier." Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM, 2016. Friedman J, Trevor H, Robert T. The elements of statistical learning. second edition. New York: Springer series in statistics, 2001. Golas, Sara Bersche, et al. "A machine learning model to predict the risk of 30-day readmissions in patients with heart failure: a retrospective analysis of electronic medical records data." BMC medical informatics and decision making 18.1 (2018): 44. 22 Jun 2018 Ashish Vaswani, et al. "Attention is all you need." Advances in Neural Information Processing Systems, 2017.
非特許文献1の手法は、時系列データ向けのdeep learningであるRNN(recurrent neural Network)に適用することができない。たとえば、入院患者の容体は日々変遷することから、時系列情報を加味せずに処理を行った場合、現実に起きる結果と予測結果が大きく乖離する可能性がある。
また、過去に遡って予測結果を左右した要因を明らかにすることができなければ、医師は今後の治療を改善することができない。さらに、非特許文献1の手法は線形回帰で後付け的に説明を試みているにすぎず、通常の全結合タイプのdeep learningの説明を試みる場合でさえも、deep learningが予測する際に利用している特徴量の重要度を完全に算出できる数学的な保証はない。仮に、完全に線形回帰がdeep learningと同一の予測精度を達成できるならば、もはや、最初のdeep learning自体が必要ではない。非特許文献1の手法は構成概念には矛盾がある。
本発明は上記に鑑みてなされたものであって、時系列データについての説明の容易化を実現することを目的とする。
本願において開示される発明の一側面となる時系列データ分析装置は、プログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、を有し、データベースにアクセス可能な時系列データ分析装置であって、前記データベースは、複数の特徴量を含む第1特徴量データが時系列に存在する第1特徴量データ群と、第1特徴量データ群の各々の第1特徴量データに対応する目的変数と、を、それぞれ所定数有する訓練データ集合を記憶しており、前記プロセッサは、前記第1特徴量データ群と、前記第1特徴量データの時刻以前の時刻の他の第1特徴量データの少なくとも一部である第1内部パラメータと、第1学習パラメータと、に基づいて、前記第1特徴量データの時刻に基づく第1内部データを前記第1特徴量データごとに生成する第1生成処理と、前記第1生成処理によって前記第1特徴量データごとに生成された複数の第1内部データと、第2学習パラメータと、に基づいて、前記第1特徴量データの特徴量空間上での位置を変換する第1変換処理と、前記第1変換処理による前記第1内部データごとの時系列な第1変換結果と、前記第1特徴量データ群と、に基づいて、前記第1特徴量データの各々を、前記特徴量空間での変換先の位置に再配置する再配置処理と、前記再配置処理による再配置結果と、第3学習パラメータと、に基づいて、前記第1特徴量データ群に対応する第1予測値を算出する第1算出処理と、前記目的変数と、前記第1算出処理によって算出された前記第1予測値と、に基づいて、統計的勾配法により、前記第1学習パラメータ、前記第2学習パラメータ、および前記第3学習パラメータを最適化する最適化処理と、複数の特徴量を含む第2特徴量データが時系列に存在する第2特徴量データ群と、前記第2特徴量データの時刻以前の時刻の特徴量データの少なくとも一部である第2内部パラメータと、前記最適化処理によって最適化された第1学習パラメータと、に基づいて、前記第2特徴量データの時刻に基づく第2内部データを前記第2特徴量データごとに生成する第2生成処理と、前記第2生成処理によって前記第2特徴量データごとに生成された複数の第2内部データと、前記最適化処理によって最適化された第2学習パラメータと、に基づいて、前記第2特徴量データの前記特徴量空間上での位置を変換する第2変換処理と、前記第2変換処理による前記第2内部データごとの時系列な第2変換結果と、前記最適化処理によって最適化された第3学習パラメータと、に基づいて、前記第2特徴量データの各々についての重要度を示す重要度データを算出する重要度算出処理と、を実行することを特徴とする。
本発明の代表的な実施の形態によれば、時系列データの分析についての説明の容易化を実現することができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
図1は、時系列特徴量ベクトルと識別境界の関係を示す説明図である。 図2は、時系列データ分析システムのシステム構成例を示すブロック図である。 図3は、実施例1にかかるニューラルネットワークの構造例を示す説明図である。 図4は、時系列データ分析装置による学習および予測処理手順例を示すフローチャートである。 図5は、ニューラルネットワークの設定画面例を示す説明図である。 図6は、アウトプットパネルの表示例を示す説明図である。 図7は、Transformer(非特許文献4)に基づく識別器と実施例1にかかる時系列データ分析装置との実験結果を示す図表である。
実施例1では、心不全で入院した患者が再入院するか否かを退院時に予測する共に再入院に寄与する因子を出力する時系列データ分析装置を例として説明する。実施例1にかかる時系列データ分析装置が出力する因子により、医師は個々の患者に適した予後指導が可能となる。このことは患者の迅速な回復、医療の質の向上に貢献すると共に加速度的に増大する国の医療費削減につながる。
<時空間における特徴量ベクトルと識別面>
図1は、時系列特徴量ベクトルと識別境界の関係を示す説明図である。図1は時刻を表す次元を1つの軸とし、他の複数の特徴(たとえば、日々の血圧)を表す次元が張る特徴量空間に患者を図示している。境界面100は将来において再入院する患者101と、歳入院しない患者102を隔てる真の識別境界面である。RNNは境界面100を計算できうる能力を持つが、一般に境界面100は高次元の複雑な曲面となり、人の能力では理解することができない。
その一方で、境界面100のように複雑な高次元曲面であったとしても、局所的には平面103であるとみなすことができる場合がある。無数のパーセプトロン(もしくはlogistic regression(実施例2を参照。))を使って個々の患者ごとに局所平面103の計算が可能であれば、それらの線形モデルの学習パラメータ(平面の傾き)の各要素値の大きさとして、予測に寄与した因子を知ることができる。実施例1にかかる時系列データ分析装置は、時系列データを処理可能なdeep learningを用いて、個々の患者ごとに線形モデルを生成する。
<システム構成例>
図2は、時系列データ分析システムのシステム構成例を示すブロック図である。図2では、サーバ−クライアント型の時系列データ分析システム2を例に挙げて説明するが、スタンドアロン型でもよい。(A)は、時系列データ分析システム2のハードウェア構成例を示すブロック図であり、(B)は、時系列データ分析システム2の機能的構成例を示すブロック図である。(A)および(B)において同一構成には同一符号を付す。
時系列データ分析システム2は、クライアント端末200とサーバである時系列データ分析装置220とがネットワーク210で通信可能に接続される構成である。
(A)において、クライアント端末200は、補助記憶装置であるHDD(hard disk drive)201、主記憶装置であるメモリ202、プロセッサ203、キーボードやマウスである入力装置204、モニタ205を有する。時系列データ分析装置220は、補助記憶装置であるHDD221、主記憶装置であるメモリ222、プロセッサ223、キーボードやマウスである入力装置224、モニタ225を有する。なお、主記憶装置、補助記憶装置、および、図示しない可搬型の記憶媒体を総称して、記憶デバイスと称す。記憶デバイスは、ニューラルネットワーク300およびこれらの学習パラメータを記憶する。
(B)において、クライアント端末200は、クライアントデータベース(DB)251を有する。クライアントDB251は、HDD201やメモリ202などの記憶デバイスに格納される。クライアントDB251には、テストデータ集合252と、予測結果253と、が格納される。テストデータ集合252は、テストデータの集合である。予測結果253は、予測部262からネットワーク210経由で得られたデータである。なお、サーバ−クライアント型の場合、クライアント端末200は1台以上存在する。
時系列データ分析装置220は、学習部261と、予測部262と、サーバデータベース(DB)263と、を有する。学習部261は、ニューラルネットワーク300を用いて、学習パラメータ265を出力する機能部である。
予測部262は、学習パラメータ265を用いて、ニューラルネットワーク300を構築し、ニューラルネットワーク300にテストデータが与えられることで、予測処理を実行し、予測結果253をクライアント端末200に出力する機能部である。学習部261および予測部262は、HDD221、メモリ222などの記憶デバイスに記憶されたプログラムをプロセッサ223に実行させることによりその機能を実現する。
サーバDB263は、訓練データ集合264と、学習パラメータ265と、を格納する。訓練データ集合264は、時系列特徴量ベクトルx(t、n)と、目的変数Y(n)との組み合わせ{x(t、n),Y(n)}により構成される訓練データの集合である。nは、n={1,2,…,N}であり、たとえば、患者データを指定するためのインデックスである。実施例1ではN=30,000とする。
tは、t={0,1,…,T−1}であり、たとえば、n番の患者データの取得時刻(たとえば、入院日からの週数)を表す。取得時刻の間隔は、1人の患者データで必ずしも一定間隔である必要はない。また、他の患者データと同一間隔である必要もない。取得時刻の単位(秒単位、分単位、時単位、日単位、週単位、月単位、年単位など)が異なる際には、ある1つの単位(たとえば、最小単位)に揃えた後に患者データが入力される。
時系列特徴量ベクトルx(t、n)∈R(RはD次元の実数。Dは1以上の整数。)は、D次元の実数値ベクトルであり、年齢、性別、取得時刻tにおける投薬情報、取得時刻tにおける検査値などの情報を含んでいる。非特許文献3によれば、D=3512次元の特徴量を構成して分析が実施されている。時系列データ分析装置220は、非特許文献3と同様の時系列特徴量ベクトルx(t、n)を入力にとることできる。
ただし、実施例1の理解の容易さを高めるため、以下のように、時系列特徴量ベクトルx(t、n)を{年齢、性別、週ごとの白血球数[million cells/μl]}(D=3次元)として説明する。なお、テストデータ集合252は、時系列特徴量ベクトルx(t、n)として用いられなかった他の時系列特徴量ベクトルであるテストデータの集合である。テストデータとなる他の時系列特徴量を、時系列特徴量ベクトルx´(t、n)と表記する。
目的変数Y(n)は0または1の値をとる。実施例1では、たとえば、Y(n)がY(n)=1であれば、そのn番の患者データの患者は再入院しており、Y(n)がY(n)=0であれば再入院していないことを意味する。なお、以下の説明で、インデックスnを区別しない場合、nを省略して、「時系列特徴量ベクトルx(t)」、「目的変数Y」と表記する場合がある。同様に、「時系列特徴量ベクトルx(t、n)、x´(t、n)」を用いて算出される算出結果についても、nが省略される。以下、D=3次元の時系列特徴量ベクトルx(1)〜x(T)の行列表現を以下に例示する。
Figure 2020042645
上記のように、時系列特徴量ベクトルx(1)〜x(T)の集合は、T行D列の行列として表現される。このように時系列特徴量ベクトルx(1)〜x(T)をまとめた行列を時系列特徴量ベクトルxと表記する。このように、T次元の特徴量(本例では白血球数)をある1つの次元の特徴量にまとめることができ、計算効率が向上する。
学習パラメータ265は学習部261からの出力データであり、後述する学習パラメータ{RWs,W,w}を含む。学習パラメータ265が設定されたニューラルネットワーク300を予測モデルと称す。
なお、時系列データ分析装置220は複数台で構成されてもよい。たとえば、負荷分散のため、時系列データ分析装置220が複数存在してもよい。また、時系列データ分析装置220は、機能ごとに複数台で構成されてもよい。たとえば、時系列データ分析装置220は、学習部261およびサーバDB263を含む第1のサーバと、予測部262およびサーバDB263を含む第2のサーバとで構成されてもよい。また、時系列データ分析装置220は、学習部261および予測部262を含む第1の時系列データ分析装置と、サーバDB263を含む第2の時系列データ分析装置とで構成されてもよい。また、時系列データ分析装置220は、学習部261を含む第1のサーバと、予測部262を含む第2の時系列データ分析装置と、サーバDB263を含む第3の時系列データ分析装置とで構成されてもよい。
<ニューラルネットワークの構造例>
図3は、実施例1にかかるニューラルネットワーク300の構造例を示す説明図である。ニューラルネットワーク300は、学習部261および予測部262で用いられる。ニューラルネットワーク300は、時系列データ向けニューロン群302と、トランスフォームユニット群303と、リアロケーションユニット304と、ディシジョンユニット305と、インポータンスユニット306と、を有する。また、入力データとなる時系列特徴量ベクトルx(1)〜x(T)の集合を入力ユニット301として図示した。
時系列データ向けニューロン群302は、T個の時系列データ向けニューロン302(1)〜302(T)の集合である。学習部261による学習時においては、時系列データ向けニューロン302(t)は、訓練データ集合264の一部である時系列特徴量ベクトルx(t)の入力を受け付ける。そして、時系列データ向けニューロン302(t)は、下記式(1)に示すように、時系列特徴量ベクトルx(t)と内部状態パラメータc(t−1)とに基づいて、内部ベクトルh(t)および内部状態パラメータc(t)を算出する。
Figure 2020042645
右辺のRNN関数は、時系列特徴量ベクトルx(t)とともに、取得時刻(t−1)以前の時系列データ向けニューロン302(t−1)に入力された時系列特徴量ベクトルx(0)〜x(t−1)から集約された特徴量を再帰的に入力して、内部ベクトルh(t)および内部状態パラメータc(t)を算出する関数である。RNN関数は、重みとなる学習パラメータRWsを保持する。
学習パラメータRWsは、取得時刻t毎の時系列データ向けニューロン302(t)に存在する学習パラメータRWの集合である。学習時において、学習パラメータRWsの初期値はランダムに決定される。学習パラメータRWsは、学習時において、時系列特徴量ベクトルx(t)が時系列データ向けニューロン302(t)に入力される都度更新される。学習パラメータRWsは、後述する下記式(6)で最適化される。
内部ベクトルh(t)∈RD´(RD´はD´次元の実数。D´は1以上の整数。)は、時系列特徴量ベクトルx(t)で特定される情報に、取得時刻tよりも1取得時刻前の取得時刻(t−1)における内部状態パラメータc(t−1)∈RD´´(RD´´はD´´次元の実数。D´´は1以上の整数。)と内部状態パラメータを反映した情報である。ただし、内部状態パラメータc(0)は、ゼロや乱数で初期化された値である。内部ベクトルh(t)は、後段のトランスフォームユニット群303に出力される。
一方、内部状態パラメータc(t)は、次の取得時刻(t+1)の時系列データ向けニューロン302(t+1)に出力される。ただし、時系列データ向けニューロン302(T)は、内部状態パラメータc(T)を出力しない。内部状態パラメータc(t)は、取得時刻tよりも1取得時刻前の取得時刻(t−1)以前の時系列特徴量ベクトルx(1)〜x(t−1)までの特徴量(年齢、性別、週ごとの白血球数)の情報がRNN関数により集約されたパラメータ(ベクトル)である。内部状態パラメータc(t)は、暗号化されたキャッシュ情報のように人間には理解不能なベクトルである。
なお、時系列データ向けニューロン302(t)におけるRNN関数の演算は、LSTM(long short‐term memory)、GRU(Gated Recurrent Unit)、Transformer(非特許文献4)、CNN(convolutional neural Network)などの時系列データを扱うことのできるニューラルネットワークの演算を用いることができる。また、それらの時系列ニューラルネットワークを多層化して用いた構成をとることができる。また、時系列データ向けニューロン302(t)の種類(Core layer)と層数(Inner layer Number)、内部ベクトルの次元数D´は、ユーザ操作で自由に設定可能である(図5を参照。)。
また、予測部262による予測時においても、時系列データ向けニューロン302(t)は、学習時と同様に実行可能である。なお、以降において予測時に用いる各情報には時系列特徴量ベクトルx´(t)と同様に「´」を付す。予測時では、時系列データ向けニューロン302(1)〜302(T)はそれぞれ、テストデータ集合252である時系列特徴量ベクトルx´(1)〜x´(T)の入力を受け付ける。
そして、時系列データ向けニューロン302(t)は、時系列特徴量ベクトルx´(t)と、内部状態パラメータc´(t−1)と、学習時に得られた学習パラメータRWsとを、RNN関数に与えて、上記式(1)により、内部ベクトルh´(t)および内部状態パラメータc´(t)を算出する。内部ベクトルh´(t)は、後段のトランスフォームユニット群303に出力される。
トランスフォームユニット群303は、T個のトランスフォームユニット303(1)〜303(T)の集合である。学習部261による学習時においては、トランスフォームユニット303(t)は、下記式(2)により、内部ベクトルh(t)の入力を受け付けて、トランスフォームベクトルvα (t)を算出する。トランスフォームベクトルvα (t)は、後段のリアロケーションユニット304に出力される。
Figure 2020042645
上記式(2)では、アインシュタインの縮約記法を用いた。たとえば、Zα=Xα β・Yβにおいて、Xはα行β列の行列であり、Yはβ行の行列であり、Zはα行1列の行列(ベクトル)であることを示す。以降、演算を説明する際の式では、アインシュタインの縮約記法を用いる。また、α、βを省略する場合もある。
W∈RD×D´(RD×D´はD×D´次元の実数。)は学習パラメータであり、取得時刻t毎に存在する。学習時において、学習パラメータWの初期値はランダムに決定される。学習パラメータWは、学習時において、内部ベクトルh(t)がトランスフォームユニット303(t)に入力される都度更新される。トランスフォームベクトルv(t)は、取得時刻tの特徴量空間に存在する時系列特徴量ベクトルx(t)の位置を、その目的変数Yの値(0,1)を区別しやすい位置に変換するためのベクトルである。
また、予測部262による予測時においても、トランスフォームユニット303(t)は、学習時と同様に実行可能である。予測時では、トランスフォームユニット303(1)〜303(T)はそれぞれ、内部ベクトルh´(1)〜h´(T)の入力を受け付ける。そして、トランスフォームユニット303(t)は、内部ベクトルh´(t)と、後述する下記式(6)で最適化された学習パラメータWとを、上記式(2)に与えて、トランスフォームベクトルv´(t)を算出する。トランスフォームベクトルv´(t)は、後段のリアロケーションユニット304に出力される。
リアロケーションユニット304は、時系列特徴量ベクトル群をその特徴量空間において再配置する。リアロケーションユニット304の演算を説明するために、2つの時系列ベクトルu(t=1,…,T)とv(t=1,…,T)との間のアダマール積の計算方法を式(3)により定義する。
Figure 2020042645
学習部261による学習時においては、リアロケーションユニット304は、下記式(4)により、時系列特徴量ベクトルx(1)〜x(T)とトランスフォームベクトルv(1)〜v(T)との入力を受け付けて、リアロケーションベクトルRα∈Rを算出する。リアロケーションベクトルRαは、後段のディシジョンユニット305と、インポータンスユニット306と、に出力される。なお、右辺のrα (t)は、取得時刻tでのリアロケーションベクトルであり、トランスフォームベクトルv(t)と時系列特徴量ベクトルx(t)とのアダマール積である。リアロケーションベクトルRαは、リアロケーションベクトルrα (1)〜rα (T)の平均値である。
Figure 2020042645
また、予測部262による予測時においても、リアロケーションユニット304は、学習時と同様に実行可能である。予測時では、リアロケーションユニット304は、時系列特徴量ベクトルx´(1)〜x´(T)とトランスフォームベクトルv´(t)〜v´(t)との入力を受け付ける。そして、リアロケーションユニット304は、時系列特徴量ベクトルx´(1)〜x´(T)とトランスフォームベクトルv´(t)〜v´(t)とを、上記式(4)に与えて、リアロケーションベクトルR´α∈Rを算出する。リアロケーションベクトルR´αは、後段のディシジョンユニット305と、インポータンスユニット306と、に出力される。
ディシジョンユニット305は、学習部261による学習時においては、下記式(5)により、目的変数Y(n)に対応する予測値y(n)を算出する。
Figure 2020042645
上記式(5)において、σはシグモイド関数、w∈Rは学習パラメータ、予測値y(n)は、再入院確率値である。学習時において、学習パラメータwの初期値はランダムに決定される。学習パラメータwは、学習時において、リアロケーションベクトルRαがリアロケーションユニット304に入力される都度更新される。なお、複数クラスの識別タスクを解く場合には、シグモイド関数σの代わりにsoftmax関数が用いられる。
また、学習部261は、統計的勾配法を用いて、目的変数Y(n)と予測値y(n)を、下記式(6)に与え、そのクロスエントロピーが最小化するように、学習パラメータ265である{RWs,W,w}を計算する。これにより、{RWs,W,w}が最適化される。学習部261は、最適化された{RWs,W,w}をサーバDB263に格納する。最適化された{RWs,W,w}をニューラルネットワーク300に適用すると学習モデルとなる。
Figure 2020042645
インポータンスユニット306は、予測部262による予測時において、重要度ベクトルを算出する。インポータンスユニット306の演算を説明するために、ベクトルwと時系列ベクトルu(t=1,…,T)との間のアダマール積の計算方法を式(7)により定義する。
Figure 2020042645
インポータンスユニット306は、最適化された学習パラメータwとトランスフォームベクトルv´(t)の入力を受け付けて、上記式(7)を反映した下記式(8)により、時系列特徴量ベクトルx´の重要度ベクトルξα,(t)(x´)を算出する。重要度ベクトルξα,(t)(x´)の各要素が、ある取得時刻tにおいて、テストデータ集合252内のn番の患者データ(時系列特徴量ベクトルx´)における再入院予測に寄与した重要度を表す。予測部262は、重要度ベクトルξα,(t)(x´)を予測結果253としてクライアントDB251に保存する。予測部262は、下記式(8)により、取得時刻tごとにロジスティックリグレッションを実行する。
Figure 2020042645
上記式(8)において、トランスフォームベクトルv´(t)は、上記式(2)のように、最適化された学習パラメータWと内部ベクトルh´(t)との内積により算出される。内部ベクトルh´(t)は、上記式(1)のように、最適化された学習パラメータRWsが適用されたRNN関数に、時系列特徴量ベクトルx´(t)と1取得時刻前の内部状態パラメータc(t−1)とを与えることにより得られる。
すなわち、RNN関数は、時系列特徴量ベクトルx´(t)とともに、取得時刻(t−1)以前の時系列データ向けニューロン302(t−1)に入力された時系列特徴量ベクトルx´(0)〜x´(t−1)から集約された特徴量を再帰的に入力して、内部ベクトルh´(t)および内部状態パラメータc´(t)を算出する。
ディシジョンユニット305は、予測部262による予測時において、式(7)で求めた重要度ベクトルξα,(t)(x´)を用いて、下記式(9)により、時系列特徴量ベクトルx´についての未知の予測値y´(n)を算出する。
Figure 2020042645
上記式(9)には、最適化された学習パラメータwとトランスフォームベクトルv´(t)とのアダマール積により算出された重要度ベクトルξα,(t)(x´)が用いられている。したがって、ディシジョンユニット305は、上記式(9)に、テストデータである時系列特徴量ベクトルx´(1)〜x´(T)を与えることにより、最適化された学習パラメータ265{RWs,W,w}が反映されたニューラルネットワーク300により、時系列特徴量ベクトルx´(1)〜x´(T)についての未知の予測値y´(n)を算出する。
上記式(9)において、重要度ベクトルξα,(t)(x´(n))は、時系列特徴量ベクトルx´(t,n)を識別する局所平面103のパラメータに対応する。予測部262は、たとえば、予測値y´(n)を、重要度ベクトルξα,(t)(x´(n))と関連付けて、予測結果253としてクライアントDB251に保存する。
<学習および予測処理手順例>
図4は、時系列データ分析装置による学習および予測処理手順例を示すフローチャートである。ステップS401、S402が学習部261が実行する学習フェーズであり、ステップS403〜S407が予測部262が実行する予測フェーズである。まず、学習部261は、サーバDB263から訓練データ集合を読み込み(ステップS401)、学習パラメータ生成処理を実行する(ステップS402)。
学習パラメータ生成処理を実行する(ステップS402)では、学習部261は、上述したように、訓練データ集合264の一部である時系列特徴量ベクトルx(t、n)をニューラルネットワーク300に与えることで、上記式(1)で内部ベクトルh(t)および内部状態パラメータc(t)を計算する(ステップS421)。
つぎに、学習部261は、上記式(2)でトランスフォームベクトルvα (t)を計算する(ステップS422)。つぎに、学習部261は、上記式(4)でリアロケーションベクトルRαを計算する(ステップS423)。つぎに、学習部261は、上記式(5)で目的変数Y(n)に対応する予測値y(n)を計算する(ステップS424)。
そして、学習部261は、上記式(5)で算出された予測値y(n)と訓練データ集合264の一部である目的変数Y(n)とを上記式(6)に与えることで、学習パラメータ265である{RWs,W,w}を最適化する(ステップS425)。これにより、最適化された学習パラメータ{RWs,W,w}が生成される。そして、学習部261は、生成した学習パラメータ265をサーバDB263に保存する(ステップS426)。
つぎに、予測部262は、クライアントDB251からテストデータ集合252である時系列特徴量ベクトルx´(t、n)を読み込む(ステップS403)。つぎに、予測部262は、特徴量の重要度を算出する(ステップS404)。具体的には、たとえば、予測部262は、インポータンスユニット306により、最適化された学習パラメータwとトランスフォームベクトルv´(t)を上記式(8)に与えて、時系列特徴量ベクトルx´の重要度ベクトルξα,(t)(x´)を算出する。
つぎに、予測部262は、ディシジョンユニット305により、時系列特徴量ベクトルx´(t、n)と、式(7)で求めた重要度ベクトルξα,(t)(x´)とを、上記式(9)に与えて、未知の予測値y´(n)を算出する(ステップS406)。そして、予測部262は、算出した予測値y´(n)と重要度ベクトルξα,(t)(x´)との組み合わせを予測結果253として、クライアントDB251に保存する(ステップS406)。このあと、クライアント端末200は、予測結果253をモニタ225に表示する(ステップS407)。
なお、ステップS406では、時系列データ分析装置220は、予測結果253をサーバDB263に保存してもよい。また、ステップS407では、時系列データ分析装置220は、予測結果253をクライアント端末200に送信することで、クライアント端末200が、予測結果253をモニタ225に表示することとしてもよい。
<ニューラルネットワークの設定画面例>
図5は、ニューラルネットワークの設定画面例を示す説明図である。ニューラルネットワークの設定画面500は、モニタ205,225で表示可能である。設定画面500がモニタ205で表示される場合には、クライアント端末200でニューラルネットワークを設定可能であり、設定画面500がモニタ225で表示される場合には、時系列データ分析装置220でニューラルネットワークを設定可能である。
ユーザは、アトリビュートパネル501でニューラルネットワークの詳細な設定を編集する。アトリビュートパネル501の「Inner Layer Number」は、時系列データ向けニューロン群302の層数である。図示したニューラルネットワーク300では、時系列データ向けニューロン群302の層数は1層である。総数が増加すると、時系列データ向けニューロン群302が、入力ユニット301とトランスフォームユニット群303との間で、縦方向に時系列データ向けニューロン群302が追加される。
アトリビュートパネル501の「Core layer」は、時系列データ向けニューロン群302の種類である。図5では、「RNN」が設定されている。また、「Number of neurons」は、内部ベクトルの次元数D´である。
ユーザは、ファイル挿入ボタン502を押下することで、ファイル群のリストから分析対象ファイルを選択する。これにより、訓練データ集合264がサーバDB263に設定され、テストデータ集合252がクライアントDB251に設定される。ユーザは、演算開始ボタン503を押下することで、図4に示した学習処理および予測処理が実行される。アウトプットパネル504は、図4に示した予測処理の予測結果253を表示する。
<アウトプットパネル504の表示例>
図6は、アウトプットパネル504の表示例を示す説明図である。表示画面600は、アウトプットパネル504において、予測結果253を表示する。図6中、「Probability」の「57%」が予測値y´(n)である。x〜xは、テストデータ集合252である時系列特徴量ベクトルx´(t、n)を構成するD=9次元の特徴量である。特徴量x〜xのパーセンテージは、重要度ベクトルξα,(t)(x´)の値を正規化して百分率であらわした数値である。
<実験例>
ここで、患者の日々の生化学的な検査値情報から翌日の検査値の状態を予測する例を想定する。模擬データを用いて実施例1にかかる時系列データ分析装置220の動作確認を行うこととする。模擬データとは、患者データの数NはN=384サンプル、次元数Dは、D=1129次元、患者データの取得時刻(たとえば、入院日からの週数)tの最大値TをT=10とする時系列特徴量ベクトルである。
通常、検査値情報は高々100次元程度であるが、予測性能を確認するために約10倍の次元数とした。各次元の特徴量は互いに相関を持ち、1次元目の特徴量は他の特徴量の平均値である。また、取得時刻Tにおける1次元目の特徴量が、取得時刻t=0,…,T−1までの1次元目の特徴量の平均値より高ければ1、低ければ0として目的変数Yを生成した。
図7は、Transformer(非特許文献4)に基づく識別器と実施例1にかかる時系列データ分析装置220との実験結果を示す図表である。図表700において、実験は、AUC(Area under curve)の尺度で10−fold cross validationを用いて実施された。
Transformer(非特許文献4)は0.783±0.027、実施例1にかかる時系列データ分析装置220は、0.790±0.054となった。実施例1にかかる時系列データ分析装置220は従来法であるTransformer(非特許文献4)を上回る性能を達成した。
このように、実施例1によれば、患者の時系列データの場合でありながら、個々の患者において、すべての取得時刻における各特徴量の重要度を算出可能となる。したがって、実施例1にかかる時系列データ分析装置220は、説明の容易化を高精度かつ効率的に実現することができる。
実施例2では、回帰に分類される手法を扱うことが可能な時系列データ分析装置220について説明する。実施例2では、心不全で入院した患者の次の日の血圧を予測するとともに、血圧に寄与する因子を出力する例を説明する。実施例2に基づく時系列データ分析装置220が出力する因子により、医師は個々の患者に適した予後指導が可能となる。このことは、患者の迅速な回復に貢献するとともに、国の医療および保健費の削減につながる。なお、実施例2では実施例1との相違点に着目して説明するため、実施例1と同一内容については同一符号を付し、その説明を省略する場合がある。
訓練データ集合264は、時系列特徴量ベクトルx(t、n)と、目的変数Y(n)との組み合わせ{x(t、n),Y(n)}により構成される訓練データの集合である。nは、n={1,2,…,N}であり、たとえば、患者データを指定するためのインデックスである。実施例1ではN=30,000とする。tは、t={0,1,…,T−1}であり、たとえば、n番の患者データの取得時刻(たとえば、入院日からの週数)を表す。取得時刻の間隔は、1人の患者データで必ずしも一定間隔である必要はない。また、他の患者データと同一間隔である必要もない。
時系列特徴量ベクトルx(t、n)∈R(RはD次元の実数。Dは1以上の整数。)は、D次元の実数値ベクトルであり、年齢、性別、時刻tにおける投薬情報、時刻tにおける検査値などの情報を含んでいる。非特許文献3によれば、D=3,512次元の特徴量を構成して分析が実施されている。実施例2は、非特許文献3と同様の時系列特徴量ベクトルx(t、n)を入力にとることできる。
ただし、実施例2に対する理解の容易さを高めるため、以下のように、時系列特徴量ベクトルx(t、n)を{年齢、性別、週ごとの血圧[mmHg]}(D=3次元)として説明する。目的変数Y(T,n)はT週目の血圧である。なお、テストデータ集合252は、時系列特徴量ベクトルx(t、n)として用いられなかった他の時系列特徴量ベクトルであるテストデータの集合である。テストデータとなる他の時系列特徴量を、時系列特徴量ベクトルx´(t、n)と表記する。
実施例2にかかる時系列データ分析装置220は、学習フェーズおよび予測フェーズで実施例1と同様な計算を実行するが、実施例2では、ディシジョンユニット305は、上記式(5)に代わり、下記式(10)を計算して、予測値yを求める。予測値yは、患者の血圧である。
Figure 2020042645
また、実施例2において、学習部261は、統計的勾配法を用いて、目的変数Y(n)と予測値y(n)を、下記式(6)に代わり下記式(11)与え、そのクロスエントロピーが最小化するように、学習パラメータ265である{RWs,W,w}を計算する。これにより、{RWs,W,w}が最適化される。学習部261は、最適化された{RWs,W,w}をサーバDB263に格納する。
Figure 2020042645
[1]このように、上述した実施例1および実施例2にかかる時系列データ分析装置220は、サーバDB263にアクセス可能である。サーバDB263は、複数(D個)の特徴量を含む第1特徴量データ(時系列特徴量ベクトルx(t))が時系列(t=0〜T−1)に存在する第1特徴量データ群(x(1)〜x(T))と、第1特徴量データ群の各々の第1特徴量データに対応する目的変数(Y)と、を、それぞれ所定数(N)有する訓練データ集合264を記憶する。
時系列データ分析装置220は、第1特徴量データと、第1特徴量データの時刻以前の時刻の特徴量データの少なくとも一部である第1内部パラメータ(c(t−1))と、第1学習パラメータ(RW)と、に基づいて、第1特徴量データの時刻に基づく第1内部データ(h(t))を第1特徴量データごとに生成する第1生成処理(時系列データ向けニューロン群302、式(1)、ステップS421)を実行する。
時系列データ分析装置220は、第1生成処理によって第1特徴量データごとに生成された複数の第1内部データ(h(t))と、第2学習パラメータ(W)と、に基づいて、第1特徴量データの特徴量空間上での位置を変換する第1変換処理(トランスフォームユニット群303、式(2)、ステップS422)を実行する。
時系列データ分析装置220は、第1変換処理による第1内部データごとの時系列な第1変換結果(トランスフォームベクトルv(t))と、第1特徴量データ群(x(1)〜x(T))と、に基づいて、第1特徴量データの各々を、特徴量空間での変換先の位置に再配置する再配置処理(リアロケーションユニット304、式(4)、ステップS423)を実行する。
時系列データ分析装置220は、再配置処理による再配置結果(リアロケーションベクトルR)と、第3学習パラメータ(w)と、に基づいて、第1特徴量データ群に対応する第1予測値(y)を算出する第1算出処理(ディシジョンユニット305、(式(5)、ステップS424)を実行する。
時系列データ分析装置220は、目的変数(Y)と、第1算出処理によって算出された第1予測値(y)と、に基づいて、統計的勾配法により、第1学習パラメータ(RW)、第2学習パラメータ(W)、および第3学習パラメータ(w)を最適化する最適化処理(式(6)、ステップS425)を実行する。
時系列データ分析装置220は、複数(D個)の特徴量を含む第2特徴量データが時系列(t=0〜T−1)に存在する第2特徴量データ群(x´(1)〜x´(T))と、第2特徴量データの時刻以前の時刻の特徴量データの少なくとも一部である第2内部パラメータ(c´(t−1))と、最適化処理によって最適化された第1学習パラメータ(RW)と、に基づいて、第2特徴量データの時刻に基づく第2内部データ(h´(t))を第2特徴量データごとに生成する第2生成処理(時系列データ向けニューロン群302、式(1)、ステップS404)を実行する。
時系列データ分析装置220は、第2生成処理によって第2特徴量データごとに生成された複数の第2内部データ(h´(t))と、最適化処理によって最適化された第2学習パラメータ(W)と、に基づいて、第2特徴量データの特徴量空間上での位置を変換する第2変換処理(303、式(2)、ステップS404)を実行する。
時系列データ分析装置220は、第2変換処理による第2内部データごとの時系列な第2変換結果(トランスフォームベクトルv´(t))と、最適化処理によって最適化された第3学習パラメータ(w)と、に基づいて、第2特徴量データの各々についての重要度を示す重要度データ(ξ)を算出する重要度算出処理(306、式(8)、ステップS404)を実行する。
これにより、第2特徴量データごとの重要度を特定することができる。したがって、どの特徴量がどの時点でどの程度重要であるという説明が可能となる。このように、説明の容易化を実現することができる。また、特徴量空間において識別可能な境界面100が複雑な高次元曲面であったとしても、局所的には平面103であるとみなすことにより、説明の容易化を高精度かつ効率的に実現することができる。
[2]上記[1]の時系列データ分析装置220は、リカレントニューラルネットワークを用いて、第1生成処理および第2生成処理を実行してもよい。
これにより、リカレントニューラルネットワークは、一般に人の能力では理解することができない高次元の複雑な境界面100を計算することができ、説明の容易化を高精度かつ効率的に実現することができる。
[3]上記[1]の時系列データ分析装置220は、畳み込みニューラルネットワークを用いて、第1生成処理および第2生成処理を実行してもよい。
これにより、既存のニューラルネットワークを活用して第2特徴量データごとの重要度を特定することができる。したがって、時系列データ分析装置220の構築が容易となる。
[4]上記[1]の時系列データ分析装置220は、第1特徴量データ群の識別演算として、第1算出処理を実行してもよい。
これにより、テストデータの時系列を考慮してテストデータを分類することができる。たとえば、テストデータで特定される患者が再入院するか否か、または、再入院するとすればいつなのかといった予測精度が向上し、医師は個々の患者に適した予後指導が可能となる。
[5]上記[1]の時系列データ分析装置220は、第1特徴量データ群の回帰演算として、第1算出処理を実行してもよい。
これにより、テストデータの経時的な変化を予測することができる。たとえば、テストデータで特定される患者の血圧が将来どの時点でどの程度の値となるかといった予測精度が向上し、医師は個々の患者に適した予後指導が可能となる。
[6]上記[1]の時系列データ分析装置220は、重要度算出処理によって算出された重要度データ(ξ)と、第2特徴量データ群と、に基づいて、第2特徴量データ群に対応する第2予測値(y´)を算出する第2算出処理(305、(式(9))を実行してもよい。
これにより、第2特徴量データ群の各第2特徴量データに寄与した重要度がどのくらいであるかを相対的に特定することができる。したがって、時系列データ分析装置220は、どの第2特徴量データが原因でそのような予測結果(第2予測値)がいつごろ発生するかを予測することができる。たとえば、白血球数の重要度が他の第2特徴量データよりも高い時点で再入院との予測結果が初めて出現した場合、再入院に寄与した特徴量が白血球数であることがわかる。したがって、医師は、当該時点までに白血球数が低下するような予後指導や処理を事前に施すことが可能となる。また、重要度データを用いることで、第2算出処理の演算効率の向上を図ることができる。
[7]上記[6]の時系列データ分析装置220は、第2特徴量データと重要度データとを関連付けて出力する出力処理を実行してもよい。これにより、医師は、どの第2特徴量データが第2予測値に影響を与えているかを確認することができる。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。たとえば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加、削除、または置換をしてもよい。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、たとえば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
RWs,W,w,265 学習パラメータ
2 時系列データ分析システム
100 境界面
200 クライアント端末
220 時系列データ分析装置
251 クライアントDB
252 テストデータ集合
253 予測結果
261 学習部
262 予測部
263 サーバDB
264 訓練データ集合
300 ニューラルネットワーク
301 入力ユニット
302 時系列データ向けニューロン群
303 トランスフォームユニット群
304 リアロケーションユニット
305 ディシジョンユニット
306 インポータンスユニット

Claims (9)

  1. プログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、を有し、データベースにアクセス可能な時系列データ分析装置であって、
    前記データベースは、複数の特徴量を含む第1特徴量データが時系列に存在する第1特徴量データ群と、第1特徴量データ群の各々の第1特徴量データに対応する目的変数と、を、それぞれ所定数有する訓練データ集合を記憶しており、
    前記プロセッサは、
    前記第1特徴量データ群と、前記第1特徴量データの時刻以前の時刻の他の第1特徴量データの少なくとも一部である第1内部パラメータと、第1学習パラメータと、に基づいて、前記第1特徴量データの時刻に基づく第1内部データを前記第1特徴量データごとに生成する第1生成処理と、
    前記第1生成処理によって前記第1特徴量データごとに生成された複数の第1内部データと、第2学習パラメータと、に基づいて、前記第1特徴量データの特徴量空間上での位置を変換する第1変換処理と、
    前記第1変換処理による前記第1内部データごとの時系列な第1変換結果と、前記第1特徴量データ群と、に基づいて、前記第1特徴量データの各々を、前記特徴量空間での変換先の位置に再配置する再配置処理と、
    前記再配置処理による再配置結果と、第3学習パラメータと、に基づいて、前記第1特徴量データ群に対応する第1予測値を算出する第1算出処理と、
    前記目的変数と、前記第1算出処理によって算出された前記第1予測値と、に基づいて、統計的勾配法により、前記第1学習パラメータ、前記第2学習パラメータ、および前記第3学習パラメータを最適化する最適化処理と、
    複数の特徴量を含む第2特徴量データが時系列に存在する第2特徴量データ群と、前記第2特徴量データの時刻以前の時刻の特徴量データの少なくとも一部である第2内部パラメータと、前記最適化処理によって最適化された第1学習パラメータと、に基づいて、前記第2特徴量データの時刻に基づく第2内部データを前記第2特徴量データごとに生成する第2生成処理と、
    前記第2生成処理によって前記第2特徴量データごとに生成された複数の第2内部データと、前記最適化処理によって最適化された第2学習パラメータと、に基づいて、前記第2特徴量データの前記特徴量空間上での位置を変換する第2変換処理と、
    前記第2変換処理による前記第2内部データごとの時系列な第2変換結果と、前記最適化処理によって最適化された第3学習パラメータと、に基づいて、前記第2特徴量データの各々についての重要度を示す重要度データを算出する重要度算出処理と、
    を実行することを特徴とする時系列データ分析装置。
  2. 請求項1に記載の時系列データ分析装置であって、
    前記プロセッサは、リカレントニューラルネットワークを用いて、前記第1生成処理および前記第2生成処理を実行することを特徴とする時系列データ分析装置。
  3. 請求項1に記載の時系列データ分析装置であって、
    前記プロセッサは、
    畳み込みニューラルネットワークを用いて、前記第1生成処理および前記第2生成処理を実行することを特徴とする時系列データ分析装置。
  4. 請求項1に記載の時系列データ分析装置であって、
    前記プロセッサは、
    前記第1特徴量データ群の識別演算として、前記第1算出処理を実行することを特徴とする時系列データ分析装置。
  5. 請求項1に記載の時系列データ分析装置であって、
    前記プロセッサは、
    前記第1特徴量データ群の回帰演算として、前記第1算出処理を実行することを特徴とする時系列データ分析装置。
  6. 請求項1に記載の時系列データ分析装置であって、
    前記プロセッサは、
    前記重要度算出処理によって算出された重要度データと、前記第2特徴量データ群と、に基づいて、前記第2特徴量データ群に対応する第2予測値を算出する第2算出処理を実行することを特徴とする時系列データ分析装置。
  7. 請求項6に記載の時系列データ分析装置であって、
    前記プロセッサは、
    前記第2特徴量データと前記重要度データとを関連付けて出力する出力処理を実行することを特徴とする時系列データ分析装置。
  8. プログラムを実行するプロセッサと、前記プログラムを記憶する記憶デバイスと、を有し、データベースにアクセス可能な時系列データ分析装置による時系列データ分析方法であって、
    前記データベースは、複数の特徴量を含む第1特徴量データが時系列に存在する第1特徴量データ群と、第1特徴量データ群の各々の第1特徴量データに対応する目的変数と、を、それぞれ所定数有する訓練データ集合を記憶しており、
    前記プロセッサは、
    前記第1特徴量データと、前記第1特徴量データの時刻以前の時刻の他の第1特徴量データの少なくとも一部である第1内部パラメータと、第1学習パラメータと、に基づいて、前記第1特徴量データの時刻に基づく第1内部データを前記第1特徴量データごとに生成する第1生成処理と、
    前記第1生成処理によって前記第1特徴量データごとに生成された複数の第1内部データと、第2学習パラメータと、に基づいて、前記第1特徴量データの特徴量空間上での位置を変換する第1変換処理と、
    前記第1変換処理による前記第1内部データごとの時系列な第1変換結果と、前記第1特徴量データ群と、に基づいて、前記第1特徴量データの各々を、前記特徴量空間での変換先の位置に再配置する再配置処理と、
    前記再配置処理による再配置結果と、第3学習パラメータと、に基づいて、前記第1特徴量データ群に対応する第1予測値を算出する第1算出処理と、
    前記目的変数と、前記第1算出処理によって算出された前記第1予測値と、に基づいて、統計的勾配法により、前記第1学習パラメータ、前記第2学習パラメータ、および前記第3学習パラメータを最適化する最適化処理と、
    複数の特徴量を含む第2特徴量データが時系列に存在する第2特徴量データ群と、前記第2特徴量データの時刻以前の時刻の特徴量データの少なくとも一部である第2内部パラメータと、前記最適化処理によって最適化された第1学習パラメータと、に基づいて、前記第2特徴量データの時刻に基づく第2内部データを前記第2特徴量データごとに生成する第2生成処理と、
    前記第2生成処理によって前記第2特徴量データごとに生成された複数の第2内部データと、前記最適化処理によって最適化された第2学習パラメータと、に基づいて、前記第2特徴量データの前記特徴量空間上での位置を変換する第2変換処理と、
    前記第2変換処理による前記第2内部データごとの時系列な第2変換結果と、前記最適化処理によって最適化された第3学習パラメータと、に基づいて、前記第2特徴量データの各々についての重要度を示す重要度データを算出する重要度算出処理と、
    を実行することを特徴とする時系列データ分析方法。
  9. データベースにアクセス可能なプロセッサに実行させる時系列データ分析プログラムであって、
    前記データベースは、複数の特徴量を含む第1特徴量データが時系列に存在する第1特徴量データ群と、第1特徴量データ群の各々の第1特徴量データに対応する目的変数と、を、それぞれ所定数有する訓練データ集合を記憶しており、
    前記プロセッサに、
    前記第1特徴量データと、前記第1特徴量データの時刻以前の時刻の他の第1特徴量データの少なくとも一部である第1内部パラメータと、第1学習パラメータと、に基づいて、前記第1特徴量データの時刻に基づく第1内部データを前記第1特徴量データごとに生成する第1生成処理と、
    前記第1生成処理によって前記第1特徴量データごとに生成された複数の第1内部データと、第2学習パラメータと、に基づいて、前記第1特徴量データの特徴量空間上での位置を変換する第1変換処理と、
    前記第1変換処理による前記第1内部データごとの時系列な第1変換結果と、前記第1特徴量データ群と、に基づいて、前記第1特徴量データの各々を、前記特徴量空間での変換先の位置に再配置する再配置処理と、
    前記再配置処理による再配置結果と、第3学習パラメータと、に基づいて、前記第1特徴量データ群に対応する第1予測値を算出する第1算出処理と、
    前記目的変数と、前記第1算出処理によって算出された前記第1予測値と、に基づいて、統計的勾配法により、前記第1学習パラメータ、前記第2学習パラメータ、および前記第3学習パラメータを最適化する最適化処理と、
    複数の特徴量を含む第2特徴量データが時系列に存在する第2特徴量データ群と、前記第2特徴量データの時刻以前の時刻の特徴量データの少なくとも一部である第2内部パラメータと、前記最適化処理によって最適化された第1学習パラメータと、に基づいて、前記第2特徴量データの時刻に基づく第2内部データを前記第2特徴量データごとに生成する第2生成処理と、
    前記第2生成処理によって前記第2特徴量データごとに生成された複数の第2内部データと、前記最適化処理によって最適化された第2学習パラメータと、に基づいて、前記第2特徴量データの前記特徴量空間上での位置を変換する第2変換処理と、
    前記第2変換処理による前記第2内部データごとの時系列な第2変換結果と、前記最適化処理によって最適化された第3学習パラメータと、に基づいて、前記第2特徴量データの各々についての重要度を示す重要度データを算出する重要度算出処理と、
    を実行させることを特徴とする時系列データ分析プログラム。
JP2018170769A 2018-09-12 2018-09-12 時系列データ分析装置、時系列データ分析方法、および時系列データ分析プログラム Active JP7059151B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018170769A JP7059151B2 (ja) 2018-09-12 2018-09-12 時系列データ分析装置、時系列データ分析方法、および時系列データ分析プログラム
US16/555,644 US20200082286A1 (en) 2018-09-12 2019-08-29 Time series data analysis apparatus, time series data analysis method and time series data analysis program
EP19194591.4A EP3624017A1 (en) 2018-09-12 2019-08-30 Time series data analysis apparatus, time series data analysis method and time series data analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018170769A JP7059151B2 (ja) 2018-09-12 2018-09-12 時系列データ分析装置、時系列データ分析方法、および時系列データ分析プログラム

Publications (2)

Publication Number Publication Date
JP2020042645A true JP2020042645A (ja) 2020-03-19
JP7059151B2 JP7059151B2 (ja) 2022-04-25

Family

ID=67810457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018170769A Active JP7059151B2 (ja) 2018-09-12 2018-09-12 時系列データ分析装置、時系列データ分析方法、および時系列データ分析プログラム

Country Status (3)

Country Link
US (1) US20200082286A1 (ja)
EP (1) EP3624017A1 (ja)
JP (1) JP7059151B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020071517A (ja) * 2018-10-29 2020-05-07 株式会社日立製作所 分析装置、分析方法、および分析プログラム
JP2020149601A (ja) * 2019-03-15 2020-09-17 エヌ・ティ・ティ・コミュニケーションズ株式会社 データ処理装置、データ処理方法及びデータ処理プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115828758B (zh) * 2022-12-13 2023-08-25 广东海洋大学 基于改进烟花算法优化网络的海水三维预测方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027880A (ja) * 2010-07-28 2012-02-09 Hitachi Ltd 情報分析方法、計算機システム及び情報分析プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6347274B2 (ja) 2011-03-31 2018-06-27 株式会社リコー 伝送システム及びプログラム
US20170032241A1 (en) * 2015-07-27 2017-02-02 Google Inc. Analyzing health events using recurrent neural networks
US11144825B2 (en) * 2016-12-01 2021-10-12 University Of Southern California Interpretable deep learning framework for mining and predictive modeling of health care data
WO2018204371A1 (en) * 2017-05-02 2018-11-08 Kodak Alaris Inc. System and method for batch-normalized recurrent highway networks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027880A (ja) * 2010-07-28 2012-02-09 Hitachi Ltd 情報分析方法、計算機システム及び情報分析プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大北 剛 TSUYOSHI OKITA: "シークエンス推定における説明変数の重要度の計算 Computation of Importance of Random Variables for Se", 情報処理学会 研究報告 自然言語処理(NL) 2017−NL−232 [ONLINE], JPN6021047488, 12 July 2017 (2017-07-12), JP, pages 1 - 5, ISSN: 0004649228 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020071517A (ja) * 2018-10-29 2020-05-07 株式会社日立製作所 分析装置、分析方法、および分析プログラム
JP7059162B2 (ja) 2018-10-29 2022-04-25 株式会社日立製作所 分析装置、分析方法、および分析プログラム
JP2020149601A (ja) * 2019-03-15 2020-09-17 エヌ・ティ・ティ・コミュニケーションズ株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
JP7267044B2 (ja) 2019-03-15 2023-05-01 エヌ・ティ・ティ・コミュニケーションズ株式会社 データ処理装置、データ処理方法及びデータ処理プログラム

Also Published As

Publication number Publication date
EP3624017A1 (en) 2020-03-18
JP7059151B2 (ja) 2022-04-25
US20200082286A1 (en) 2020-03-12

Similar Documents

Publication Publication Date Title
US11527325B2 (en) Analysis apparatus and analysis method
JP6912998B2 (ja) データ分析装置、データ分析方法、およびデータ分析プログラム
WO2012145616A2 (en) Predictive modeling
US11429899B2 (en) Data model processing in machine learning using a reduced set of features
JP7059151B2 (ja) 時系列データ分析装置、時系列データ分析方法、および時系列データ分析プログラム
Hilbert et al. Using decision trees to manage hospital readmission risk for acute myocardial infarction, heart failure, and pneumonia
JP2020126510A (ja) 計算機システム及び情報の提示方法
JP7059162B2 (ja) 分析装置、分析方法、および分析プログラム
Chou et al. Expert-augmented automated machine learning optimizes hemodynamic predictors of spinal cord injury outcome
Kasthurirathne et al. Public health analytics and big data
Olivato et al. Machine learning models for predicting short-long length of stay of COVID-19 patients
KR20200061968A (ko) 시계열 데이터 처리 장치 및 이의 동작 방법
Ebada et al. Applying cloud based machine learning on biosensors streaming data for health status prediction
US11742081B2 (en) Data model processing in machine learning employing feature selection using sub-population analysis
US20130218593A1 (en) Usage of assigned treatment in clinical decision support systems
US11587647B2 (en) Processing profiles using machine learning to evaluate candidates
Zhang et al. Patient Recruitment Using Electronic Health Records Under Selection Bias: a Two-phase Sampling Framework
Mehrdad et al. Deep learning for deterioration prediction of COVID-19 patients based on time-series of three vital signs
Dhamala et al. Multivariate time-series similarity assessment via unsupervised representation learning and stratified locality sensitive hashing: Application to early acute hypotensive episode detection
Zisser et al. Transformer-based time-to-event prediction for chronic kidney disease deterioration
Rahman et al. Generalization in Healthcare AI: Evaluation of a Clinical Large Language Model
Covioli et al. Workflow Characterization of a Big Data System Model for Healthcare Through Multiformalism
Bertolini et al. Predicting Cancer Patients’ Survival Using Random Forests
Schmude Feature selection in multiple linear regression problems with fewer samples than features
US20220359082A1 (en) Health state prediction system including ensemble prediction model and operation method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220413

R150 Certificate of patent or registration of utility model

Ref document number: 7059151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150