JP6912998B2 - データ分析装置、データ分析方法、およびデータ分析プログラム - Google Patents

データ分析装置、データ分析方法、およびデータ分析プログラム Download PDF

Info

Publication number
JP6912998B2
JP6912998B2 JP2017206069A JP2017206069A JP6912998B2 JP 6912998 B2 JP6912998 B2 JP 6912998B2 JP 2017206069 A JP2017206069 A JP 2017206069A JP 2017206069 A JP2017206069 A JP 2017206069A JP 6912998 B2 JP6912998 B2 JP 6912998B2
Authority
JP
Japan
Prior art keywords
data
unit
output
layer
learning parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017206069A
Other languages
English (en)
Other versions
JP2019079305A (ja
Inventor
琢磨 柴原
琢磨 柴原
鈴木 麻由美
麻由美 鈴木
健 直野
健 直野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017206069A priority Critical patent/JP6912998B2/ja
Priority to US16/117,260 priority patent/US11526722B2/en
Publication of JP2019079305A publication Critical patent/JP2019079305A/ja
Application granted granted Critical
Publication of JP6912998B2 publication Critical patent/JP6912998B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、データを分析するデータ分析装置、データ分析方法、およびデータ分析プログラムに関する。
入力データから出力データを予測する手法として、パーセプトロンと呼ばれる手法がある。パーセプトロンは、入力となる特徴量ベクトルと、重みベクトルの線形結合の演算結果により予測値を出力する。ニューラルネットワークは、別名、マルチパーセプトロンとも呼ばれ、複数のパーセプトロンを多層的に重ねることで、線形分離不可能問題を解く能力をもたせた技術であり、1980年代に登場した。2012年頃から、ドロップアウト等の新しい技術を導入したニューラルネットワークはdeep learningと呼ばれている。
機械学習分野では、特徴量ベクトルから得られた予測値と実際の値(真値)の誤差が最小となるように、学習パラメータ(パーセプトロンにおける重みベクトル等)を計算することを学習と呼ぶ。学習のプロセスが完了すると、学習に用いなかったデータ(以降、テストデータと呼ぶ)から新しい予測値を計算することができる。パーセプトロンでは、重みベクトルの各要素値の大きさが、予測に寄与した因子の重要度として用いられている。
一方、deep learningを含むニューラルネットワークにおいては、特徴量ベクトルの各要素はパーセプトロンを通過するたびに、他の要素と重み付き積和演算が実施されることから、各要素単体での重要度を知ることは原理的に困難である。
下記非特許文献1の手法は、特徴量の重要度を算出する機能を持たないdeep learningなどの機械学習手法の識別結果を説明できるように、新たに線形回帰を学習させる手法である。また、ロジスティック回帰はパーセプトロンと等価な機械学習モデルであり、あらゆる分野で最も広く用いられている。たとえば、下記非特許文献2の119ページに示されるロジスティック回帰は、データサンプル全体について特徴量の重要度を算出する機能を持つ。
Ribeiro, Marco Tulio, Sameer Singh, and Carlos Guestrin. "Why should I trust you ?: Explaining the predictions of any classifier." Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM, 2016. Friedman J, Trevor H, Robert T. The elements of statistical learning. second edition. New York: Springer series in statistics, 2001.
非特許文献1の手法は、線形回帰で後付け的に説明を試みているにすぎず、deep learningが予測する際に利用している特徴量の重要度を完全に算出できる数学的な保証はない。また、完全に線形回帰がdeep learningと同一の予測精度を達成できるならば、もはや、最初のdeep learning自体が必要ではなくなり、手法の構成概念には矛盾がある。また、ロジスティック回帰は、データサンプル個々についての特徴量の重要度を算出する機能を持たない。
本発明は、上記に鑑みてなされたものであって、分析対象についての説明の容易化を高精度かつ効率的に実現することを目的とする。
本願において開示される発明の一側面となるデータ分析装置は、入力層と、出力層と、前記入力層と前記出力層との間において前段の層からのデータと第1学習パラメータとを第1活性化関数に与えて計算して後段の層に計算結果を出力する2層以上の中間層と、により構成される第1ニューラルネットワークを用いたデータ分析装置であって、前記各中間層からの出力データと第2学習パラメータとに基づいて、前記各出力データを同一サイズの次元数に変換させて、変換後の各出力データを出力する変換部と、前記変換部からの変換後の出力データと、前記入力層に与えられた第1特徴量空間の第1入力データと、に基づいて、前記第1特徴量空間の第1入力データを第2特徴量空間に再配置する再配置部と、前記変換後の各出力データと第3学習パラメータとに基づいて、前記各中間層における前記第1入力データの第1重要度を算出する重要度算出部と、前記再配置部による再配置結果と前記第3学習パラメータとに基づいて、前記第1特徴量空間の第1入力データに対する予測データを算出する予測データ算出部と、を有する特徴とする。
本発明の代表的な実施の形態によれば、分析対象についての説明の容易化を高精度かつ効率的に実現することができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
図1は、特徴量ベクトルの再配置例を示す説明図である。 図2は、データ分析システムのシステム構成例を示すブロック図である。 図3は、実施例1にかかる第1ニューラルネットワークの構造例を示す説明図である。 図4は、データ分析装置の機能的構成例を示すブロック図である。 図5は、実施例1にかかるデータ分析装置によるデータ分析処理手順例を示すフローチャートである。 図6は、実施例2にかかる第2ニューラルネットワークの構造例を示す説明図である。 図7は、実施例2にかかるデータ分析装置によるデータ分析処理手順例を示すフローチャートである。 図8は、特徴量ベクトルFeaturesと正解データTargetとを示す説明図である。 図9は、実験結果を示す説明図である。
<特徴量ベクトルの再配置例>
AI(Artificial Intelligence)は、線形分離不可能問題を解く能力を持つが、AIが、どうしてそのような判断をしたかが不明である。特に、deep learningなどの機械学習手法は、予測精度は高いが説明能力が低い。たとえば、ある患者に対して「風邪をひきやすい」という診断結果をAIが出力した場合、医師は、AIがなぜそのような結果を得たかを答えることができない。もし、AIがその原因まで判断できれば、医師は、患者に対して適切な治療をおこなうことがきる。
図1は、特徴量ベクトルの再配置例を示す説明図である。(A)特徴量空間SP1には、複数の特徴量ベクトルx(n=1,2,…,N。Nは画像の枚数)が存在する。複数の特徴量ベクトルxは、たとえば、非線形の予測モデルPM1により正解ラベルLa,Lbに識別される。(B)特徴量空間SP2には、複数の特徴量ベクトルxが存在する。複数の特徴量ベクトルxは、たとえば、線形の予測モデルPM2により正解ラベルLa,Lbに識別される。
(A)deep learningなどの機械学習手法は、識別結果である予測モデルPM1を説明するため、新たに線形回帰を学習する。具体的には、たとえば、この機械学習手法は、予測モデルPM1を求めた後に局所的に直線近似するという後付け的な処理を実行する。しかしながら、このような後付け的な処理では、直線近似された予測モデルPM1の局所部分が、特徴量ベクトルxを正しく説明できるかが不明である。また、何より、直線近似というロジスティック回帰を実行するため、都合2回の機械学習を実行する必要がある。
(B)の予測モデルPM2は線形であるため、その傾きを参照すれば、特徴量ベクトルxが特徴量空間SP2内のどのパラメータで重みづけされているがわかり、特徴量ベクトルxを正しく説明することができる。実施例1では、複数の特徴量ベクトルxについて、(A)のように非線形な予測モデルPM1を求めることなく、特徴量空間SP1の複数の特徴量ベクトルxを、他の特徴量空間SP2に再配置する。これにより、線形な予測モデルPM2が得られるため、特徴量ベクトルxが特徴量空間SP2内のどのパラメータで重みづけされているがわかり、その重要度に応じて特徴量ベクトルxを正しく説明することができる。
すなわち、ユーザは特徴量ベクトルxのあるサンプルごとに(例えば、患者ごとに)、特徴量xに内包されるどの因子(特徴)が予測結果に寄与しているかが分かるため、どうしてそのような予測結果になったのかという説明がしやすくなる。したがって、機械学習における説明能力の向上を図ることができる。上記の例でいえば、ある患者に対して「風邪をひきやすい」という診断結果をAIがなぜ出力したか(たとえば、痩せているなど)、が分かることになる。また、(A)のように機械学習を2回も実行する必要がないため、機械学習の効率化も図ることができる。したがって、上記のような説明を迅速に提供することができる。
<システム構成例>
図2は、データ分析システムのシステム構成例を示すブロック図である。図2では、サーバ−クライアント型のデータ分析システム2を例に挙げて説明するが、スタンドアロン型でもよい。(A)は、データ分析システム2のハードウェア構成例を示すブロック図であり、(B)は、データ分析システム2の機能的構成例を示すブロック図である。(A)および(B)において同一構成には同一符号を付す。
データ分析システム2は、クライアント端末200とサーバであるデータ分析装置220とがネットワーク210で通信可能に接続される構成である。
(A)において、クライアント端末200は、補助記憶装置であるHDD(hard disk drive)201、主記憶装置であるメモリ202、プロセッサ203、キーボードやマウスである入力装置204、モニタ205を有する。データ分析装置220は、補助記憶装置であるHDD221、主記憶装置であるメモリ222、プロセッサ223、キーボードやマウスである入力装置224、モニタ225を有する。なお、主記憶装置、補助記憶装置、および、図示しない可搬型の記憶媒体を総称して、記憶デバイスと称す。記憶デバイスは、第1ニューラルネットワーク300およびこれらの学習パラメータを記憶する。
(B)において、クライアント端末200は、クライアントデータベース(DB)251を有する。クライアントDB251は、HDD201やメモリ202などの記憶デバイスに格納される。クライアントDB251には、テストデータ集合252と、予測結果253と、が格納される。テストデータ集合252は、テストデータの集合である。予測結果253は、予測部262からネットワーク210経由で得られたデータである。なお、サーバ−クライアント型の場合、クライアント端末200は1台以上存在する。
データ分析装置220は、学習部261と、予測部262と、サーバデータベース(DB)263と、を有する。学習部261は、図1および図2に示した処理を実行し、学習パラメータ265を出力する機能部である。
予測部262は、学習パラメータ265を用いて、第1ニューラルネットワーク300を構築し、第1ニューラルネットワーク300にテストデータが与えられることで、予測処理を実行し、予測結果253をクライアント端末200に出力する機能部である。学習部261および予測部262は、HDD221、メモリ222などの記憶デバイスに記憶されたプログラムをプロセッサ223に実行させることによりその機能を実現する。
サーバDB263は、訓練データ集合264と、学習パラメータ265と、を格納する。訓練データ集合264は、特徴量ベクトルの一例である画像xと、正解ラベルtと、を含む。学習パラメータ265は、学習部261からの出力データであり、後述する行列W ,行列W ,行列W ,行列W、重みベクトルwを含む。なお、学習パラメータが設定されたニューラルネットワークを予測モデルと称す。
なお、データ分析装置220は複数台で構成されてもよい。たとえば、負荷分散のため、データ分析装置220が複数存在してもよい。また、データ分析装置220は、機能ごとに複数台で構成されてもよい。たとえば、学習部261およびサーバDB263を含む第1のサーバと、予測部262およびサーバDB263を含む第2のサーバとで構成されてもよい。また、また、学習部261および予測部262を含む第1のデータ分析装置と、サーバDB263を含む第2のデータ分析装置とで構成されてもよい。また、学習部261を含む第1のサーバと、予測部262を含む第2のデータ分析装置と、サーバDB263を含む第3のデータ分析装置とで構成されてもよい。
<ニューラルネットワークの構造例>
図3は、実施例1にかかる第1ニューラルネットワークの構造例を示す説明図である。第1ニューラルネットワーク300は、データユニット群DUと、レポーティングユニット群RUと、ハーモナイジングユニット群HUと、リアロケーションユニットRAUと、ユニファイユニットUUと、デシジョンユニットDCUと、インポータンスユニットIUと、を有する。
データユニット群DUは、複数のデータユニットDUl(lは、階層番号であり、1≦l≦L。Lは最下層の階層番号であり、図1では、L=4)を直列に接続した構成である。最上段であるl=1のデータユニットDU1は、第1ニューラルネットワーク300の入力層301であり、l≦2のデータユニットDUlは、第1ニューラルネットワーク300の中間層(隠れ層ともいう)に相当する。データユニットDUlは、前段のデータユニットDU(l−1)からの出力データを入力して、自データユニットDUlの学習パラメータを用いて計算して出力データを出力するパーセプトロンである。
ただし、データユニットDU1は、学習部261による学習時に訓練データを保持する。ここで、訓練データは、たとえば、特徴量ベクトルxの一例である画像xとその真値となる正解ラベルtとの組み合わせ{x,t}により構成されるサンプルデータである(n=1,2,…,N。Nは画像の枚数)。画像xは、2次元のマトリックス構造を持つデータであり、以降、ラスタ走査したd(d≧1を満たす整数)次元のベクトルとして取り扱う。説明の容易さのために、「x」と表記した場合は、行列形式の画像xをラスタ走査した1次元ベクトルとする。
正解ラベルtは、画像xの種類数Kに対して、onehot表現で種類(たとえば、犬や猫などの動物)を示すK次元のベクトルである。onehot表現では、ベクトルのある要素が画像xの種類に対応しており、ただ1つの要素だけに1.0が格納され、他の要素は全て0.0である。1.0の要素に対応する種類(たとえば、犬)が正解となる種類である。なお、X線、CT、MRI、超音波等の医療用画像xを入力とした場合、ラベルtは、疾病の種類や患者の予後(良いor悪い)を表す真値である。
画像x∈R(Rはd次元の実数)を、d次元の実数Rからなる特徴量ベクトルとする。データユニットDU(l+1)を示す関数hl+1 は、下記式(1)で表現される。
Figure 0006912998
式(1)中、添え字l(1≦l≦Lを満たす整数。)は、階層番号を示す(以下の式も同様)。Lは1以上の整数であり、最深の階層番号を示す。右辺のf は活性化関数である。活性化関数は、たとえば、シグモイド関数、双曲線正接関数(tanh関数)、ReLU(Rectified Linear Unit)関数など、様々な活性化関数を用いてよい。行列W は、データユニットDUlの学習パラメータである。右辺のベクトルh は、データユニットDUlに入力される入力ベクトル、すなわち、前段のデータユニットDUlからの出力ベクトルである。なお、層数l=1である場合のデータユニットDU1からの出力ベクトルh は、h =xとなる。
なお、データユニットDU1は、予測部262におる予測時にテストデータとして、特徴量ベクトルである画像xを保持する。
レポーティングユニットRUl(2≦l≦L)は、同一階層のデータユニットDUlからの出力ベクトルh を入力し、当該出力ベクトルh の次元数を縮約させる。レポーティングユニットRUlを示す関数h は、下記式(2)で表現される。
Figure 0006912998
式(2)中、行列W は、レポーティングユニットRUlの学習パラメータである。 式(2)により、データユニットDUlからのd次元の出力ベクトルh は、m次元の出力ベクトルh に縮約される。また、σは、シグモイド関数である。
ハーモナイジングユニットHUl(2≦l≦L)は、中間層のデータユニットDUlとリアロケーションユニットRAUとの間に、中間層のデータユニットDUlごとに設けられる。ハーモナイジングユニットHUlは、中間層のデータユニットDUlからの各出力データの次元数を同一のサイズに変換する。したがって、リアロケーションユニットRAUには、ハーモナイジングユニットHUlで同一の次元数に揃えられた出力データが入力される。
すなわち、ハーモナイジングユニットHUlは、同一階層のデータユニットDUlからの出力ベクトルh を入力し、出力ベクトルh の次元数を同一の次元数に変換する。ハーモナイジングユニットHUlを示す関数h は、下記式(3)で表現される。
Figure 0006912998
式(3)中、行列W は、ハーモナイジングユニットHUlの学習パラメータである。これにより、データユニットDUlからのd次元の出力ベクトルh は、m次元の出力ベクトルh に変換される。mは、次元数を決定するハイパーパラメータである。dおよびmは、レポーティングユニットRUlのdおよびmと異なる値でもよい。また、fは、活性化関数である。
アテンションユニットAUは、各レポーティングユニットRUlからの出力ベクトルh を用いて、各データユニットDUlの重みαを計算する。アテンションユニットAUを示す関数αは、下記式(4)で表現される。
Figure 0006912998
式(4)中、行列Wは、アテンションユニットAUの学習パラメータである。活性化関数の1つであるsoftmax関数では、層数L(下記式(5)の例ではL=4)に等しい次元のベクトルhが計算される。下記式(5)に示すように、式(4)の右辺のベクトルhは、h を垂直方向にスタックしたベクトルである。
Figure 0006912998
したがって、行列Wは、L行M列(Mは、ベクトルhの要素数)の行列となる。アテンションユニットAUにsoftmax関数を採用することにより、層数Lのベクトルhの各要素(全要素の和は1)は、対応するデータユニットDUlの重みをあらわすことになる。
リアロケーションユニットRAUは、ある特徴量空間の特徴量ベクトル(画像x)を他の特徴量空間に再配置する。具体的には、たとえば、図1に示したように、特徴量空間SP1上での特徴量ベクトル群により得られる予測モデルは非線形となり得るため、リアロケーションユニットRAUは、特徴量空間SP2において線形な予測モデルが得られるように、特徴量ベクトル群を特徴量空間SP2に移し替える。リアロケーションユニットRAUを示す関数h は、下記式(6)で表現される。
Figure 0006912998
関数fは、ベクトル同士のアダマール積や、要素加算などを用いることができる。本実施例では、アダマール積とする(下記式(7)を参照)。式(7)では、ハーモナイジングユニットHUlからの出力ベクトルh と特徴量ベクトルxとのアダマール積となる。
Figure 0006912998
ユニファイユニットUUは、リアロケーションユニットRAUからの出力ベクトルh と、アテンションユニットAUからの出力ベクトルαとを統合する。すなわち、ユニファイユニットUUは、リアロケーションユニットRAUからの出力ベクトルh を、アテンションユニットAUからの出力ベクトルαで重み付けする。ユニファイユニットUUを示す関数hは、下記式(8)で表現される。
Figure 0006912998
式(8)中、右辺のα[k]は、式(4)の出力ベクトルαのk次元目の要素(重み)を示す。
デシジョンユニットDCUは、予測値yを決定し、出力層303に出力する。具体的には、たとえば、デシジョンユニットDCUは、ユニファイユニットUUからの出力ベクトルhに、学習パラメータの1つである重みベクトルwで重み付けして、シグモイド関数σに与えることにより、予測値yを得る。デシジョンユニットDCUを示す関数yは、下記式(9)で表現される。式(9)中、w のtは、転置を意味する。
Figure 0006912998
インポータンスユニットIUは、ニューラルネットワークの各層における特徴量の重要度を示す重要度ベクトルs を算出し、出力層303に出力する。インポータンスユニットIUを示す関数s は、下記式(10)で表現される。
Figure 0006912998
式(10)中、右辺のα[l]は、式(4)の出力ベクトルαのl階層目の要素(重み)を示す。関数fは、式(6)と同様、ベクトル同士のアダマール積や、要素加算などを用いることができる。実施例1では、アダマール積とする。式(10)では、重要度ベクトルs は、重みベクトルwとハーモナイジングユニットHUlからの出力ベクトルh とのアダマール積となる。重要度ベクトルs は、n番目の特徴量ベクトル(画像)xの階層lにおける重要度である。
<データ分析装置220の機能的構成例>
図4は、データ分析装置220の機能的構成例を示すブロック図である。データ分析装置220は、入力層301と、中間層302と、出力層303と、変換部401と、再配置部402と、予測データ算出部403と、重要度算出部404と、設定部405と、統合部406と、縮約部407と、選択部408と、を有する。これらは、学習部261および予測部262の内部構成例である。なお、選択部408は、後述する実施例2の構成要素であるため、実施例2後述する。
変換部401は、式(3)に示したように、各中間層DUl(l≧2)からの出力ベクトルh と行列W とに基づいて、出力ベクトルh の次元数dを縮約させて、変換後の出力ベクトルh を出力する。変換部401は、上述したハーモナイジングユニット群HUである。
再配置部402は、式(6)、(7)に示したように、変換部401からの変換後の出力ベクトルh と、入力層301に与えられた特徴量空間SP1の特徴量ベクトルxと、に基づいて、特徴量空間SP1の特徴量ベクトルxを第2特徴量空間SP2に再配置する。再配置部402は、上述したリアロケーションユニットRAUである。
予測データ算出部403は、式(9)に示したように、再配置部402による再配置結果h と重みベクトルwとに基づいて、特徴量空間SP1の特徴量ベクトルxに対する予測ベクトルyを算出する。予測データ算出部403は、上述したデシジョンユニットDCUである。
重要度算出部404は、式(10)に示したように、変換後の出力ベクトルh と重みベクトルwとに基づいて、中間層302における階層lにおける特徴量ベクトルxの重要度ベクトルs を算出する。重要度算出部404は、上述したインポータンスユニットIUである。
たとえば、動物を表示する画像xについて、ある階層laの出力ベクトルhla が顔の輪郭が猫にふさわしいか否かを示す特徴量であり、ある階層lb(≠la)の出力ベクトルhlb が耳の形状が猫にふさわしいか否かを示す特徴量である場合、対応する重要度ベクトルsla 、slb を参照することにより、データ分析装置220が、当該画像xが顔のどの特徴を考慮してその動物を猫であると判別したかを、ユーザは説明することができる。たとえば、重要度ベクトルsla は低いが重要度ベクトルslb が高い場合、データ分析装置220が、当該画像xが耳の形状を考慮してその動物を猫であると判別していると、ユーザは説明することができる。
設定部405は、式(4)、(5)に示したように、中間層302からの出力ベクトルh と行列Wとに基づいて、中間層302の重みαを設定する。設定部405は、上述したアテンションユニットAUである。
統合部406は、式(8)に示したように、再配置結果h と、設定部405によって設定された重みαと、を統合する。統合部406は、上述したユニファイユニットUUである。この場合、予測データ算出部403は、統合部406による統合結果hと重みベクトルwとに基づいて、予測ベクトルyを算出する。また、重要度算出部404は、設定部405によって設定された重みαと、変換後の出力ベクトルh と、重みベクトルwと、に基づいて、重要度ベクトルs を算出する。
縮約部407は、式(2)に示したように、中間層302からの出力ベクトルh と行列W とに基づいて、出力ベクトルh の次元数dを縮約させて、縮約後の出力ベクトルh を出力する。縮約部407は、上述したレポーティングユニット群RUである。この場合、設定部405は、縮約部407からの縮約後の出力ベクトルh と行列Wとに基づいて、中間層302の重みαを設定する。
学習部261は、特徴量空間SP1の特徴量ベクトルxと予測ベクトルyに対する正解ラベルtとを含む訓練データが与えられた場合に、予測ベクトルyと正解ラベルtとを用いて、第1学習パラメータである行列W 、第2学習パラメータである行列W 、第3学習パラメータである重みベクトルw、第4学習パラメータである行列W、および、第5学習パラメータである行列W を、たとえば、正解ラベルtと予測値yとのクロスエントロピーが最小化するように、最適化する。
予測部262は、最適化された学習パラメータ265を第1ニューラルネットワーク300に設定し、かつ、入力層301にテストデータとして特徴量ベクトルx´を与えることにより、採取的に予測データ算出部403に予測ベクトルy´を算出させる。
<データ分析処理手順例>
図5は、実施例1にかかるデータ分析装置220によるデータ分析処理手順例を示すフローチャートである。図5のうち、ステップS501〜S502が学習部261による学習処理であり、ステップS503〜S507が予測部262による予測処理である。まず、データ分析装置220は、訓練データ集合264を読み込む(ステップS501)。
データ分析装置220は、第1ニューラルネットワーク300に、訓練データ{x,t}を与えることにより学習をおこない、学習パラメータ265(行列W ,行列W ,行列W ,行列W、重みベクトルw)を生成する(ステップS502)。学習(ステップS502)では、たとえば、学習部261が、統計的勾配法により、正解ラベルtと予測値yとのクロスエントロピーが最小化するように、学習パラメータ265を最適化する。データ分析装置220は、生成した学習パラメータ265をサーバDB263に保存する。
つぎに、データ分析装置220は、テストデータ集合252を読み込み(ステップS503)、各テストデータの画像x´を、学習パラメータ265が反映されたニューラルネットワークに与えて、式(9)により、予測値y´を算出し(ステップS504)、式(10)により、画像x´ごとに、重要度ベクトルs を計算する(ステップS505)。
そして、データ分析装置220は、予測値y´の集合である予測結果253と重要度ベクトルs とを保存し(ステップS506)、予測結果253をクライアント端末200に出力する(ステップS507)。クライアント端末200は、予測結果253をモニタ205に表示する。
このように、実施例1によれば、サンプルデータである特徴量ベクトルxの事前再配置により、ニューラルネットワークを多層化しても各特徴量の重要度を算出可能となり、サンプル(特徴量ベクトルx)ごとに、説明の容易化を高精度かつ効率的に実現することができる。また、サンプル(特徴量ベクトルx)の事前再配置により、線形な予測モデルが得られるため、学習時および予測時において、高精度かつ低負荷で予測値を算出することができる。
実施例2について説明する。実施例2は、実施例1よりもさらに重要度の解釈性を高める例であり、実施例1で得られた重要度ベクトルs を用いる。なお、実施例1と同一構成には同一符号を付し、その説明を省略する。
<ニューラルネットワークの構造例>
図6は、実施例2にかかる第2ニューラルネットワークの構造例を示す説明図である。第2ニューラルネットワーク600は、データユニット群DUと、レポーティングユニット群RUと、セレクションユニットSUと、ハーモナイジングユニット群HUaと、リアロケーションユニットRAUaと、ユニファイユニットUUaと、デシジョンユニットDCUaと、インポータンスユニットIUaと、を有する。
セレクションユニットSUは、重要度ベクトルs について、平均重要度sav∈Rを計算する。セレクションユニットSUを示す関数savは、下記式(11)で表現される。
Figure 0006912998
平均重要度savの各要素は、階層およびサンプル数についての特徴量の平均重要度を示し、データ分析装置は、当該要素の平均重要度の絶対値が上位v個(vは1以上の任意の整数)の特徴量を特徴量ベクトルxから選択し、v次元の新しい特徴量ベクトルz∈Rを生成する。
ハーモナイジングユニットHUal(2≦l≦L)は、中間層のデータユニットDUlとリアロケーションユニットRAUとの間に、中間層のデータユニットDUlごとに設けられる。ハーモナイジングユニットHUalは、中間層のデータユニットDUlからの出力データの次元数を揃える変換を実施する。したがって、リアロケーションユニットRAUには、ハーモナイジングユニットHUalで、同一サイズの次元数のデータが入力される。
ハーモナイジングユニットHUalは、同一階層のデータユニットDUlからの出力ベクトルh を入力し、出力ベクトルh の次元数を同一サイズの次元数に変換する。ハーモナイジングユニットHUalを示す関数h は、下記式(12)で表現される。
Figure 0006912998
式(12)中、行列W は、ハーモナイジングユニットHUalの学習パラメータ265である。これにより、データユニットDUlからのd次元の出力ベクトルh は、v次元の出力ベクトルh に変換される。また、fは、活性化関数である。
リアロケーションユニットRAUaは、ある特徴量空間の特徴量ベクトル(画像x)を他の特徴量空間に再配置する。具体的には、たとえば、図1に示したように、特徴量空間SP1上での特徴量ベクトル群により得られた予測モデルが非線形である場合、リアロケーションユニットRAUは、特徴量空間SP2において線形な予測モデルが得られるように、特徴量ベクトル群を特徴量空間SP2に移し替える。リアロケーションユニットRAUaを示す関数h´ は、下記式(13)で表現される。
Figure 0006912998
関数fは、ベクトル同士のアダマール積や、要素加算などを用いることができる。本実施例では、アダマール積とする(下記式(14)を参照)。式(14)では、ハーモナイジングユニットHUalからの出力ベクトルh とセレクションユニットSUからの新しい特徴量ベクトルzとのアダマール積となる。
Figure 0006912998
ユニファイユニットUUaは、リアロケーションユニットRAUaからの出力ベクトルh´ と、アテンションユニットAUからの出力ベクトルαとを統合する。すなわち、ユニファイユニットUUaは、リアロケーションユニットRAUaからの出力ベクトルh´ を、アテンションユニットAUからの出力ベクトルαで重み付けする。ユニファイユニットUUaを示す関数h´は、下記式(15)で表現される。
Figure 0006912998
式(15)中、右辺のα[k]は、式(4)の出力ベクトルαのk次元目の要素(重み)を示す。
デシジョンユニットDCUaは、予測値yを決定する。具体的には、たとえば、デシジョンユニットDCUは、ユニファイユニットUUからの出力ベクトルhに、学習パラメータ265の1つである重みベクトルw´で重み付けして、シグモイド関数σに与えることにより、予測値yaを得る。デシジョンユニットDCUを示す関数yaは、下記式(16)で表現される。式(16)中、w´ のtは、転置を意味する。
Figure 0006912998
インポータンスユニットIUaは、第2ニューラルネットワーク600の各層における特徴量の重要度を示す重要度ベクトルs´ を算出する。インポータンスユニットIUを示す関数s´ は、下記式(17)で表現される。
Figure 0006912998
式(17)中、右辺のα[l]は、式(4)の出力ベクトルαのl階層目の要素(重み)を示す。関数fは、式(13)と同様、ベクトル同士のアダマール積や、要素加算などを用いることができる。実施例2では、アダマール積とする。式(17)では、重みベクトルw´とハーモナイジングユニットHUalからの出力ベクトルh とのアダマール積となる。
<データ分析装置の機能的構成例>
つぎに、実施例2にかかるデータ分析装置220の機能的構成例について図4を用いて説明する。実施例1と同一構成については、説明を省略する。実施例2では、あらたに選択部408が追加されている。選択部408は、特徴量ベクトルxと重要度ベクトルs とに基づいて、特徴量ベクトルxを構成する要素ごとの重要度ベクトルsavを算出し、重要度ベクトルsavに基づいて、特徴量ベクトルxから一部の要素を選択して特徴量ベクトルzを生成する。選択部408は、上述したセレクションユニットSUである。
この場合、変換部401は、式(12)を適用し、再配置部402は、式(13)、(14)に示したように、式(12)が適用された変換後の出力データ出力ベクトルh と、選択部408からの特徴量ベクトルzと、に基づいて、特徴量ベクトルzを第2特徴量空間SP2に再配置する。また、統合部406は、式(15)を適用し、予測データ算出部403は、式(16)を適用し、重要度算出部404は、式(17)を適用する。
<データ分析処理手順例>
図7は、実施例2にかかるデータ分析装置220によるデータ分析処理手順例を示すフローチャートである。図7のうち、ステップS701〜S702が学習部261による学習処理であり、ステップS703〜S707が予測部262による予測処理である。まず、データ分析装置220は、訓練データ集合264および特徴量の重要度を読み込む(ステップS701)。
データ分析装置220は、第2ニューラルネットワーク600に、訓練データ{x,t}を与えることにより学習をおこない、学習パラメータ265(行列W ,行列W ,行列W´ ,行列W、重みベクトルw´)を生成する(ステップS702)。学習(ステップS702)では、たとえば、学習部261が、統計的勾配法により、正解ラベルtと予測値yaとのクロスエントロピーが最小化するように、学習パラメータ265を最適化する。データ分析装置220は、生成した学習パラメータ265をサーバDB263に保存する。
つぎに、データ分析装置220は、テストデータ集合252を読み込み(ステップS703)、各テストデータの画像x´を、学習パラメータ265が反映されたニューラルネットワークに与えて、式(16)により、予測値ya´を算出し(ステップS704)、式(17)により、画像z´ごとに、重要度ベクトルs´ を計算する(ステップS705)。
そして、データ分析装置220は、予測値ya´の集合である予測結果253と重要度ベクトルs´ とを保存し(ステップS706)、予測結果253をクライアント端末200に出力する(ステップS707)。クライアント端末200は、予測結果253をモニタ205に表示する。
このように、実施例2によれば、サンプルデータである特徴量ベクトルxを重要度が高い要素のサンプルデータである特徴量ベクトルzに厳選することにより、厳選された特徴量ベクトルzの階層lについての重要度s 、s´ を得ることができ、実施例1よりもさらに重要度s 、s´ の解釈性を高めることができる。また、実施例1と同様、サンプル(特徴量ベクトルz)の事前再配置により、線形な予測モデルが得られるため、学習時および予測時において、高精度かつ低負荷で予測値を算出することができる。
実施例3について説明する。実施例3では、データ分析装置220が、画像データ以外の情報及び回帰に分類される手法を扱えることを示すために、ボストンの住宅価格を予測した場合の例を示す。以下に示す非特許文献3で用いられたデータにより性能検証を実施した。
<非特許文献3>
Used in Belsley, Kuh & Welsch, 'Regression diagnostics ...', Wiley,1980. N.B. Various transformations are used in the table on pages 244-261.
図8は、特徴量ベクトルFeaturesと正解データTargetとを示す説明図である。実験では、10−fold cross validationを用いて、A.(1)〜(4)の4因子(CRIM、ZN、INDUS、CHAS)のみの場合で実施例1を適用し、B.(1)〜(13)の13因子すべてを用いた場合で実施例1を適用し、C.実施例2の特徴量ベクトルzが(1)〜(4)の4因子(CRIM、ZN、INDUS、CHAS)であり、実施例1の特徴量ベクトルxが(1)〜(13)の13因子の場合で実施例2を適用し、決定係数r(r=0.0〜1.0)の尺度で評価した。回帰問題のため、デシジョンユニットDCU,DCUaの計算方法をそれぞれ下記式(18)、(19)に変更する。
Figure 0006912998
式(18)、(19)では、単に、シグモイド関数が除去されたのみであることに留意する。学習部261は、統計的勾配法により正解ラベルtと、予測値y、y´との自乗誤差が最小化するように、上述した学習パラメータ265を最適化する。
図9は、実験結果を示す説明図である。BおよびCの結果は、決定係数rが0.8を超えたことから、実施例1および実施例2は、それぞれ強い相関で予測することができた。特に、実施例2は、決定係数rがr=0.873と最も良い結果を得た。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加、削除、または置換をしてもよい。
以上説明したように、上述した実施例によれば、データ分析装置220は、変換部401と、再配置部402と、重要度算出部404と、を有する。したがって、特徴量ベクトル(x、x´)の事前再配置により、線形な予測モデルが得られるため、学習時および予測時において、高精度かつ低負荷で予測値を算出することができる。また、特徴量ベクトル(x、x´)にどのような特徴があるかを、重要度算出部404からの階層lごとの重要度により把握することができる。これにより、分析対象としてニューラルネットワークに与えられた特徴ベクトル(x、x´)についての説明の容易化を高精度かつ効率的に実現することができる。
また、データ分析装置220は、予測データ算出部403を有するため、特徴ベクトル(x、x´)に対し、分析対象としてニューラルネットワークからの予測結果(y、y´)が得られた理由についての説明の容易化を高精度かつ効率的に実現ができる。
また、データ分析装置220は、設定部405と統合部406とを有することにより、予測データ算出部403は、再配置結果に基づく予測結果を高精度に算出することができる。
また、データ分析装置220は、縮約部407を有することにより、次元縮約によりデータ分析の効率化を図ることができる。
また、データ分析装置220は、学習パラメータ265の学習により、高精度な予測モデルを構築することができる。
また、データ分析装置220は、選択部408を有することにより、特徴量ベクトルxを重要度が高い要素の特徴量ベクトルzに厳選することができ、重要度s 、s´ の解釈性を高めることができる。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
2 データ分析システム
200 クライアント端末
220 データ分析装置
252 テストデータ集合
253 予測結果
261 学習部
262 予測部
264 訓練データ集合
265 学習パラメータ
300 第1ニューラルネットワーク
301 入力層
302 中間層
303 出力層
401 変換部
402 再配置部
403 予測データ算出部
404 重要度算出部
405 設定部
406 統合部
407 縮約部
408 選択部
600 第2ニューラルネットワーク
AU アテンションユニット
DCU デシジョンユニット
DU データユニット群
HU ハーモナイジングユニット群
RAU リアロケーションユニット
RU リポーティングユニット群

Claims (6)

  1. 入力層と、出力層と、前記入力層と前記出力層との間において前段の層からのデータと第1学習パラメータとを第1活性化関数に与えて計算して後段の層に計算結果を出力する2層以上の中間層と、により構成される第1ニューラルネットワークを用いたデータ分析装置であって、
    前記各中間層からの出力データと第2学習パラメータとに基づいて、前記各出力データを同一サイズの次元数に変換させて、変換後の各出力データを出力する変換部と、
    前記変換部からの変換後の出力データと、前記入力層に与えられた第1特徴量空間の第1入力データと、に基づいて、前記第1特徴量空間の第1入力データを第2特徴量空間に再配置する再配置部と、
    前記変換後の各出力データと第3学習パラメータとに基づいて、前記各中間層における前記第1入力データの第1重要度を算出する重要度算出部と、
    前記再配置部による再配置結果と前記第3学習パラメータとに基づいて、前記第1特徴量空間の第1入力データに対する予測データを算出する予測データ算出部と、
    を有することを特徴とするデータ分析装置。
  2. 請求項1に記載のデータ分析装置であって、
    前記第1特徴量空間の第1入力データと前記予測データに対する正解データとを含む訓練データが与えられた場合に、前記予測データと前記正解データとを用いて、前記第1学習パラメータ、前記第2学習パラメータ、および前記第3学習パラメータを調整する学習部と、
    を有することを特徴とするデータ分析装置。
  3. 請求項1に記載のデータ分析装置であって、
    前記各中間層からの出力データと第4学習パラメータとに基づいて、前記各中間層の重みを設定する設定部と
    前記再配置結果と、前記設定部によって設定された重みと、を統合する統合部と、を有し、
    前記予測データ算出部は、前記統合部による統合結果と前記第3学習パラメータとに基づいて、前記予測データを算出し、
    前記重要度算出部は、前記設定部によって設定された重みと、前記変換後の各出力データと、前記第3学習パラメータと、に基づいて、前記第1重要度を算出する、
    ことを特徴とするデータ分析装置。
  4. 請求項3に記載のデータ分析装置であって、
    前記各中間層からの出力データと第5学習パラメータとに基づいて、前記各出力データの次元数を縮約させて、縮約後の各出力データを出力する縮約部を有し、
    前記設定部は、前記縮約部からの縮約後の各出力データと前記第4学習パラメータとに基づいて、前記各中間層の重みを設定する、
    ことを特徴とするデータ分析装置。
  5. 入力層と、出力層と、前記入力層と前記出力層との間において前段の層からのデータと第1学習パラメータとを第1活性化関数に与えて計算して後段の層に計算結果を出力する2層以上の中間層と、により構成される第1ニューラルネットワークを用いたデータ分析装置によるデータ分析方法であって、
    前記データ分析装置は、
    前記各中間層からの出力データと第2学習パラメータとに基づいて、前記各出力データを同一サイズの次元数に変換させて、変換後の各出力データを出力する変換処理と、
    前記変換処理からの変換後の出力データと、前記入力層に与えられた第1特徴量空間の第1入力データと、に基づいて、前記第1特徴量空間の第1入力データを第2特徴量空間に再配置する再配置処理と、
    前記変換後の各出力データと第3学習パラメータとに基づいて、前記各中間層における前記第1入力データの第1重要度を算出する重要度算出処理と、
    前記再配置処理による再配置結果と前記第3学習パラメータとに基づいて、前記第1特徴量空間の第1入力データに対する予測データを算出する予測データ算出処理と、
    を実行することを特徴とするデータ分析方法。
  6. 入力層と、出力層と、前記入力層と前記出力層との間において前段の層からのデータと第1学習パラメータとを第1活性化関数に与えて計算して後段の層に計算結果を出力する2層以上の中間層と、により構成される第1ニューラルネットワークを用いたデータ分析をプロセッサに実行させるためのデータ分析プログラムであって、
    前記プロセッサに、
    前記各中間層からの出力データと第2学習パラメータとに基づいて、前記各出力データを同一サイズの次元数に変換させて、変換後の各出力データを出力する変換処理と、
    前記変換処理からの変換後の出力データと、前記入力層に与えられた第1特徴量空間の第1入力データと、に基づいて、前記第1特徴量空間の第1入力データを第2特徴量空間に再配置する再配置処理と、
    前記変換後の各出力データと第3学習パラメータとに基づいて、前記各中間層における前記第1入力データの第1重要度を算出する重要度算出処理と、
    前記再配置処理による再配置結果と前記第3学習パラメータとに基づいて、前記第1特徴量空間の第1入力データに対する予測データを算出する予測データ算出処理と、
    を実行させることを特徴とするデータ分析プログラム。
JP2017206069A 2017-10-25 2017-10-25 データ分析装置、データ分析方法、およびデータ分析プログラム Active JP6912998B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017206069A JP6912998B2 (ja) 2017-10-25 2017-10-25 データ分析装置、データ分析方法、およびデータ分析プログラム
US16/117,260 US11526722B2 (en) 2017-10-25 2018-08-30 Data analysis apparatus, data analysis method, and data analysis program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017206069A JP6912998B2 (ja) 2017-10-25 2017-10-25 データ分析装置、データ分析方法、およびデータ分析プログラム

Publications (2)

Publication Number Publication Date
JP2019079305A JP2019079305A (ja) 2019-05-23
JP6912998B2 true JP6912998B2 (ja) 2021-08-04

Family

ID=66169343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017206069A Active JP6912998B2 (ja) 2017-10-25 2017-10-25 データ分析装置、データ分析方法、およびデータ分析プログラム

Country Status (2)

Country Link
US (1) US11526722B2 (ja)
JP (1) JP6912998B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6954070B2 (ja) * 2017-12-08 2021-10-27 富士通株式会社 判別プログラム、判別方法および判別装置
EP3860710A2 (en) 2018-10-05 2021-08-11 Medtronic, Inc. Multi-tier prediction of cardiac tachyarrythmia
US11583687B2 (en) 2019-05-06 2023-02-21 Medtronic, Inc. Selection of probability thresholds for generating cardiac arrhythmia notifications
US11776691B2 (en) * 2019-05-06 2023-10-03 Medtronic, Inc. Machine learning based depolarization identification and arrhythmia localization visualization
US11723577B2 (en) 2019-05-06 2023-08-15 Medtronic, Inc. Visualization of arrhythmia detection by machine learning
US20200352466A1 (en) 2019-05-06 2020-11-12 Medtronic, Inc. Arrythmia detection with feature delineation and machine learning
US11694804B2 (en) 2019-05-06 2023-07-04 Medtronic, Inc. Reduced power machine learning system for arrhythmia detection
JP7202973B2 (ja) * 2019-05-29 2023-01-12 株式会社日立製作所 データ分析装置、データ分析方法、およびデータ分析プログラム
US11675876B2 (en) * 2020-10-28 2023-06-13 International Business Machines Corporation Training robust machine learning models
US20220188639A1 (en) * 2020-12-14 2022-06-16 International Business Machines Corporation Semi-supervised learning of training gradients via task generation
CN114758032B (zh) 2022-06-15 2022-09-16 之江实验室 基于时空注意力模型的多相期ct图像分类系统及构建方法
CN118113994B (zh) * 2024-02-04 2024-08-27 浙江伟卓科技有限责任公司 海洋信息获取方法、装置、设备及介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8417481B2 (en) * 2008-09-11 2013-04-09 Diane J. Cook Systems and methods for adaptive smart environment automation
US9852370B2 (en) * 2014-10-30 2017-12-26 International Business Machines Corporation Mapping graphs onto core-based neuromorphic architectures
US9792492B2 (en) * 2015-07-07 2017-10-17 Xerox Corporation Extracting gradient features from neural networks
JP6798183B2 (ja) * 2016-08-04 2020-12-09 株式会社リコー 画像解析装置、画像解析方法およびプログラム
US10140544B1 (en) * 2018-04-02 2018-11-27 12 Sigma Technologies Enhanced convolutional neural network for image segmentation

Also Published As

Publication number Publication date
US11526722B2 (en) 2022-12-13
JP2019079305A (ja) 2019-05-23
US20190122097A1 (en) 2019-04-25

Similar Documents

Publication Publication Date Title
JP6912998B2 (ja) データ分析装置、データ分析方法、およびデータ分析プログラム
JP6832783B2 (ja) データ分析装置、データ分析方法、およびデータ分析プログラム
US10127477B2 (en) Distributed event prediction and machine learning object recognition system
JP7202973B2 (ja) データ分析装置、データ分析方法、およびデータ分析プログラム
EP3223183B1 (en) Case-based reasoning in the cloud using deep learning
Nethery et al. Estimating population average causal effects in the presence of non-overlap: The effect of natural gas compressor station exposure on cancer mortality
Avci A new expert system for diagnosis of lung cancer: GDA—LS_SVM
Huang et al. FaNet: fast assessment network for the novel coronavirus (COVID-19) pneumonia based on 3D CT imaging and clinical symptoms
WO2023025956A1 (en) Method and system for deconvolution of bulk rna-sequencing data
Ma Variable selection with copula entropy
Soriano et al. Mammogram classification schemes by using convolutional neural networks
Wang et al. Patient admission prediction using a pruned fuzzy min–max neural network with rule extraction
Gugulothu et al. An early prediction and classification of lung nodule diagnosis on CT images based on hybrid deep learning techniques
JP2021125136A (ja) 最適化装置及び最適化方法
JP7059151B2 (ja) 時系列データ分析装置、時系列データ分析方法、および時系列データ分析プログラム
US6401082B1 (en) Autoassociative-heteroassociative neural network
CN113313699B (zh) 基于弱监督学习的x光胸部疾病分类及定位方法、电子设备
Ukwuoma et al. Dual_Pachi: attention-based dual path framework with intermediate second order-pooling for Covid-19 detection from chest X-ray images
CN117273157A (zh) 量子核方法、分类方法、数据编码方法及相关系统、装置
Henderson et al. Analyzing chest X-ray to detect the evidence of lung abnormality due to infectious disease
Louati et al. Design and compression study for convolutional neural networks based on evolutionary optimization for thoracic X-Ray image classification
Nayan et al. Coronavirus disease situation analysis and prediction using machine learning: a study on Bangladeshi population
CN114224354B (zh) 心律失常分类方法、装置及可读存储介质
Hodapp Unsupervised learning for computational phenotyping
Patil et al. An experimental approach toward type 2 diabetes diagnosis using cultural algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210709

R150 Certificate of patent or registration of utility model

Ref document number: 6912998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150