JP7513631B2 - 残差セミリカレントニューラルネットワーク - Google Patents

残差セミリカレントニューラルネットワーク Download PDF

Info

Publication number
JP7513631B2
JP7513631B2 JP2021557323A JP2021557323A JP7513631B2 JP 7513631 B2 JP7513631 B2 JP 7513631B2 JP 2021557323 A JP2021557323 A JP 2021557323A JP 2021557323 A JP2021557323 A JP 2021557323A JP 7513631 B2 JP7513631 B2 JP 7513631B2
Authority
JP
Japan
Prior art keywords
output
rnn
mlp
type
external data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021557323A
Other languages
English (en)
Other versions
JP2022526937A (ja
Inventor
チィ・タン
ユーラン・チィ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanofi SA
Original Assignee
Sanofi SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanofi SA filed Critical Sanofi SA
Publication of JP2022526937A publication Critical patent/JP2022526937A/ja
Priority to JP2024102565A priority Critical patent/JP7752216B2/ja
Application granted granted Critical
Publication of JP7513631B2 publication Critical patent/JP7513631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • G01N33/50Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing
    • G01N33/5005Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing involving human or animal cells
    • G01N33/5008Chemical analysis of biological material, e.g. blood, urine; Testing involving biospecific ligand binding methods; Immunological testing involving human or animal cells for testing or evaluating the effect of chemical or biological compounds, e.g. drugs, cosmetics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Immunology (AREA)
  • Chemical & Material Sciences (AREA)
  • Hematology (AREA)
  • Urology & Nephrology (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Biotechnology (AREA)
  • Microbiology (AREA)
  • Tropical Medicine & Parasitology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Toxicology (AREA)
  • Cell Biology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • Neurology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

関連出願の相互参照
本出願は、2019年3月27日に出願された米国特許出願仮第62/824,895号、および2019年5月13日に出願された欧州特許出願公開第19305611.6号の優先権を主張し、これらの内容全体は参照によって本明細書に組み入れる。
本開示は、人工ニューラルネットワークに関する。
人工ニューラルネットワーク(ANN)は、生物学的ニューラルネットワークから漠然と着想を得たコンピューティングシステムである。ANNは、1つまたはそれ以上の機械学習アルゴリズムが協働して複雑なデータ入力を処理するためのフレームワークである。ANNは、画像認識などのタスクを実行するために学習することができ、この場合、ANNは、1つの画像内のいくつかの特徴(たとえば、動物、車両、道路標識など)を識別できるように学習することができる。ANNは通常、人工ニューロンと呼ばれる連結されたノードの集合体を含む。各連結部では、1つの人工ニューロンから別の人工ニューロンへ信号を伝達することができる。信号を受けた人工ニューロンは、その信号を処理し、次にその結果を、連結されている追加の人工ニューロンへ出力することができる。
典型的な実施形態では、人工ニューロン間の、エッジと呼ばれることもある連結部の信号は実数であり、各人工ニューロンの出力は、その入力の合計の非線形関数に従って計算される。人工ニューロンおよびエッジは通常、ANNが訓練されている間に調整することができる重みを有する。ANNは、コンピュータビジョン、音声認識、機械翻訳、および医療診断などの多様なタスクに使用されてきた。最近では、ANNは、いくつかの入力に基づいて結果を予測する予測モデルとして使用されている。たとえば、ANNは、薬物が人体とどのように相互作用するか(たとえば、薬物の吸収、分散、代謝、排泄の時間経過)を予測する薬物動態モデリングに使用される。
本開示の少なくとも1つの態様では、ニューラルネットワークが提供される。ニューラルネットワークは、第1のタイプの外部データを受け、この第1のタイプの外部データを処理してMLP出力を生成するように構成された多層パーセプトロン(MLP)を含む。ニューラルネットワークは、リカレントニューラルネットワーク(RNN)ユニットを含む。RNNユニットは、MLP出力の少なくとも一部分と第2のタイプの外部データとを受けるように構成される。RNNユニットは、MLP出力の少なくとも一部分および少なくとも第2のタイプの外部データを処理してRNN出力を生成するように構成される。MLPとRNNユニットは合わせて、RNN出力およびMLP出力に少なくとも部分的に基づいて、1つまたはそれ以上の時系列予測を生成するように構成される。
MLPは、入力層、少なくとも1つの隠れ層、および出力層を含み得る。RNNユニットは、少なくとも1つの隠れRNN層を含み得る。RNNユニットは、長短期記憶RNNユニットを含み得る。RNNユニットは、通常のRNNユニットを含み得る。RNNユニットは、ゲートリカレントユニットを含み得る。
第1のタイプの外部データは、時不変データを含み得る。第2のタイプの外部データは、時変データを含み得る。
ニューラルネットワークは、MPL出力とRNN出力を組み合わせて残差出力を生成するように構成される。1つまたはそれ以上の時系列予測は、その残差出力に少なくとも部分的に基づいて生成される。1つまたはそれ以上の時系列予測は、薬物の用量の投与後の時間の関数としての、血漿中の薬物の濃度値を含み得る。
本開示の少なくとも1つの他の態様では、1つの方法が提供される。方法は、多層パーセプトロン(MLP)によって、第1のタイプの外部データを受けることを含む。方法は、MLPによって、第1のタイプの外部データを処理してMLP出力を生成することを含む。方法は、リカレントニューラルネットワーク(RNN)ユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを受けることを含む。方法は、RNNユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを処理してRNN出力を生成することを含む。方法は、RNN出力およびMLP出力に少なくとも部分的に基づいて、1つまたはそれ以上の時系列予測を生成することを含む。
第1のタイプの外部データは時不変データを含み得る。第2のタイプの外部データは時変データを含み得る。
方法は、MPL出力とRNN出力を組み合わせて残差出力を生成することをさらに含み得る。1つまたはそれ以上の時系列予測は、残差出力に少なくとも部分的に基づいて生成される。1つまたはそれ以上の時系列予測は、薬物の用量の投与後の時間の関数としての、血漿中の薬物の濃度値を含み得る。
RNNユニットは長短期記憶RNNユニットを含み得る。RNNユニットは通常のRNNユニットを含み得る。RNNユニットはゲートリカレントユニットを含み得る。
本開示の実施形態は、以下の利点のうちの1つまたはそれ以上を含み得る。記載されたニューラルネットワークは、リカレントニューラルネットワークおよび畳み込みニューラルネットワークなどの従来のニューラルネットワークと比較して、時変データおよび時不変データを計算的に効率のよい方法で処理して、正確な時系列予測を生成することができる。特定のニューラルネットワーク層の出力は、連続するニューラルネットワーク層の出力と組み合わされて、従来のニューラルネットワークと比較して予測精度が高まる。従来のニューラルネットワークと比較した場合に、記載されたニューラルネットワークは、時変データと時不変データの間の関係と、この関係が、結果として得られる時系列予測にどれだけ影響を及ぼすかとをより適切に捉えることができる。
上記およびその他の態様、構成、および実施形態は、方法、装置、システム、構成要素、プログラム製品、機能を実行するための手段またはステップとして表現され、さらに他の方法で表現される。
上記およびその他の態様、構成、および実施形態は、特許請求の範囲を含む以下の説明から明らかになろう。
本開示の1つまたはそれ以上の実施形態による、残差セミリカレントニューラルネットワークを描写する図である。 本開示の1つまたはそれ以上の実施形態による、リカレントニューラルネットワークユニットを描写する図である。 本開示の1つまたはそれ以上の実施形態による、展開されたリカレントニューラルネットワークユニットを描写する図である。 本開示の1つまたはそれ以上の実施形態による、残余セミリカレントニューラルネットワークのアーキテクチャを描写する図である。 本開示の1つまたはそれ以上の実施形態による、時変データおよび時不変データを使用して1つまたはそれ以上の時系列予測を生成するための方法を描写するフローチャートである。
いくつかの外部データに基づいて将来の結果を予測する予測モデルとして、人工ニューラルネットワーク(ANN)を使用することがより一般的になってきている。たとえば、薬物動態(Pk)モデリングは、薬剤開発の重要なステップであり、薬剤が人体とどのように相互作用するか(たとえば、薬剤の吸収、分布、代謝、および排泄の時間経過)をモデル化する。薬物動態モデリングのいくつかの手法では、患者のベースライン特性(たとえば、年齢、性別)などの時不変データと、患者の薬物用量レベルなどの時変データとを用いて、ある時間間隔にわたって血漿中の薬物濃度を示すPk曲線を生成する。従来、薬物と人体との相互作用をモデル化するには、流体力学の分野から借用した微分方程式が用いられていた。微分方程式は、ある薬物用量を受けた後に体内で起こる、基礎となる物理的なプロセスを記述するには有用であり得るが、患者間の不均一性をすべて考慮しているわけではないことがある。したがって、これらの微分方程式を用いて得られた個々の患者についての予測が不正確なことがあるのに対し、母集団レベルでの予測は正確なことがある。
薬物動態モデリングの予測精度を向上させるための一般的な手法は通常、フィードフォワードニューラルネットワーク(たとえば、畳み込みニューラルネットワーク)を使用することである。しかし、従来の微分方程式手法と比較して予測精度が向上するとはいえ、フィードフォワードニューラルネットワークは、同一人物の複数の時点における薬物動態測定値間の相関関係を明らかにできないことがある。この理由は、従来のフィードフォワードネットワークは通常、情報を一方向に(たとえば、入力層から隠れた層を経て出力層へ)処理するだけであり、したがって、フィードフォワードネットワークは、現在の入力だけを考慮し、時間的な順序の概念がないからである。
リカレントニューラルネットワーク(RNN)は、時変データをより適切に処理することが示されている。その理由は、これらのニューラルネットワークは、時系列に沿った有向グラフを形成する連結部があるノードを含み、それによって、RNNが内部メモリを使用して入力列を処理することが可能になるからである。しかし、従来のRNNを使用して時不変データを処理する場合には、RNNは、時変データと同様の方法で時不変データを処理することがある。これにより、不要な重複データが大量に作成され、特に小さいサンプルサイズを使用する場合には、予測性能が低下することになり得る。したがって、従来の手法と比較して精度が向上している時間ベースの予測を生成するために、時不変データと時変データの両方を効率的に処理するように適用された人工ニューラルネットワークが望ましい。
本開示は、従来のRNNおよびフィードフォワードネットワークと比較して予測精度が向上する効率的な方法で、時不変データと時変データの両方を処理するように構成された残差セミリカレントニューラルネットワークを提供する。残差セミリカレントニューラルネットワークは、時不変データを受ける、および処理するための多層パーセプトロン(MLP)を含む。残差セミリカレントニューラルネットワークはまた、時変データを処理するためのRNNユニットを含む。MLPおよびRNNユニットからの出力は、1つまたはそれ以上の時系列予測を生成するためにニューラルネットワークによって使用される。たとえば、Pkモデリングに使用される場合、患者のベースライン特性に関連するデータはMLPに提供され、順次的な時点に患者に投与された薬物の用量レベルに関連するデータはRNNに提供される。MLPの出力は、RNNの初期状態として使用される。RNNとMLPの出力はまた組み合わされて、患者の血漿中の薬物濃度と、薬物の単一用量が患者に投与された後の時間との関係を示すPk曲線が生成される。
以下の記述では、説明を目的として、本開示についての完全な理解をもたらすように多数の具体的な詳細が示される。しかしながら、本開示は、これらの具体的な詳細がなくても実施できることが明らかであろう。他の例では、よく知られている構造およびデバイスは、本開示を不必要に不明瞭にしないようにするために、ブロック図の形で示される。
図面では、デバイス、モジュール、命令ブロックおよびデータ要素を表すものなどの、概略的な要素の特定の配置または順序が、説明を容易にするために示されている。しかし、図面中の概略的要素の特定の順序または配置は、処理の特定の順序もしくはシーケンス、または処理の分離が必要であることを暗示するものではないことが当業者には理解されるはずである。さらに、図面に概略的な要素が含まれることは、そのような要素がすべての実施形態で必要であること、あるいはそのような要素によって表される構成が、いくつかの実施形態において他の要素に含まれない、または他の要素と組み合わされないことを暗示するものではない。
さらに、図面で、実線もしくは破線または矢印などの連結要素が、2つ以上の他の概略要素間の連結、関係、または関連を説明するために使用されている場合、そのような連結要素がないことは、連結、関係、または関連が存在できないことを暗示するものではない。言い換えると、要素間のいくつかの連結、関係、または関連は、開示内容を不明瞭にしないようにするために、図面に示されていない。加えて、図示しやすくするために、単一の連結要素が、要素間の複数の連結、関係、または関連を表すのに用いられる。たとえば、連結要素が信号、データ、または命令の通信を表す場合、このような要素は、必要とされる、通信に影響を与えるための1つまたはそれ以上の信号経路(たとえば、バス)を表すことが当業者には理解されるはずである。
次に、添付の図面に例が示されている実施形態を詳細に参照する。以下の詳細な説明では、記載された様々な実施形態の完全な理解をもたらすために、多数の具体的な詳細が示される。しかし、記載された様々な実施形態は、これらの具体的な詳細がなくても実施できることが当業者には明らかであろう。他の例では、よく知られている方法、手順、構成要素、回路、およびネットワークは、実施形態の態様を不必要に不明瞭にしないようにするために、詳細に説明されていない。
以下に、それぞれが互いに独立して、または他の構成の任意の組み合わせとともに使用できる、いくつかの機能について説明する。しかし、どの個々の構成も、上で論じた問題のどれにも対処しない、または、上で論じた問題の1つにしか対処しないことがある。上で論じた問題のいくつかは、本明細書に記載された構成のいずれによっても完全には解決されないことがある。見出しが設けられていても、ある特定の見出しに関連するデータが、その見出しを持つセクションで見つからなくて本明細書のどこか他の場所で見つかることもある。
本明細書では、所与のニューラルネットワーク層/ユニットと関連して使用されるプロセス(処理すること、複数のプロセスなど)という用語は、所与のニューラルネットワーク層/ユニットに含まれるニューロンのそれぞれに対応する学習された重み関数/活性化関数を入力データに適用して各ニューロンに出力を生成する、知られているニューラルネットワークプロセスを指す。当技術分野で知られているように、学習された重み関数/活性化関数は、ニューラルネットワークに学習させるための訓練データセットを使用して、データセットのいくつかの特徴をいくつかの結果と関連付けることによって調整/チューニングされる。
システム概観:
図1は、本開示の1つまたはそれ以上の実施形態による、残差セミリカレントニューラルネットワーク100を描写する図を示す。残差セミリカレントニューラルネットワーク(RSNN 100)は、MLP 110およびRNNユニット120を含む。MLP 110は、入力層111、隠れ層112、および出力層113を含む。RNNユニット120は、隠れRNN層122、および出力RNN層123を含む。MLP 110は、RNNユニット120に通信可能に連結されている。
MLP 110の入力層111は、第1の入力ニューロン111aおよび第2の入力ニューロン111bを含む。MLP 110の隠れ層112は、第1の隠れニューロン112a、第2の隠れニューロン112b、および第3の隠れニューロン112cを含む。MLP 110の出力層113は、第1の出力ニューロン113a、および第2の出力ニューロン113bを含む。MLP 110の層111、112、113は完全に連結されており、このことは、所与の層の各ニューロンが、次に続く層のすべてのニューロンに連結されていることを意味する。たとえば、第1の出力ニューロン113aは、第1の隠れニューロン112a、第2の隠れニューロン112b、および第3の隠れニューロン112cに連結されている。
MLP 110は1つの隠れ層112を含むが、いくつかの実施形態では、MLP 110は、もっと多い隠れ層(たとえば、2つの隠れ層、3つの隠れ層など)を含む。層111、112、113のそれぞれは、図示された実施形態に示されたニューロンの数よりも多いまたは少ないニューロンを含むことができる。
入力層111は、時不変データを受け、その時不変データを隠れ層112へ送るように構成される。時不変データの例としては、患者の年齢および/または性別などの、1人またはそれ以上の患者のベースライン特性に関連する値を挙げることができる。隠れ層112の隠れノード112a、112b、112cのそれぞれは、時不変データを受け、この時不変データを処理して出力を生成する。隠れ層112の隠れノード112a、112b、112cのそれぞれの出力は、出力ノード113a、113bのそれぞれへ送られる。出力ノード113a、113bは、受けた出力をその活性化関数を用いて処理して、MLP出力を生成する。
MLP 110は、MLP出力をRNNユニット120へ送る。MLP出力は、隠れRNN層122で受けられる。こうしてMLP出力は、RNNユニット120の初期状態として用いられる。隠れRNN層122はまた、時変入力データを受けるように構成される。図3を参照して後でより詳細に説明するように、RNNユニット120は、MLP 110からのMLP出力を初期状態として使用しながら、受けた時変データを順次に処理して、1つまたはそれ以上の時系列予測を生成するように構成される。たとえば、MLP出力は、患者のベースライン特性に関連する入力データを処理することにより得られ、時変データは、患者に注入された薬物の一連の累積量とすることができる。この例では、RNNユニットの出力(時系列予測)は、Pk曲線とすることができる。いくつかの実施形態では、RSNN 100は、MLP 110の出力をRNNユニット120の出力に加えて時系列予測を生成するように構成される。
RNNユニット120は、1つの隠れ層122を有するものとして示されているが、いくつかの実施形態では、追加の隠れRNN層を有する。この例では、MLP 110は、その出力を追加の隠れRNN層のうちの1つまたはそれ以上に提供するように構成される。いくつかの実施形態では、RSNN 100は、MLP 110とRNNユニット120の間に追加の完全連結層を含む。これらの例では、MLP 110は、その出力を追加の完全連結層のうちの1つまたはそれ以上に提供するように構成される。追加の隠れRNN層および完全連結層の総計は、処理ニーズ、効率要因、ならびに処理されるデータのタイプおよび量などの実際的な考慮事項に基づく。
図2Aは、本開示の1つまたはそれ以上の実施形態による、RNNユニット200を描写する図を示す。RNNユニット200は、入力RNN層210、隠れRNN層211、および出力RNN層212を含む。入力RNN層210は、第1のRNN入力ニューロン210a、第2のRNN入力ニューロン210b、および第3のRNN入力ニューロン210cを含む。いくつかの実施形態では、入力RNN層210は、直前のMLPの出力層である。
隠れRNN層211は、入力RNN層210からの出力を受けるように構成される。図1を参照して先に示したように、入力RNN層からの出力は、隠れRNN層211の初期状態として使用される。隠れRNN層211は、第1のリカレントニューロン211aおよび第2のリカレントニューロン211bを含む。RNN入力ニューロン210a、210b、210cのそれぞれは、リカレントニューロン211a、211bのそれぞれに連結されている。リカレントニューロン211a、211bのそれぞれは、第1の順次データ点を受け、この第1の順次データ点を処理して第1の出力を生成し、この第1の出力を使用して連続する順次データ点を処理するように構成される。たとえば、順次データ点が、患者に注入された薬物の累積量であると仮定する。第1の順次データ点は、第1の時間における累積量とすることができ、第2の順次データ点は、第1の時間の後に生じる第2の時間における累積量とすることができる。リカレントニューロン211a、211bは、第1の順次データ点を受け、この第1の順次データ点を処理して第1の出力を生成し、この第1の出力からの情報を用いて第2の順次データ点を処理する。
RNN出力層212は、隠れ層211からの出力を受けるように構成される。RNN出力層212は、第1のRNN出力ニューロン212a、第2のRNN出力ニューロン212b、第3のRNN出力ニューロン212c、および第4のRNN出力ニューロン212dを含む。RNN出力ニューロン212a、212b、212c、212dのそれぞれは、リカレントニューロン211a、211bのそれぞれに連結されている。
図2Bは、本開示の1つまたはそれ以上の実施形態による、展開されたリカレントニューラルネットワークユニット300を描写する図を示す。図示のように、隠れRNN層321は、第1の順次入力310aを受け、これを処理して第1の出力(S1)を生成するように構成される。隠れRNN層321はまた、第1の順次入力310aに続く第2の順次入力310bを受けるようにも構成される。隠れRNN層321は、第1の順次入力310aと関連する出力(S1)を用いて第2の順次入力310bを処理して、第2の出力(S2)を生成する。同様に、隠れRNN層321は、第2の出力(S2)を用いて第2の順次入力310bに続く第3の順次入力310cを処理して、第3の出力(S3)を生成するように構成される。
図3は、本開示の1つまたはそれ以上の実施形態による、RSNN 400のアーキテクチャを描写する図である。RSNN 400は、MLP410および隠れRNN層422を含む。MLP 410は、時不変入力410を受けるように構成される。たとえば、時不変入力410は、年齢、性別などの患者ベースライン特性に対応し得る。MLP 410は、不変入力410を処理してMLP出力(S0)を生成し、このMLP出力は、隠れRNN層422の初期状態として使用される。隠れRNN層422は、第1の順次入力420aを受け、MLP出力(S0)を用いて第1の順次入力420aを処理して、第1のRNN出力(S1)を生成する。隠れRNN層422は、次に、第2の順次入力420bを受け、第1のRNN出力(S1)を用いて第2の順次入力420bを処理して、第2のRNN出力(S2)を生成する。次に、隠れRNN層422は、第3の順次入力420cを受け、第2のRNN出力(S2)を用いて第3の順次入力420cを処理して、第3のRNN出力(S3)を生成する。次いで、MLP出力(S0)は、第3のRNN出力(S3)に加算430されて、時系列予測440が生成される。いくつかの実施形態では、順次入力は、所与の時間に注入された薬物の累積量に対応する。いくつかの実施形態では、時系列予測440はPk曲線である。
図示され上述されたRNNユニットは通常のRNNユニットであるが、他のタイプのRNNユニットが使用されてもよい。いくつかの実施形態では、長短期記憶(LSTM)RNNユニットが使用される。LSTM RNNユニットとは、セル、入力ゲート、出力ゲート、および忘却ゲートを含むRNNユニットのことをいう。セルは、任意の時間間隔にわたって値を記憶し、3つのゲートは情報の流れを制御する。LSTM RNNユニットは、従来のRNNを訓練するときに場合によっては遭遇することが知られている、消失勾配問題の影響を最小限にすることができる。いくつかの実施形態では、ゲート付きリカレントユニット(GRU)がRNNユニットとして使用される。GRUは忘却ゲートを持つLSTMであるが、出力ゲートが欠如しているので、パラメータがLSTMよりも少ない。LSTMと比較して、GRUは、比較的小さいデータセットを扱う場合に、より優れた予測性能を示すことが明らかになっている。
図4は、本開示の1つまたはそれ以上の実施形態による、時変データおよび時不変データを使用して1つまたはそれ以上の時系列予測を生成するための方法500を描写するフローチャートである。方法500は、MLPによって、第1のタイプの外部データを受けること(ブロック502);MLPによって、第1のタイプの外部データを処理してMLP出力を生成すること(ブロック504);RNNユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを受けること(ブロック506);RNNユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを処理してRNN出力を生成すること(ブロック508);ならびに、RNN出力およびMLP出力に少なくとも部分的に基づいて、1つまたはそれ以上の時系列予測を生成することを含む。
ブロック502で、RSNNのMLPは、第1のタイプの外部データを受ける。いくつかの実施形態では、第1のタイプの外部データは時不変データである。たとえば、時不変データは、ベースライン患者特性とすることができる。
ブロック504で、MLPは、第1のタイプの外部データを処理して、図1に関して先に説明したMLP出力を生成する。
ブロック506で、MLPのRNNユニットは、MLP出力の少なくとも一部分をMLPから受ける。RNNユニットはまた、第2のタイプの外部データを受ける。いくつかの実施形態では、第2のタイプの外部データは時変データである。たとえば、時変データは、患者に注入された薬物の一連の累積量とすることができる。
ブロック508で、RNNユニットは、MLP出力のうちの受けられた部分を第2のタイプの外部データとともに処理して、図3に関して先に説明したRNN出力を生成する。
ブロック510で、RSNNは、RNN出力およびMLP出力に少なくとも部分的に基づいて、1つまたはそれ以上の時系列予測を生成する。いくつかの実施形態では、RSNNは、RNN出力とMLP出力を組み合わせて1つまたはそれ以上の時系列予測を生成する。時系列予測は、たとえばPk曲線とすることができる。
RSNNを訓練する例示的な方法:
次に、薬物動態モデリングのためにRSNNを訓練する例示的な方法について説明する。RSNNは、薬物動態モデル
Figure 0007513631000001
として出力と入力の対の
Figure 0007513631000002
を用いて訓練および検証され、ここで、
Figure 0007513631000003
はモデルへの入力である。変数xは、i番目の患者のp個のベースライン特性を表すp次元のベクトルであり、dは、i番目の患者に割り当てられた実際の用量レベルの時間系列である。変数yは、モデルからの出力、すなわち、i番目の患者の観測された薬物動態学的濃度の時間系列を表す。このモデルは、訓練セットの患者を用いて繰り返し訓練される。訓練過程中、モデルは、その生成された予測値cをグランドトゥルースデータcと比較し、それに応じてその重みを更新する。
モデルが、所与のインスタンスiに対する訓練された
Figure 0007513631000004
であるとき、この一連の入力は、
Figure 0007513631000005
および
Figure 0007513631000006
をそれぞれ含み、ここで、
Figure 0007513631000007
は、時不変のベースライン特性であるので経時的に変化しない。
ベースライン特性は、RSNNの多層パーセプトロン(MLP)に提供される。この場合、MLPの出力は、RSNNの従来のRNNユニットの初期状態として使用される。時変データ(たとえば、ある患者に割り当てられた用量レベル、および所与の時間)は、従来のRNNユニットに提供される。時不変入力は、時変入力よりもPkモデルに対して影響力を持つ可能性があるため、時不変入力を処理するために使用されるMLPと、リカレント層の最上部に積み重ねられた完全連結層との間にショートカット連結が実施される。このショートカットは、時不変入力に含まれる情報をRNNユニットの最終出力に直接伝える手段を提供する。
数学的に、RSNNは次のように定義される。所与のインスタンスi、時変入力x、および一連の時変入力
Figure 0007513631000008
に対して、一連の出力
Figure 0007513631000009
は、
Figure 0007513631000010
によって得られ、ここで、最初の式(1)は、MLPの完全連結層を定義している。パラメータ
Figure 0007513631000011
は、訓練予定のパラメータである。
薬物動態をモデル化するには、zit=ditの関係が用いられる。同様に、MLPは、複数の完全連結層を含み得る。加えて、RNNユニットに複数のリカレント層がある場合には、最初のリカレント層だけの初期状態、最後のリカレント層だけの初期状態、またはすべてのリカレント層の初期状態がMLPの出力になり得る。加えて、リカレント層の最上部に複数の完全連結層が積み重なっている場合には、MLPの出力は、最初の完全連結層だけ、最後の完全連結層だけ、またはすべての完全連結層に提供される。これらの異なる設計決定事項は、ハイパーパラメータと考えられる。
実験結果:
65人の患者から成るデータセットが、ゲート付きリカレントニューラルネットワーク(GRU)をRNNユニットとして使用した例示的なRSNNに提供された。患者ごとに、一連の観察されたPK値(y)、年齢および性別の2つのベースライン特性(x)、ならびに注入された薬物の一連の累積量(d)が用いられた。データセットのRSNNの各時点における入力と出力を連結するためにGRUが用いられ、訓練セットおよび妥当性検査セットの結果(たとえば、Pk曲線)がフィットされた。
RSNNモデルは、訓練セットに見られた非常に高いピークがある2つのPK曲線を含めて、妥当性検査セットのすべてのPK曲線に正確にフィットした。このことは、RSNNが、PK値と注入された薬物の累積量との間の複雑な非線形関係をベースライン特性と同様に捕捉できることを示した。
上述の説明において、本開示の諸実施形態は、実施形態ごとに異なり得る多数の特定の細部に関して説明された。したがって、本明細書および図面は、限定的な意味ではなく、例示的なものとしてみなされるべきである。本開示の範囲と、本出願人らが本開示の範囲であるとするものとを唯一かつ排他的に示すものは、本出願に由来する請求項の組の、その後の任意の修正を含むそのような請求項に由来する特定の形式での、文字通りの、かつ同等の範囲である。このような特許請求の範囲に含まれる用語について本明細書に明示されているあらゆる定義が、請求項に使用されるそのような用語の意味を規定するものとする。加えて、前述の説明または以下の特許請求の範囲で「さらに含む」という用語が使用される場合、この語句の後に続くものは、追加のステップもしくはエンティティ、または以前に引用されたステップもしくはエンティティのサブステップ/サブエンティティであり得る。

Claims (13)

  1. システムであって、
    1つまたはそれ以上のコンピュータと;
    1つまたはそれ以上の記憶デバイスは、1つまたはそれ以上のコンピュータによって実行されると、1つまたはそれ以上のコンピュータにニューラルネットワークを実行させる命令を記憶する、1つまたはそれ以上のコンピュータに通信可能に連結された1つまたはそれ以上の記憶デバイスを含み、
    ニューラルネットワークは、
    第1のタイプの外部データが時不変データを含む、第1のタイプの外部データを受け、この第1のタイプの外部データを処理してMLP出力を生成するように構成された多層パーセプトロン(MLP)と;
    第2のタイプの外部データは時変データを含む、MLP出力の少なくとも一部分と第2のタイプの外部データとを受け;
    MLP出力の少なくとも一部分および少なくとも第2のタイプの外部データを処理してRNN出力を生成する;
    ように構成された、リカレントニューラルネットワーク(RNN)ユニットとを含み、
    ここで、MLPとRNNユニット、RNN出力およびMLP出力に少なくとも部分的に基づく1つまたはそれ以上の時系列予測を生成するように構成されている、前記ニューラルネットワークであって、
    MPL出力とRNN出力を組み合わせて残差出力を生成するように構成され、1つまたはそれ以上の時系列予測は、その残差出力に少なくとも部分的に基づいて生成されるニューラルネットワークである、
    前記システム。
  2. MLPは、入力層、少なくとも1つの隠れ層、および出力層を含む、請求項1に記載のシステム
  3. RNNユニットは、少なくとも1つの隠れRNN層を含む、請求項1~2のいずれか1項に記載のシステム
  4. RNNユニットは長短期記憶RNNユニットを含む、請求項1~のいずれか1項に記載のシステム
  5. RNNユニットは通常のRNNユニットを含む、請求項1~のいずれか1項に記載のシステム
  6. RNNユニットはゲートリカレントユニットを含む、請求項1~のいずれか1項に記載のシステム
  7. 1つまたはそれ以上の時系列予測は、薬物の用量の投与後の時間の関数としての、血漿中の薬物の濃度値を含む、請求項1~のいずれか1項に記載のシステム
  8. 方法であって:
    第1のタイプの外部データが時不変データを含む、多層パーセプトロン(MLP)によって、第1のタイプの外部データを受けること;
    MLPによって、第1のタイプの外部データを処理してMLP出力を生成すること;
    第2のタイプの外部データは時不変データを含む、リカレントニューラルネットワーク(RNN)ユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを受けること;
    RNNユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを処理してRNN出力を生成すること;ならびに、
    MPL出力とRNN出力を組み合わせて残差出力を生成することをさらに含み、1つまたはそれ以上の時系列予測が、その残差出力に少なくとも部分的に基づいて生成されることを含む、RNN出力およびMLP出力に少なくとも部分的に基づく1つまたはそれ以上の時系列予測を生成することを含む、
    前記方法。
  9. RNNユニットは長短期記憶RNNユニットを含む、請求項に記載の方法。
  10. RNNユニットは通常のRNNユニットを含む、請求項8~9のいずれか1項に記載の方法。
  11. RNNユニットはゲートリカレントユニットを含む、請求項8~10のいずれか1項に記載の方法。
  12. 1つまたはそれ以上の時系列予測は、薬物の用量の投与後の時間の関数としての、血漿中の薬物の濃度値を含む、請求項8~11のいずれか1項に記載の方法。
  13. 1つまたはそれ以上のコンピュータによって実行されると、1つまたはそれ以上のコンピュータに動作を実行させる命令を記憶する1つまたはそれ以上の非一時的コンピュータ記憶媒体であって:
    第1のタイプの外部データが時不変データを含む、多層パーセプトロン(MLP)によって、第1のタイプの外部データを受けること;
    MLPによって、第1のタイプの外部データを処理してMLP出力を生成すること;
    第2のタイプの外部データは時不変データを含む、リカレントニューラルネットワーク(RNN)ユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを受けること;
    RNNユニットによって、MLP出力の少なくとも一部分と第2のタイプの外部データとを処理してRNN出力を生成すること;ならびに、
    MPL出力とRNN出力を組み合わせて残差出力を生成することをさらに含み、1つま
    たはそれ以上の時系列予測が、その残差出力に少なくとも部分的に基づいて生成されることを含む、RNN出力およびMLP出力に少なくとも部分的に基づいて、1つまたはそれ以上の時系列予測を生成することを含む、
    前記非一時的コンピュータ記憶媒体。
JP2021557323A 2019-03-27 2020-03-23 残差セミリカレントニューラルネットワーク Active JP7513631B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024102565A JP7752216B2 (ja) 2019-03-27 2024-06-26 残差セミリカレントニューラルネットワーク

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962824895P 2019-03-27 2019-03-27
US62/824,895 2019-03-27
EP19305611 2019-05-13
EP19305611.6 2019-05-13
PCT/US2020/024196 WO2020198132A1 (en) 2019-03-27 2020-03-23 Residual semi-recurrent neural networks

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024102565A Division JP7752216B2 (ja) 2019-03-27 2024-06-26 残差セミリカレントニューラルネットワーク

Publications (2)

Publication Number Publication Date
JP2022526937A JP2022526937A (ja) 2022-05-27
JP7513631B2 true JP7513631B2 (ja) 2024-07-09

Family

ID=70108189

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021557323A Active JP7513631B2 (ja) 2019-03-27 2020-03-23 残差セミリカレントニューラルネットワーク
JP2024102565A Active JP7752216B2 (ja) 2019-03-27 2024-06-26 残差セミリカレントニューラルネットワーク

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024102565A Active JP7752216B2 (ja) 2019-03-27 2024-06-26 残差セミリカレントニューラルネットワーク

Country Status (5)

Country Link
US (3) US11625589B2 (ja)
EP (1) EP3948677A1 (ja)
JP (2) JP7513631B2 (ja)
CN (1) CN114175052B (ja)
WO (1) WO2020198132A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7513631B2 (ja) * 2019-03-27 2024-07-09 サノフイ 残差セミリカレントニューラルネットワーク
JP7577756B2 (ja) * 2020-03-23 2024-11-05 ジェネンテック, インコーポレイテッド 深層学習を使用した薬物動態パラメータの推定
KR102497003B1 (ko) * 2020-11-30 2023-02-06 재단법인대구경북과학기술원 약물 평가 방법 및 장치
CN112561174B (zh) * 2020-12-18 2023-05-02 西南交通大学 基于lstm和mlp的叠加神经网络预测地热产能方法
US20240321406A1 (en) * 2021-07-15 2024-09-26 Hoffmann-La Roche Inc. Prediction of pharmacokinetic curves
KR102840320B1 (ko) * 2023-02-13 2025-08-01 주식회사 지오비전 공동 다층 퍼셉트론 모델을 이용한 약제 농도 모니터링 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009288934A (ja) 2008-05-28 2009-12-10 Sony Corp データ処理装置、データ処理方法、及びプログラム
JP2018067039A (ja) 2016-10-17 2018-04-26 日本電信電話株式会社 学習装置、学習方法および学習プログラム
WO2018187632A1 (en) 2017-04-05 2018-10-11 Carnegie Mellon University Deep learning methods for estimating density and/or flow of objects, and related methods and software

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US598744A (en) 1898-02-08 Husking-pin
US5987444A (en) * 1997-09-23 1999-11-16 Lo; James Ting-Ho Robust neutral systems
DK1077636T3 (da) * 1998-05-13 2004-05-24 Cygnus Therapeutic Systems Signalbehandling til måling af fysiologiske analytter
US6658396B1 (en) * 1999-11-29 2003-12-02 Tang Sharon S Neural network drug dosage estimation
US8762306B2 (en) * 2008-08-14 2014-06-24 The University Of Toledo Neural network for glucose therapy recommendation
US10325687B2 (en) * 2013-12-06 2019-06-18 Bioverativ Therapeutics Inc. Population pharmacokinetics tools and uses thereof
CN105335612A (zh) * 2015-10-28 2016-02-17 南昌大学 基于人工神经网络的索拉菲尼肾部位浓度预测方法
EP3273373A1 (en) * 2016-07-18 2018-01-24 Fresenius Medical Care Deutschland GmbH Drug dosing recommendation
US20180253637A1 (en) * 2017-03-01 2018-09-06 Microsoft Technology Licensing, Llc Churn prediction using static and dynamic features
US20190354836A1 (en) * 2018-05-17 2019-11-21 International Business Machines Corporation Dynamic discovery of dependencies among time series data using neural networks
US10930395B2 (en) * 2018-11-23 2021-02-23 Asheleigh Adeline Mowery System for surgical decisions using deep learning
JP7513631B2 (ja) * 2019-03-27 2024-07-09 サノフイ 残差セミリカレントニューラルネットワーク

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009288934A (ja) 2008-05-28 2009-12-10 Sony Corp データ処理装置、データ処理方法、及びプログラム
JP2018067039A (ja) 2016-10-17 2018-04-26 日本電信電話株式会社 学習装置、学習方法および学習プログラム
WO2018187632A1 (en) 2017-04-05 2018-10-11 Carnegie Mellon University Deep learning methods for estimating density and/or flow of objects, and related methods and software

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MOHAJERIN, Nima,Multi-Step Prediction of Dynamic Systems with Recurrent Neural Networks,Neural and Evolutionary Computing,ARXIV.ORG,CORNELL UNIVERSITY LIBRARY,2018年03月20日,p.1-13,インターネット:<URL:https://doi.org/10.48550/arXiv.1806.00526>,[検索日 2023年12月26日]
豊嶋 章宏、他3名,雑談対話システムの話題遷移における自然性の自動評価,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2016年12月14日,第116巻、第379号,第25-29頁

Also Published As

Publication number Publication date
CN114175052B (zh) 2025-10-21
US20200311527A1 (en) 2020-10-01
WO2020198132A1 (en) 2020-10-01
US11977972B2 (en) 2024-05-07
US20240265246A1 (en) 2024-08-08
US11625589B2 (en) 2023-04-11
JP7752216B2 (ja) 2025-10-09
US12367384B2 (en) 2025-07-22
EP3948677A1 (en) 2022-02-09
JP2024123213A (ja) 2024-09-10
US20230222330A1 (en) 2023-07-13
CN114175052A (zh) 2022-03-11
JP2022526937A (ja) 2022-05-27

Similar Documents

Publication Publication Date Title
JP7513631B2 (ja) 残差セミリカレントニューラルネットワーク
Yang et al. Efficient spike-driven learning with dendritic event-based processing
CN108717869B (zh) 基于卷积神经网络的糖尿病视网膜并发症诊断辅助系统
KR20160102690A (ko) 신경망 학습 방법 및 장치, 및 인식 방법 및 장치
JP2019061647A (ja) 異常セッション感知方法
CN110310740B (zh) 基于交叉注意神经网络的再就医信息预测方法及系统
JP2023518871A (ja) 深層学習を使用した薬物動態パラメータの推定
Ghanem et al. Learning physics informed neural odes with partial measurements
KR102921064B1 (ko) 유사 에피소드 샘플링을 이용하는 모델 기반 강화학습을 통해 최적 치료경로를 탐색하기 위한 장치 및 방법
CN114549410B (zh) 基于深度监督的密度回归细胞计数方法及系统
CN109697511A (zh) 数据推理方法、装置及计算机设备
JP7682255B2 (ja) ニューラル・ネットワークのオンライン・トレーニング
CN106709829B (zh) 基于在线题库的学情诊断方法及系统
Qian et al. An embedded Hamiltonian dynamic evolutionary neural network model for high-dimensional data recognition
Chand et al. Performance comparison of artificial neural networks learning algorithms and activation functions in predicting severity of autism
Du et al. Evolutionary NAS in light of model stability for accurate continual learning
Linsley et al. Robust neural circuit reconstruction from serial electron microscopy with convolutional recurrent networks
Ghule et al. Nlp inspired training mechanics for modeling transient dynamics
EP4182949A1 (en) Predicting geographic atrophy growth rate from fundus autofluorescence images using deep neural networks
Li et al. Introduction to artificial intelligence and deep learning with a case study in analyzing electronic health records for drug development
Jung et al. DiffGSL: A Graph Structure Learning Diffusion Model for Dynamic Spatio-Temporal Forecasting
Long et al. Physics-informed encoder-decoder gated recurrent neural network for solving time-dependent PDEs
CN112906291A (zh) 一种基于神经网络的建模方法及装置
Liang et al. Towards robust neural networks via a global and monotonically decreasing robustness training strategy
Pacheco Temporal Models for the Prediction of Rheumatic Disease Prescription Outcomes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240627

R150 Certificate of patent or registration of utility model

Ref document number: 7513631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150