JP2020042598A - State prediction method and device by individual characteristic separation from biological signal data - Google Patents
State prediction method and device by individual characteristic separation from biological signal data Download PDFInfo
- Publication number
- JP2020042598A JP2020042598A JP2018170121A JP2018170121A JP2020042598A JP 2020042598 A JP2020042598 A JP 2020042598A JP 2018170121 A JP2018170121 A JP 2018170121A JP 2018170121 A JP2018170121 A JP 2018170121A JP 2020042598 A JP2020042598 A JP 2020042598A
- Authority
- JP
- Japan
- Prior art keywords
- state
- data
- generation model
- individual difference
- deep
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
本発明は、脳機能画像データ,脳波,心拍や発汗データなどの生体信号データから、精神疾患を含む様々な疾患の状態を予測する技術に関するものである。 The present invention relates to a technique for predicting various disease states including mental disorders from biological signal data such as brain function image data, brain waves, heart rate and sweating data.
近年、精神疾患を含む様々な疾患をもつ人口は上昇しており、早期発見、早期治療は、喫緊の課題となっている。生体信号データから疾患の進行度を数値化できれば、早期発見のみならず、治療法の評価など様々な応用が可能である。そのため、多様な生体信号データの医用データを活用して、機械学習による疾患に関わるバイオマーカーの発見が期待されている。このようなバイオマーカーの発見は、疾患の機序を明らかにするだけでなく、疾患の早期診断や定量的評価を可能にし、患者のクオリティ・オブ・ライフにも貢献すると共に、治療の有効性評価も可能になる。しかし、医用データの蓄積が行われているが、データセットの大きさは一般画像認識などに比べて遥かに小さく、解析には特徴選択や次元削減のような複雑な前処理と手続きが必要である。 In recent years, the population with various diseases including mental illness is increasing, and early detection and early treatment are urgent issues. If the degree of disease progression can be quantified from biological signal data, various applications such as evaluation of treatment methods as well as early detection are possible. Therefore, discovery of biomarkers related to diseases by machine learning using medical data of various biological signal data is expected. The discovery of such biomarkers not only elucidates the mechanism of the disease, but also enables early diagnosis and quantitative evaluation of the disease, contributes to the quality of life of patients, and the efficacy of treatment Evaluation is also possible. However, although medical data is being stored, the size of the data set is much smaller than that of general image recognition, and the analysis requires complicated preprocessing and procedures such as feature selection and dimension reduction. is there.
また、生体信号データには、被験体の年齢,性別,身体的特徴や生活環境などの情報が信号成分として存在する。生体信号データから、疾患に由来するデータのみを抽出し分離することは困難である。また、生体信号データを計測する計測器毎に、分解能や感度(S/N比)が異なるため、これら計測器の特性も不要な信号成分として生体信号データの中に存在する。生体信号データとして脳機能画像データを例に挙げると、頭部の形状や機能的脳地図に個体差が存在する。 In addition, information such as the age, sex, physical characteristics, and living environment of the subject exists as signal components in the biological signal data. It is difficult to extract and separate only the data derived from the disease from the biological signal data. Further, since the resolution and sensitivity (S / N ratio) are different for each measuring device that measures the biological signal data, the characteristics of these measuring devices also exist as unnecessary signal components in the biological signal data. Taking brain function image data as an example of biological signal data, there are individual differences in the shape of the head and the functional brain map.
かかる状況下、脳機能画像データの解析に生成モデルの手法を用いた研究成果が報告されている(例えば、非特許文献1〜3を参照)。例えば、隠れマルコフモデルを用いて、脳機能画像データの背後にある脳の大規模神経系のダイナミクスのモデル化を試みた研究成果(非特許文献1)や、刺激への応答と線形の生成モデルでモデル化することにより脳機能画像データから刺激を推定した研究成果(非特許文献2)などが報告されている。これらのモデル化では、全被験体に共通のモデルと各被験体の個体差を表現するモデルの組み合わせによるモデル化を行っているため、新しい被験体に適応するためには個体差を表現するモデル部分を新たに調整する必要がある。 Under such circumstances, research results using a generative model technique for analyzing brain function image data have been reported (for example, see Non-Patent Documents 1 to 3). For example, using a hidden Markov model, the research results of modeling the dynamics of a large-scale nervous system of the brain behind brain function image data (Non-Patent Document 1), a response generation to a stimulus and a linear generation model Research results (Non-Patent Document 2) and the like, in which a stimulus is estimated from brain function image data by modeling using the above method, have been reported. In these modelings, modeling is performed using a combination of a model common to all subjects and a model expressing individual differences of each subject. Parts need to be adjusted anew.
一方、深層学習と呼ばれる深層ニューラルネットワークを用いて、与えられたデータから、目的に必要な高次の特徴を自動的に学習することにより、様々なタスクで高い性能結果が報告されている。深層学習には主に“教師あり”分類を行う多層パーセプトロンと、“教師なし”次元削減が可能な自己符号化器(オートエンコーダ)が存在し、以前から脳機能画像データの解析に用いられている。深層学習には、深層生成モデルと呼ばれる生成モデルを実装できる構造が存在する。 On the other hand, high performance results have been reported for various tasks by automatically learning higher-order features required for the purpose from given data using a deep neural network called deep learning. Deep learning mainly consists of a multi-layered perceptron that performs “supervised” classification and a self-encoder (auto-encoder) that can reduce “unsupervised” dimensions, which has been used for analyzing brain functional image data for some time. I have. Deep learning has a structure that can implement a generation model called a deep generation model.
本発明者らは、この深層生成モデルを用いて、脳機能画像データに加え被験体の状態(疾患の有無)をモデル化し、高い精度で被験体の疾患を診断できることを既に示している(非特許文献3を参照)。分類に一般的に用いられる識別モデルに比べ、生成モデルはその構造が一種の拘束条件として働くことから、想定した構造が真の構造に近ければ、少ないサンプル数のデータセットに対しても、高い精度で分類できることが知られている(非特許文献4を参照)。被験体の年齢や性別を既知の情報として与えることにより、関連する信号成分を除去するアプローチも知られている(非特許文献5を参照)。そのため、脳機能画像データの背後にある構造を深層生成モデル上で実現することにより、診断精度の向上とさらなる解析の可能性がある。 The present inventors have already shown that using this deep-layer generation model, in addition to brain function image data, a model of the state of a subject (presence or absence of a disease) can be used to diagnose a subject's disease with high accuracy (non- See Patent Document 3). Compared to the classification model generally used for classification, the generated model has a high constraint even if the assumed structure is close to the true structure, even for datasets with a small number of samples, because its structure acts as a kind of constraint. It is known that classification can be performed with accuracy (see Non-Patent Document 4). An approach is also known in which the related signal component is removed by giving the age and gender of the subject as known information (see Non-Patent Document 5). Therefore, by realizing the structure behind the brain function image data on the deep generation model, there is a possibility of improving diagnostic accuracy and further analyzing.
上述の如く、本発明者らは、脳機能画像データの解析において、構造化深層生成モデルを用いて疾患診断精度の向上を図る研究を行っている(非特許文献3)。
しかしながら、非特許文献3に開示した方法では、個体差の信号成分を分離できておらず、疾患診断精度も限定的であるといった課題がある。被験体毎に機械学習を用いて個体差を分離するアプローチが知られているが(非特許文献2)、個々の被験体に対して膨大な計測データの追加の学習や調整が必要になるといった問題がある。また、被験体の年齢や性別を既知の情報として与えることにより、関連する信号成分を除去するアプローチが知られているが(非特許文献5)、生活環境や計測器の特性の違いなど数値化しにくい信号成分を除去することは困難であるといった問題がある。
As described above, the present inventors are conducting research to improve the accuracy of disease diagnosis using a structured deep generation model in analyzing brain function image data (Non-Patent Document 3).
However, the method disclosed in Non-Patent Document 3 has a problem that signal components of individual differences cannot be separated, and the accuracy of disease diagnosis is limited. Although an approach of separating individual differences using machine learning for each subject is known (Non-Patent Document 2), it is necessary to perform additional learning and adjustment of a huge amount of measurement data for each individual subject. There's a problem. An approach is known in which the related signal components are removed by giving the age and gender of the subject as known information (Non-patent Document 5). There is a problem that it is difficult to remove difficult signal components.
かかる状況に鑑みて、本発明は、被験体毎に追加の学習又は調整を行うことなく、被験体の生体信号データから被験体の年齢,性別,身体的特徴や生活環境など個体差に関係する特徴量を抽出し分離して、被験体の疾患診断精度の向上と疾患関連信号の可視化を可能とする状態予測方法および装置を提供することを目的とする。 In view of such circumstances, the present invention relates to individual differences such as the age, gender, physical characteristics, and living environment of a subject from biological signal data of the subject without performing additional learning or adjustment for each subject. It is an object of the present invention to provide a state prediction method and apparatus that extract and separate feature amounts and enable improvement of disease diagnosis accuracy of a subject and visualization of a disease-related signal.
上記課題を解決すべく、本発明の状態予測方法は、複数の被験体の生体信号を測定して得られた時系列の生体信号データを入力として、深層ニューラルネットワークによる深層生成モデルを用いて被験体の状態を予測する方法であって、下記1)〜3)のステップを備える。
1)一度の計測において変化しない状態ラベル、個体差を表現する特徴量、及び、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を、生体信号データに関連付けして深層生成モデルを構築するステップ。
2)複数の被験体の生体信号データを入力して深層生成モデルを学習するステップ。
3)入力した生体信号データから、個体差を表現する特徴量と、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を抽出し、分離した後の信号成分を用いて被験体の状態予測を行うステップ。
In order to solve the above-described problems, the state prediction method of the present invention uses a deep neural network to generate a test using a deep neural network and a time series biological signal data obtained by measuring biological signals of a plurality of subjects. A method for predicting a body condition, comprising the following steps 1) to 3).
1) Deep generation by associating state labels that do not change in a single measurement, feature quantities representing individual differences, and signal components that do not depend on the state labels and individual differences but can change over time with biological signal data Steps to build the model.
2) inputting the biological signal data of a plurality of subjects and learning a deep generation model;
3) A feature quantity representing individual differences and a signal component which is not dependent on the state label and individual differences but can vary with time are extracted from the input biosignal data, and the extracted signal components are used for testing using the separated signal components. Performing a body state prediction;
本発明によれば、脳機能画像データなどの生体信号データの解析のために、個体差をモデル化した深層生成モデルを構築し、入力した生体信号データから、個体差を表現する特徴量と、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を抽出し、分離した後の信号成分を用いて被験体の状態予測を行い、被験体の疾患診断精度の向上と疾患関連信号の可視化を実現できる。
本発明の状態予測方法は、複数の生体信号データが直接観測不可の潜在変数(個体差を表現する特徴量)を共有しているとし、深層生成モデルを構築する。すなわち、同一被験体の複数の生体信号データであれば、個体差を表現する特徴量を共有しているとする。本明細書において被験体とは、生体信号データを測定するヒトや動物などの生体といった意味で用いる。
According to the present invention, for analysis of biological signal data such as brain function image data, a deep generation model in which individual differences are modeled is constructed, and from the input biological signal data, a feature quantity expressing individual differences, Extract signal components that do not depend on the state label and individual differences but can change over time, and predict the state of the subject using the separated signal components to improve the accuracy of disease diagnosis of the subject and the disease-related Signal visualization can be realized.
The state prediction method of the present invention is based on the assumption that a plurality of biological signal data shares a latent variable that cannot be directly observed (a feature quantity representing an individual difference) and constructs a deep generation model. That is, it is assumed that a plurality of pieces of biosignal data of the same subject share a feature amount expressing individual differences. In this specification, a subject is used to mean a living body such as a human or an animal for measuring biological signal data.
状態ラベルは、状態の有無を示すラベルであり、一度の計測において変化しないものである。状態ラベルが疾患状態を示す場合は、疾患の有無の診断ラベルである。状態ラベルは、疾患の有無に限らず、有無以外に深刻度(慢性痛などには等級が該当)を示すこともある。
個体差は、単一の被験体から得られた全ての生体信号データ(例えば、脳機能画像データ)が共有する潜在変数としてモデル化され、それらの生体信号データから推論することによって、未知の被験体に対しても汎化することが可能である。ここで、個体差を表現する特徴量とは、上記のとおり、生体信号データにおいて個体差を表現する直接観測不可の潜在変数である。
The state label is a label indicating the presence or absence of a state, and does not change in one measurement. When the status label indicates a disease state, it is a diagnostic label for the presence or absence of a disease. The status label may indicate not only the presence or absence of the disease but also the severity other than the presence or absence (a grade corresponds to chronic pain or the like).
Individual differences are modeled as latent variables shared by all biosignal data (for example, brain function image data) obtained from a single subject, and by inferring from these biosignal data, unknown It is possible to generalize to the body. Here, the feature quantity expressing the individual difference is, as described above, a latent variable that cannot be directly observed and expresses the individual difference in the biological signal data.
深層生成モデルは、入力するデータを多次元同時確率分布で表現し、入力するデータに現われる特徴的な信号成分を効率よく表現できる生成モデルである。本発明では、一度の計測において変化しない状態ラベル、個体差を表現する特徴量、及び、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を、生体信号データに関連付けして深層生成モデルを構築する。そして、複数の被験体の生体信号データを入力して深層生成モデルを学習して、入力した生体信号データから、個体差を表現する特徴量と、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を抽出し、分離した後の信号成分を用いて被験体の状態予測を行う。 The deep generation model is a generation model capable of expressing input data by a multidimensional simultaneous probability distribution and efficiently expressing a characteristic signal component appearing in the input data. In the present invention, a state label that does not change in a single measurement, a feature quantity expressing individual differences, and a signal component that does not depend on the state labels and individual differences but can change over time are associated with biological signal data. Build a deep generation model. Then, the biological signal data of a plurality of subjects are input to learn a deep generation model, and from the input biological signal data, a feature quantity expressing an individual difference, a state label and an individual difference are used, but temporally. Then, a signal component that can be changed to a predetermined value is extracted, and the state of the subject is predicted using the separated signal component.
深層生成モデルにおいて、同一の被験体の複数の生体信号データが個体差を表現する特徴量を共有する。すなわち、一の生体信号データは同じ被験体から得られた別の生体信号データと個体差を表現する特徴量を共有する。
これを前提にすることにより、生体信号データを信号成分に分解して、再び元の生体信号データを再構築する際には、同じ個体差を表現する特徴量が同じ値を取るという拘束条件を与えることができる。
In the deep generation model, a plurality of pieces of biosignal data of the same subject share a feature amount representing an individual difference. That is, one piece of biosignal data shares a feature amount expressing individual difference with another piece of biosignal data obtained from the same subject.
By assuming this, when decomposing the biological signal data into signal components and reconstructing the original biological signal data again, the constraint condition that the feature value expressing the same individual difference takes the same value Can be given.
本発明の状態予測方法における深層生成モデルを構築するステップにおいて、更に測定環境差を表現する特徴量が、生体信号データに関連付けられ、状態ラベル、個体差を表現する特徴量、測定環境差を表現する特徴量、及び、状態ラベルと個体差と測定環境差とに依存しないが時間的に変化し得る信号成分を、生体信号データに関連付けして深層生成モデルが構築されることが好ましい。 In the step of constructing the deep generation model in the state prediction method of the present invention, the feature amount representing the measurement environment difference is further associated with the biological signal data, and the state label, the feature amount representing the individual difference, and the measurement environment difference are represented. It is preferable that a depth generation model is constructed by associating the characteristic amount and the signal component that does not depend on the state label, the individual difference, and the measurement environment difference but can change over time with the biological signal data.
ここで、測定環境差を表現する特徴量とは、生体信号データを測定する測定機器の特徴量、例えば、機器の分解能や感度(S/N比)などの特性によって変動する信号成分である。
生体信号データでは、個体差と環境差では共有されている範囲が異なる。そのため、同一被験体から得られた生体信号データは単一の特徴量(=個体差)を共有し、また、単一の測定環境で測定された複数の被験体から得られた生体信号データは単一の特徴量(=測定環境差)を共有している。すなわち、一の生体信号データは同じ被験体から得られた別の生体信号データと個体差を表現する特徴量を共有し、また、一の生体信号データは同じ測定環境から得られた別の生体信号データと測定環境差を表現する特徴量を共有している。
これを前提にすることにより、生体信号データを信号成分に分解して、再び元の生体信号データを再構築する際には、同じ個体差を表現する特徴量と測定環境差を表現する特徴量が同じ値を取るという拘束条件を与えることができる。
Here, the characteristic amount expressing the measurement environment difference is a characteristic amount of a measuring device that measures biological signal data, for example, a signal component that fluctuates depending on characteristics such as resolution and sensitivity (S / N ratio) of the device.
In biological signal data, the shared range differs between individual differences and environmental differences. Therefore, biosignal data obtained from the same subject shares a single feature (= individual difference), and biosignal data obtained from a plurality of subjects measured in a single measurement environment is A single feature (= measurement environment difference) is shared. That is, one biological signal data shares a characteristic amount expressing individual difference with another biological signal data obtained from the same subject, and one biological signal data is another biological signal data obtained from the same measurement environment. The signal data and the feature quantity expressing the measurement environment difference are shared.
By assuming this, when the biological signal data is decomposed into signal components and the original biological signal data is reconstructed again, the feature amount expressing the same individual difference and the feature amount expressing the measurement environment difference Have the same value.
上記の深層生成モデルにおいて、同一の被験体の複数の生体信号データが、個体差を表現する特徴量を共有する。特に、深層生成モデルが、VAE(Variational Auto-Encoder)で構成される場合には、個体差を表現する特徴量は、事前分布に従う潜在変数としてモデル化される。VAEは、深層学習を用いた生成モデルとして代表的なものであり、データに存在する潜在変数(特徴量)を高い精度で得られることがわかっている。
また、上記の深層生成モデルにおいて、同一の測定環境で計測された複数の生体信号データが、測定環境差を表現する特徴量を共有する。特に、深層生成モデルが、VAEで構成される場合には、測定環境差を表現する特徴量は、事前分布に従う潜在変数としてモデル化される。
In the above-described deep generation model, a plurality of pieces of biosignal data of the same subject share a feature amount expressing an individual difference. In particular, when the deep generation model is configured by a VAE (Variational Auto-Encoder), the feature quantity representing the individual difference is modeled as a latent variable following a prior distribution. VAE is a typical generation model using deep learning, and it is known that latent variables (features) existing in data can be obtained with high accuracy.
Further, in the above-described deep generation model, a plurality of pieces of biosignal data measured in the same measurement environment share a feature amount representing a measurement environment difference. In particular, when the deep generation model is configured by VAE, the feature quantity expressing the measurement environment difference is modeled as a latent variable following a prior distribution.
上述の深層学習するステップにおいて、個体差を表現する特徴量の推定には、1つの生体信号データとそれに関連付けされた状態ラベルを入力として活性値を出力する第1のニューラルネットワークと、生体信号データの集合から得られた活性値の平均を入力として個体差を表現する特徴量を出力する第2のニューラルネットワークと、から構成される集団符号化器を用いる。
第1のニューラルネットワークと第2のニューラルネットワークの2つのニューラルネットワークが重なった(階層化されていない)集団符号化器を用いて、個体差に依存する特徴量を推定、具体的には、事前分布に従う潜在変数に関する重みのパラメータを推定する。第1のニューラルネットワークは、状態ラベルを入力として活性値を出力する。そして、第2のニューラルネットワークでは、活性値の平均を入力として再パラメータ化を用いて個体差を表現する特徴量の事後分布を出力する。
同様に、深層学習するステップにおいて、測定環境差を表現する特徴量の推定には、同一環境で測定された1つ以上の生体信号データとそれに関連付けされた状態ラベルを入力として活性値を出力する第1のニューラルネットワークと、生体信号データの集合から得られた活性値の平均を入力として測定環境差を表現する特徴量を出力する第2のニューラルネットワークと、から構成される集団符号化器を用いる。
測定環境差を表現する特徴量の推定の場合、一つの被験体の生体信号データでは、個人差を表現する特徴量と区別がつかないことから、同一環境で測定された複数の被験体のデータを使うことが好ましい。
In the above-described deep learning step, a first neural network that outputs an activity value with one biosignal data and a state label associated with the biometric signal data being input, And a second neural network that outputs a feature value expressing an individual difference by using an average of the activity values obtained from the set as an input.
Using a group encoder in which two neural networks, a first neural network and a second neural network, are overlapped (not hierarchized), a feature amount dependent on individual differences is estimated. Estimate the weight parameters for the latent variables following the distribution. The first neural network outputs an activation value by using a state label as an input. Then, in the second neural network, the posterior distribution of the feature quantity expressing the individual difference is output using re-parameterization with the average of the activity values as input.
Similarly, in the step of deep learning, for estimating a feature amount representing a measurement environment difference, an activity value is output using one or more biosignal data measured in the same environment and a state label associated therewith. A collective encoder configured by a first neural network and a second neural network that outputs a feature quantity expressing a measurement environment difference with an average of activity values obtained from a set of biosignal data as an input. Used.
In the case of estimating the feature value expressing the measurement environment difference, since the biometric signal data of one subject cannot be distinguished from the feature value expressing the individual difference, the data of multiple subjects measured in the same environment It is preferable to use
本発明の状態予測方法は、被験体の状態予測した結果を表示するステップを更に備える。
本発明における生体信号データは、fMRI(functional Magnetic Resonance Imaging)画像データ、MRI(Magnetic Resonance Imaging)画像データ、PET(Positron Emission Tomography)画像データ、超音波画像データ、脳波データ、心電図データ、心拍数データ、発汗量データ、血中酸素濃度データ、又は、血糖値データの何れかである。
ここで、fMRI画像データは時系列データである一方、MRI画像データは一般に時系列ではないが、時系列データではないMRI画像データであっても、経過観察などのために複数回撮影したMRI画像データは、時系列の生体信号データに準じて処理することが可能である。
The state prediction method of the present invention further includes a step of displaying a result of the state prediction of the subject.
The biological signal data in the present invention includes fMRI (functional Magnetic Resonance Imaging) image data, MRI (Magnetic Resonance Imaging) image data, PET (Positron Emission Tomography) image data, ultrasonic image data, brain wave data, electrocardiogram data, and heart rate data. , Perspiration amount data, blood oxygen concentration data, or blood sugar level data.
Here, while the fMRI image data is time-series data, the MRI image data is generally not time-series, but even if it is not time-series data, MRI images taken a plurality of times for follow-up observation, etc. The data can be processed according to time-series biosignal data.
本発明における深層生成モデルは、VAE(Variational Auto-Encoder)を含むAE(Auto-Encoder)、GAN(Generative Adversarial Nets)、GMM(Generative Moment Matching)、EP(Energy-based Probabilistic Model)、FG(Flow-based Generative Model)、AR(Auto-regressive Model)の何れかを用いることが好ましい。なお、深層生成モデルとしてVAEを用いる場合のみ、再パラメータ化、すなわち、上述した集団符号化器の第2のニューラルネットワークにおける活性値の平均を入力として個体差に依存する特徴量の事後分布を表現するパラメータを出力することが可能である。 The deep generation model in the present invention includes AE (Auto-Encoder) including VAE (Variational Auto-Encoder), GAN (Generative Adversarial Nets), GMM (Generative Moment Matching), EP (Energy-based Probabilistic Model), and FG (Flow -based Generative Model) or AR (Auto-regressive Model). Only when VAE is used as the deep generation model, re-parameterization is performed, that is, the posterior distribution of the feature amount depending on individual differences is expressed by using the average of the activation values in the second neural network of the above-described collective encoder as an input. It is possible to output parameters to be performed.
次に、本発明の状態予測装置について説明する。
本発明の状態予測装置は、複数の被験体の生体信号を測定して得られた時系列の生体信号データを入力として、深層ニューラルネットワークによる深層生成モデルを用いて被験体の状態を予測する装置であって、下記1)〜3)を備える。
1)一度の計測において変化しない状態ラベル、個体差を表現する特徴量、及び、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を、生体信号データに関連付けして深層生成モデルを構築する生成モデル構築部。
2)複数の被験体の生体信号データを入力して深層生成モデルを学習する学習部。
3)入力した生体信号データから、個体差を表現する特徴量と、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を抽出し、分離した後の信号成分を用いて被験体の状態予測を行う状態予測部。
Next, the state prediction device of the present invention will be described.
The state prediction apparatus of the present invention is an apparatus that predicts the state of a subject using a deep generation model based on a deep neural network, with time-series biosignal data obtained by measuring biosignals of a plurality of subjects as inputs. And includes the following 1) to 3).
1) Deep generation by associating state labels that do not change in a single measurement, feature quantities representing individual differences, and signal components that do not depend on the state labels and individual differences but can change over time with biological signal data A generation model construction unit that builds a model.
2) A learning unit that inputs biological signal data of a plurality of subjects and learns a deep generation model.
3) A feature quantity representing individual differences and a signal component which is not dependent on the state label and individual differences but can vary with time are extracted from the input biosignal data, and the extracted signal components are used for testing using the separated signal components. A state prediction unit that predicts the state of the body.
本発明の状態予測装置の生成モデル構築部において、更に測定環境差を表現する特徴量が、生体信号データに関連付けられ、状態ラベル、個体差を表現する特徴量、測定環境差を表現する特徴量、及び、状態ラベルと個体差と測定環境とに依存しないが時間的に変化し得る信号成分を、生体信号データに関連付けして深層生成モデルが構築されることが好ましい。 In the generation model constructing unit of the state prediction apparatus of the present invention, the feature quantity representing the measurement environment difference is further associated with the biological signal data, and the state label, the feature quantity representing the individual difference, and the feature quantity representing the measurement environment difference. Preferably, a deep generation model is constructed by associating the time-independent signal components which do not depend on the state label, the individual difference and the measurement environment with the biological signal data.
本発明の状態予測装置の深層生成モデルにおいて、同一の被験体の複数の生体信号データが、個体差を表現する特徴量を共有し、特に、深層生成モデルが、VAEで構成される場合には、個体差を表現する特徴量は、事前分布に従う潜在変数としてモデル化される。
同様に、深層生成モデルにおいて、同一の測定環境で計測された複数の生体信号データが、測定環境差を表現する特徴量を共有し、特に、深層生成モデルが、VAEで構成される場合には、測定環境差を表現する特徴量は、事前分布に従う潜在変数としてモデル化される。
In the deep generation model of the state prediction device of the present invention, a plurality of biosignal data of the same subject share a feature amount expressing individual difference, especially when the deep generation model is configured by VAE. , The feature quantity expressing the individual difference is modeled as a latent variable following a prior distribution.
Similarly, in the deep generation model, a plurality of biological signal data measured in the same measurement environment share a feature amount expressing the measurement environment difference, especially when the deep generation model is configured by VAE. The feature quantity representing the measurement environment difference is modeled as a latent variable following a prior distribution.
また、本発明の状態予測装置における学習部では、個体差を表現する特徴量の推定に、1つの生体信号データと状態ラベルを入力として活性値を出力する第1のニューラルネットワークと、生体信号データの集合から得られた活性値の平均を入力として、個体差を表現する特徴量を出力する第2のニューラルネットワークとから構成される集団符号化器を用いる。
同様に、学習部では、測定環境差を表現する特徴量の推定に、1つの生体信号データと状態ラベルを入力として活性値を出力する第1のニューラルネットワークと、生体信号データの集合から得られた活性値の平均を入力として、測定環境差を表現する特徴量を出力する第2のニューラルネットワークとから構成される集団符号化器を用いる。
本発明の状態予測装置は、被験体の状態予測した結果を表示する表示部を更に備える。
In the learning unit of the state prediction device of the present invention, a first neural network that outputs one biosignal data and a state label as an input and outputs an activity value is used for estimating a feature amount expressing an individual difference; And a second neural network that outputs an amount of feature representing an individual difference, using an average of the activity values obtained from the set of...
Similarly, in the learning unit, a first neural network that outputs one biosignal data and a state label as inputs and outputs an activity value, and a set of biosignal data are used for estimating a feature amount representing a measurement environment difference. A collective encoder composed of a second neural network that outputs a feature quantity representing a measurement environment difference with the average of the activity values obtained as an input is used.
The state prediction device of the present invention further includes a display unit that displays a result of the state prediction of the subject.
本発明の状態予測プログラムは、上述の本発明の状態予測方法における各ステップを、コンピュータに実行させるためのプログラムである。また、本発明の状態予測プログラムは、上述の本発明の状態予測装置における生成モデル構築部、学習部、及び状態予測部として、コンピュータを機能させるためのプログラムである。 The state prediction program of the present invention is a program for causing a computer to execute each step in the above-described state prediction method of the present invention. Further, the state prediction program of the present invention is a program for causing a computer to function as the generation model construction unit, the learning unit, and the state prediction unit in the above-described state prediction device of the present invention.
本発明によれば、被験体毎に追加の学習又は調整を行うことなく、被験体の生体信号データから個体差に関係する特徴量を抽出し分離して、疾患診断精度の向上と疾患関連信号の可視化を図れる効果がある。また測定環境差に関係する特徴量を抽出し分離して、更なる精度向上を図ることができる。 According to the present invention, without performing additional learning or adjustment for each subject, extract and separate features related to individual differences from the biological signal data of the subject, to improve disease diagnosis accuracy and disease-related signals This has the effect of visualizing. Further, it is possible to extract and separate feature amounts related to the measurement environment difference, and to further improve accuracy.
以下、本発明の実施形態の一例を、図面を参照しながら詳細に説明していく。なお、本発明の範囲は、以下の実施例や図示例に限定されるものではなく、幾多の変更及び変形が可能である。 Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. It should be noted that the scope of the present invention is not limited to the following embodiments and illustrated examples, and various changes and modifications are possible.
本発明の状態予測方法及び状態予測装置について、生体信号データとして磁気共鳴機能画像法(fMRI;functional Magnetic Resonance Imaging)の脳機能画像データを例に挙げて説明する。fMRIは、MRIを利用して人や動物の脳活動に関連する血流動態反応を視覚化するものであり、MRIが提供する構造情報の上に、脳の機能活動が生じた部位を画像化する。
本実施例の状態予測方法では、複数の被験体の脳機能画像を測定して得られた時系列の脳機能画像データを入力として、深層ニューラルネットワークによる深層生成モデルを用いて被験体の状態を予測する。先ず、一度の計測において変化しない状態ラベル、個体差を表現する特徴量、及び、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を、脳機能画像データに関連付けして、深層生成モデルを構築する。次に、構築した深層生成モデルに対して、複数の被験体の時系列の脳機能画像データを入力して深層生成モデルを学習する。そして、入力した脳機能画像データから、個体差を表現する特徴量と、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を抽出し、抽出した特徴量と信号成分を分離した後の信号成分を用いて被験体の状態予測を行う。
The state prediction method and the state prediction apparatus of the present invention will be described by taking as an example the brain function image data of magnetic resonance functional imaging (fMRI) as biological signal data. fMRI uses MRI to visualize the hemodynamic response related to brain activity in humans and animals.Based on the structural information provided by MRI, an image of the site where brain functional activity occurred I do.
In the state prediction method according to the present embodiment, the state of the subject is determined by using a time-series brain function image data obtained by measuring brain function images of a plurality of subjects and using a deep generation model by a deep neural network. Predict. First, a state label that does not change in a single measurement, a feature amount that represents individual differences, and a signal component that does not depend on the state label and the individual difference but can change over time are associated with brain function image data, Build a deep generation model. Next, time-series brain function image data of a plurality of subjects is input to the constructed deep generation model to learn the deep generation model. Then, from the input brain function image data, a feature representing the individual difference and a signal component which is not dependent on the state label and the individual difference but can change over time are extracted, and the extracted feature and the signal component are separated. The state of the subject is predicted using the signal component after the above.
図1は、本発明の状態予測方法のフローの一実施形態を示している。図1のフローでは、個体差を表現する特徴量にフォーカスしてフローを示しているが、個体差を表現する特徴量以外に、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分も、個体差を表現する特徴量と同様に処理している。
図1に示すように、個体差を表現する特徴量と、状態ラベルと、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を、脳機能画像データに関連付けして、深層生成モデルを構築する(ステップS01)。構築した深層生成モデルの最適化のために、学習用の複数の被験体の脳機能画像データを入力し(ステップS02)、深層生成モデルを繰り返し学習する(ステップS03)。反復学習が完了すれば(ステップS04)、個体差を表現する特徴量、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を抽出し分離する(ステップS05)。予測対象の被験体の脳機能画像データを入力し(ステップS06)、入力した脳機能画像データから、個体差を表現する特徴量と、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を抽出し分離(ステップS07)した後の信号成分を用いて、被験体の状態予測を行う(ステップS08)。
FIG. 1 shows an embodiment of the flow of the state prediction method of the present invention. In the flow of FIG. 1, the flow is shown focusing on the feature amount expressing the individual difference. However, in addition to the feature amount expressing the individual difference, the flow does not depend on the state label and the individual difference but may change over time. The signal components are also processed in the same manner as the feature values expressing individual differences.
As shown in FIG. 1, a feature quantity representing an individual difference, a state label, and a signal component which is not dependent on the state label and the individual difference but can change with time are associated with brain function image data, A generation model is constructed (step S01). In order to optimize the constructed deep generation model, brain function image data of a plurality of subjects for learning is input (step S02), and the deep generation model is repeatedly learned (step S03). When the iterative learning is completed (step S04), a feature component expressing the individual difference, a signal component which does not depend on the state label and the individual difference but can change with time is extracted and separated (step S05). The brain function image data of the subject to be predicted is input (step S06), and from the input brain function image data, a temporal amount that does not depend on the feature quantity expressing the individual difference, the state label, and the individual difference, but changes. The state of the subject is predicted using the signal components obtained by extracting and separating the obtained signal components (step S07) (step S08).
図2は、本発明の状態予測装置の一実施形態の機能ブロック図を示している。
状態予測装置1は、複数の被験体の脳機能画像を測定して得られた時系列の脳機能画像データを入力として、深層ニューラルネットワークによる深層生成モデルを用いて被験体の状態を予測する装置である。生成モデル構築部2では、入力した時系列の脳機能画像データに、状態ラベル、個体差を表現する特徴量、及び、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を関連付けして深層生成モデルを構築する。学習部3では、複数の被験体の脳機能画像データを入力して深層生成モデルを繰り返し学習する。そして、学習済の深層生成モデルを用い、入力した時系列の脳機能画像データから、個体差を表現する特徴量と、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を抽出し、分離した後の信号成分を用いて、被験体の状態予測を行い、状態の予測結果を表示パネルに表示する。
FIG. 2 shows a functional block diagram of an embodiment of the state prediction device of the present invention.
The state prediction apparatus 1 is an apparatus that receives time-series brain function image data obtained by measuring brain function images of a plurality of subjects, and predicts the state of the subject using a deep generation model based on a deep neural network. It is. The generation model constructing unit 2 adds, to the input time-series brain function image data, a state label, a feature amount expressing an individual difference, and a signal component which is not dependent on the state label and the individual difference but can change with time. Build a deep generation model by associating. The learning unit 3 inputs brain function image data of a plurality of subjects and repeatedly learns a deep generation model. Then, using the trained deep generation model, from the input time-series brain function image data, a feature quantity representing an individual difference and a signal component which is not dependent on the state label and the individual difference but can change over time are obtained. The state of the subject is predicted using the extracted and separated signal components, and the result of the state prediction is displayed on the display panel.
(深層生成モデルについて)
次に、本実施例の深層生成モデルについて、図3に示す構成模式図を用いて説明する。
以下では、生体信号データとして脳機能画像データを例に挙げて、深層生成モデルを説明する。脳機能画像データのデータセットをD={xi,yi}N i=1と表す。ここで、Nは被験体数、iはインデックス番号であり、xiは被験体iから得られた脳機能画像データの集合、yiは被験体iの疾患の状態ラベル(診断結果)である。状態ラベルyiにおいて、y=0が疾患無し、y=1が疾患有りの状態を意味する。被験体iからはTi枚の脳機能画像が得られているとし、xi={xi,t}Ti t=1で表す。
(About the deep generation model)
Next, a deep generation model of the present embodiment will be described with reference to a schematic configuration diagram shown in FIG.
In the following, a deep generation model will be described using brain function image data as an example of biosignal data. Representing the data set of the brain functional image data D = {x i, y i } and N i = 1. Here, N number of subjects, i is an index number, x i is a set of brain functional image data obtained from a subject i, y i is the state label of a disease in a subject i (diagnosis result) . In the state label yi , y = 0 means no disease, and y = 1 means a diseased state. And T i pieces of brain functional image is obtained from a subject i, represented by x i = {x i, t } Ti t = 1.
深層生成モデルにおいて、各被験体iには、疾患の有無とは別に個体差が存在すると仮定する。脳機能画像データにおける個体差とは、被験体によって脳の大きさや形状が異なること、抽象的な意味での脳の使い方や癖などが該当する。なお、脳の大きさや形状の個体差は、脳機能画像データの前処理によって除去が可能な要素であるが、完全に除去することは実際上困難である。ここで、脳機能画像データの前処理とは、磁場の安定を確保するために測定し始めの数枚の脳機能画像をデータから除外したり、撮像平面ごとのタイミングの補正、体動の補正、観測点の座標を標準脳座標系、例えばMNI(Montreal. Neurological Institute)座標系に変換する(空間正規化を行う)ことなどの処理をいう。 In the deep generation model, it is assumed that each subject i has an individual difference independently of the presence or absence of a disease. The individual differences in the brain function image data correspond to the fact that the size and shape of the brain differ depending on the subject, the usage and habits of the brain in an abstract sense, and the like. The individual differences in the size and shape of the brain are elements that can be removed by preprocessing brain function image data, but it is actually difficult to completely remove them. Here, the pre-processing of the brain function image data is to exclude from the data several brain function images to be measured to secure the stability of the magnetic field, to correct the timing for each imaging plane, and to correct the body movement. And converting the coordinates of the observation point into a standard brain coordinate system, for example, an MNI (Montreal. Neurological Institute) coordinate system (performing spatial normalization).
深層生成モデルは、この個体差が、事前分布p(s)に従う特徴量siで表現され、脳機能画像データxiを生成する直接観測不可の潜在変数としてモデル化される。図3に示すように、各脳機能画像データxi,tは、状態ラベルyi、個体差を表現する特徴量(以下、個体差という)si、そして状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分(以下、潜在変数という)zi,tに紐付けられる構成である。潜在変数zi,tは、事前分布p(z)に従い、脳機能画像ごとのばらつきを表現するものである。例えば、脳機能画像データの採取中に被験体が頭で考えていたことや、前処理で除去しきれなかった体動などが相当する。 Deep generation model, the individual differences, is expressed by the feature s i according to the prior distribution p (s), is modeled as a latent variable direct unobservable to generate a brain functional image data x i. As shown in FIG. 3, each brain function image data x i, t does not depend on a state label y i , a feature quantity (hereinafter, referred to as an individual difference) s i representing an individual difference, and a state label and an individual difference. Is linked to a signal component (hereinafter, referred to as a latent variable) z i, t that can change with time. The latent variable z i, t expresses a variation for each brain function image according to the prior distribution p (z). For example, it corresponds to what the subject thought with his or her head while collecting brain function image data, or body motion that could not be completely removed by preprocessing.
図4は、深層生成モデルを用いた深層ニューラルネットワークの概念図を示している。例えば、被験体iからTi枚の脳機能画像データ5を入力し、状態ラベルと個体差を考慮して、符号化(Encorder)プロセスによって次元数を減らし、潜在変数zi,tの事後分布を求め、入力した脳機能画像データ5から、復号化(Decorder)プロセスによって脳機能画像データ5´を復号する。被験体以外の学習用データの脳機能画像データ5とその状態の入力を繰返し、バックワード計算において、入力した脳機能画像データ5と出力した脳機能画像データ5´の差を減らすように重みパラメータを変更する。入力する脳機能画像データとその状態ラベルが繰り返し与えられることによって、重みパラメータは改善されていく。 FIG. 4 is a conceptual diagram of a deep neural network using a deep generation model. For example, enter the brain functional image data 5 of the T i Like the subject i, taking into account the state labels and individual differences, reduces the number of dimensions by coding (Encoder) process, the posterior distribution of the latent variable z i, t Is obtained, and the brain function image data 5 ′ is decoded from the input brain function image data 5 by a decoding (Decorder) process. The brain function image data 5 of the learning data other than the subject and the input of the state are repeated, and the weight parameter is set so as to reduce the difference between the input brain function image data 5 and the output brain function image data 5 ′ in the backward calculation. To change. The weight parameter is improved by repeatedly inputting the brain function image data and its state label.
状態ラベルyiを条件とした脳機能画像データxiの生成モデルpθは、図3の模式図に示すように構築される。図3において、実線矢印a〜cは生成モデルによる復号化を示し、構築された生成モデルpθでは、状態ラベルyiと個体差siと潜在変数zi,tから、脳機能画像データxi,tが生成される(実線矢印a〜c)。VAEで構成される場合、生成モデルpθは、下記数式で表される。 State generator model p theta label y i brain function was subject to image data x i, is constructed as shown in the schematic diagram of FIG. 3, solid arrows a~c indicates the decoding by generating model, the generation model p theta constructed from the state label y i and individual differences s i and latent variable z i, t, brain functional image data x i and t are generated (solid arrows a to c). If comprised of VAE, the generative model p theta, expressed by the following equation.
深層生成モデルを単体で学習させることは非常な困難が伴うため、例えば、推論モデルあるいは符号化器と呼ばれる別の深層ニューラルネットワークを導入し、変分法を用いて学習する。ただし、VAEで構成されない場合、必ずしも推論モデルは必要ではない。
図3において、点線矢印d〜hは推論モデルによる符号化を示している。推論モデルを用いて脳機能画像データxi,tと状態ラベルyiからそれぞれ個体差siと潜在変数zi,tが推論され(点線矢印d〜g)、さらに、個体差siから潜在変数zi,tが推論される(点線矢印h)。推論モデルqφを用いた変分推論により、上記の生成モデルpθのモデルエビデンスlogp(xi|yi)の下界は、下記数式のように表される。
Since it is very difficult to learn a deep generation model by itself, for example, another deep neural network called an inference model or an encoder is introduced, and learning is performed using a variational method. However, if it does not consist of VAE, an inference model is not always necessary.
In FIG. 3, dotted arrows d to h indicate encoding by an inference model. Brain function using an inference model image data x i, t and a state label y i respectively from individual differences s i and latent variable z i, t is deduced (dotted arrows D-G), furthermore, potentially from individual differences s i The variable z i, t is inferred (dotted arrow h). The variational inference with inference model q phi, model evidence logp the above product model p theta | lower bound (x i y i) is expressed as following equation.
ここで、DKL(・||・)は、Kullback−Leibler divergenceであり、Lg(xi,yi)はモデルエビデンスの下界(ELBO:Evidence Lower BOund)である。ELBOは生成モデルpθと推論モデルqφの目的関数に相当する。モデルエビデンスlogp(xi|yi)の近似値として、ELBO Lg(xi,yi)を用いることにより、被験体iの状態ラベルyiの事後確率p(yi|xi)をベイズの定理を用いて下記数式のように表現できる。 Here, D KL (· || ·) is the Kullback-Leibler divergence, L g ( x i, y i) is the model Evidence lower bound: a (ELBO Evidence Lower BOund). ELBO corresponds to the objective function of the inference model q phi and generative model p theta. Model Evidence logp | as an approximation of (x i y i), ELBO L g (x i, y i) by using the posterior probability p status label y i of the subject i | a (y i x i) Using Bayes' theorem, the following equation can be used.
ここで、状態ラベルyの事前確率p(y)は、例えば、p(y=0)=p(y=1)=0.5と仮定する。つまり、ELBO Lg(xi,y=1)が大きいほど、被験体iは対象となる状態である可能性が高いと言える。また状態ラベルyiの事前確率の対数logp(yi|xi)の近似値Ld(xi,yi)も目的関数になり得る。これにより、2つの状態ラベルを明確に識別するようにモデルを学習させることができる。なお、単なる識別モデルと化すことを防ぐため、重みパラメータω∈[0,1]を用いて、2つの目的関数を下記数式のように調整し、L(xi,yi)を最終的な目的関数としてもよい(この目的関数に関する詳細については非特許文献5を参照)。 Here, it is assumed that the prior probability p (y) of the state label y is, for example, p (y = 0) = p (y = 1) = 0.5. That, ELBO L g (x i, y = 1) The larger the subject i can be said to likely a state of interest. The logarithm logp of state label y i prior probability of (y i | x i) the approximate value L d (x i, y i ) also can be an objective function. Thereby, the model can be trained so as to clearly identify the two state labels. In order to prevent the collapse into a mere identification model, using the weight parameters ω∈ [0,1], to adjust the two objective functions as following equation, the final the L (x i, y i) It may be an objective function (see Non-Patent Document 5 for details regarding this objective function).
(深層生成モデルの構築について)
ここでは、深層ニューラルネットワークを用いて、生成モデルpθと推論モデルqφを実装することにより、深層生成モデルを構築する方法について説明する。
例えば、脳機能画像データが前処理された後、得られた脳機能画像データxi,t、個体差si、潜在変数zi,tを、それぞれnx次元、ns次元、nz次元のベクトルとする。
例えば、時系列の脳機能画像データにおいて、116の領域(ROI;Regions-Of-Interest)に分割され、それぞれの領域で信号強度を平均化して116次元のベクトルが得られる場合には、脳機能画像データxi,tの次元数は116である(nx=116)。個体差として、年齢、性別、脳の大きさ、形状、脳の使い方、薬物の使用歴やその他の精神疾患の既往歴などが考えられる。それらが10次元のベクトルで表現される場合には、個体差siの次元数は10である(ns=10)。なお、個体差の特徴量において、1つの特徴量が必ずしも1次元であるとは限らず、例えば既往歴のように複雑な特徴量では、1つの特徴量が数次元で表現される。
(About construction of deep generation model)
Here, using a deep neural networks, by implementing the product model p theta inference model q phi, we describe a method of constructing a deep generation model.
For example, after the brain function image data is pre-processed, the obtained brain function image data x i, t , individual difference s i , and latent variable z i, t are converted into nx dimension, ns dimension, and nz dimension, respectively. Vector.
For example, in the time-series brain function image data, when a 116-dimensional vector is obtained by dividing into 116 regions (Regions-Of-Interest) and averaging the signal intensity in each region, The number of dimensions of the image data x i, t is 116 ( nx = 116). Individual differences may include age, gender, size and shape of the brain, brain usage, drug use history and other psychiatric illnesses. They When expressed in 10-dimensional vector, the number of dimensions of individual differences s i is 10 (n s = 10). In addition, in the feature amount of the individual difference, one feature amount is not always one-dimensional. For example, in a complicated feature amount such as a past history, one feature amount is expressed in several dimensions.
深層生成モデルが、VAEで構成される場合、多次元同時確率分布のパラメータである潜在変数zi,t,状態ラベルyi,個体差siを推定するために、潜在変数に事前分布を仮定して、深層ニューラルネットワークの出力に事後分布が現われるように、深層ニューラルネットワークで学習する。
一例として、生成モデルは、復号化器(decoder)と呼ばれる単一の深層ニューラルネットワークで構成され、脳機能画像データxi,tの事後分布pθ(xi,t|zi,t,yi,si)は、再パラメータ化の手法を用いて、対角行列を分散共分散行列に持つnz次の多変量ガウス分布N(μxi,t,diag(σxi,t))で表現される。ここで、μxi,tは、脳機能画像データxi,tの事後分布の平均ベクトルであり、σxi,tは脳機能画像データxi,tの事後分布の分散ベクトルである。再パラメータ化の手法とは、データを点推定で出力するのではなく、データの事後分布のパラメータを出力する手法であり、再パラメータ化の手法を用いることにより、データの曖昧さやばらつきなどを含めて推定できる。
When the deep generation model is composed of VAE, a prior distribution is assumed for the latent variables in order to estimate latent variables z i, t , state labels y i , and individual differences s i which are parameters of the multidimensional simultaneous probability distribution. Then, learning is performed by the deep neural network so that the posterior distribution appears in the output of the deep neural network.
As an example, generation model consists of a single deep neural network called a decoder (decoder), brain functional image data x i, the posterior distribution of t p θ (x i, t | z i, t, y i , s i ) is an nz- order multivariate Gaussian distribution N (μx i, t , diag (σx i, t )) having a diagonal matrix as a variance-covariance matrix using a reparameterization technique. Is expressed. Here, μx i, t is an average vector of the posterior distribution of the brain function image data x i, t , and σx i, t is a variance vector of the posterior distribution of the brain function image data x i, t . The re-parameterization method is a method that outputs the data of the posterior distribution of the data instead of outputting the data by point estimation, and by using the re-parameterization method, it includes the ambiguity and variation of the data. Can be estimated.
推論モデルは、一例として、2×nx個の出力ユニットを持ち、そのうちnx個のユニットは恒等関数を活性化関数として用いて、事後分布の平均ベクトルμxi,tを表現する。残るnx個のユニットは指数関数を活性化関数として用いて、事後分布の分散ベクトルσxi,tを表現する。
推論モデルのうち、状態ラベルと個体差に依存しないが時間的に変化し得る信号成分(潜在変数)zi,tを推論する部分に関しては、同じく符号化器(encoder)と呼ばれる単一の深層ニューラルネットワークによって実装され、復号化器と同様に、再パラメータ化によって事後分布qθ(zi,t|xi,t,yi,si)を表現する。
Inference model, as an example, have a 2 × n x number of output units, of which n x number of units using the identity function as activation function, representing the mean vector μx i, t of the posterior distribution. N x number of units remaining using an exponential function as the activation function, representing the distributed vector sigma] x i, t of the posterior distribution.
The part of the inference model that infers a signal component (latent variable) z i, t that does not depend on the state label and the individual difference but can change with time is a single deep layer also called an encoder. is implemented by the neural network, like the decoder, posterior distributions q theta by reparameterized (z i, t | x i , t, y i, s i) to express.
一方、推論モデルのうち個体差siを推論する事後分布qθ(si|xi,yi)については調整が必要である。この推論モデルでは、被験体i毎に、長さの一定ではない脳機能画像データの集合xi={xi,t}Ti t=1を入力として受け取る必要があるため、集団符号化器(collection-encoder)を用いて深層学習を行う。集団符号化器は、図5に示すように、個々の脳機能画像データxi,tとそれに関連付けされた状態ラベルyiを入力として活性値を出力する第1のニューラルネットワーク11と、脳機能画像データの集合から得られた活性値の平均化した値を入力として、個体差siを推論する事後分布qθ(si|xi,yi)を出力する第2のニューラルネットワーク12とから構成される。なお、図5において、信号処理のフローは下から上へとなっている。 On the other hand, post infer individual differences s i of the inference model distribution q theta | adjustment is necessary for the (s i x i, y i ). In this inference model, a set of brain function image data xi = {xi , t } Tit = 1 of non-constant length needs to be received as an input for each subject i. Perform deep learning using collection-encoder). As shown in FIG. 5, the collective encoder includes a first neural network 11 that outputs an activity value by inputting individual brain function image data x i, t and a state label y i associated therewith, A second neural network 12 that outputs an a posteriori distribution q θ (s i | x i , y i ) for inferring the individual difference s i with an average value of the activity values obtained from the set of image data as an input; Consists of In FIG. 5, the flow of signal processing is from bottom to top.
集団符号化器の第1のニューラルネットワーク11は、1枚の脳機能画像データxi,tと状態ラベルyiを入力し、活性値hi,tを出力する。集団符号化器の第2のニューラルネットワーク12は、脳機能画像データの集合xi={xi,t}Ti t=1から得られた活性値hi={hi,t}Ti t=1から求められた平均値(1/Ti×ΣTi t=1{hi,t})を入力とし、再パラメータ化を用いて個体差siの事後分布qθ(si|xi,yi)を出力する。
具体例で説明すると、図6に示すように、第1のニューラルネットワーク11では、脳機能画像1において分割した116の領域(ROI)の信号強度に基づく116次元の信号データとそれに関連付けされた状態ラベルy1を入力する。同様に、脳機能画像2、脳機能画像3、・・・、脳機能画像TiのROIの信号強度に基づく116次元の信号データとそれに関連付けされた状態ラベルyTiを入力する。第2のニューラルネットワーク12では、脳機能画像データの集合から得られた活性値の平均化した値を入力として、個体差siを推論する事後分布qθ(si|xi,yi)を出力する。
The first neural network 11 of the population encoder one brain functional image data x i, enter the t and state label y i, and outputs the activation value h i, t. Second neural network 12 of the population encoder set of brain functional image data x i = {x i, t } Ti t = activity obtained from 1 value h i = {h i, t } Ti t = mean values obtained from 1 (1 / T i × Σ Ti t = 1 {h i, t}) with an input, the posterior distribution q of individual differences s i by using a re-parameterization theta (s i | x i , Y i ).
Specifically, as shown in FIG. 6, in the first neural network 11, 116-dimensional signal data based on the signal intensities of the 116 regions (ROIs) divided in the brain function image 1 and a state associated therewith. to enter a label y 1. Similarly, brain function image 2, brain function image 3,..., 116-dimensional signal data based on the signal strength of the ROI of brain function image Ti and state label y Ti associated therewith are input. In the second neural network 12, as inputs averaged value of the active values obtained from a set of brain functional image data, the posterior distribution q to infer individual differences s i θ (s i | x i, y i) Is output.
そして、被験体iの複数の脳機能画像データが直接観測できない個体差siの事後分布qθ(si|xi,yi)を共有しているとし、深層生成モデルを構築する。すなわち、同一被験体の複数の脳機能画像データであれば、個体差siの事後分布qθ(si|xi,yi)を共有しているとする。この深層生成モデルの構造は、脳機能画像データが持つ構造を模しており、適切な拘束条件として作用する。 Then, a plurality of functional brain imaging data of the subject i is posterior distribution q theta individual differences s i can not be observed directly | a (s i x i, y i) are sharing, to build a deep generation model. That is, when the plurality of functional brain imaging data of the same subject, the posterior distribution of individual differences s i q θ (s i | x i, y i) and share the to. The structure of the deep generation model imitates the structure of the brain function image data, and acts as an appropriate constraint.
本実施例では、符号化器と復号化器にはそれぞれ3層の人工ニューラルネットワークを用いた。図7(1)は符号化器の構成、図7(2)は復号化器の構成を示している。また集団符号化器は、図5の構成模式図に示したとおり、第1のニューラルネットワーク11に2層の人工ニューラルネットワークを、第2のニューラルネットワーク12に1層の人工ニューラルネットワークを用いた。
具体例で説明すると、図8に示すように、符号化器では、時系列の脳機能画像データ(入力データ)の116の領域(ROI)の信号強度に基づく116次元の信号データとそれに関連付けされた状態ラベルyiと個体差siを入力する。各中間層(隠れ層)では、それぞれ正規化が行われ、活性化関数としてReLUを用いる。符号化器の人工ニューラルネットワークは、脳機能画像データxi,tの事後分布の平均ベクトルμ、分散ベクトルσを算出し、潜在変数zi,tの事後分布qθ(zi,t|xi,t,yi,si)を表現する。
In this embodiment, an artificial neural network having three layers is used for each of the encoder and the decoder. FIG. 7A shows the configuration of the encoder, and FIG. 7B shows the configuration of the decoder. Further, as shown in the schematic configuration diagram of FIG. 5, the collective encoder used a two-layer artificial neural network for the first neural network 11 and a one-layer artificial neural network for the second neural network 12.
To describe this in a specific example, as shown in FIG. 8, the encoder associates 116-dimensional signal data based on the signal strength of the 116 regions (ROI) of the time-series brain function image data (input data) and associates them with the signal data. to enter a state label y i and individual differences s i was. In each intermediate layer (hidden layer), normalization is performed, and ReLU is used as an activation function. The artificial neural network of the encoder calculates the mean vector μ and the variance vector σ of the posterior distribution of the brain function image data xi , t , and calculates the posterior distribution q θ (zi , t | x of the latent variable zi , t. i, t , y i , s i ).
上述の如く、状態ラベルyiの事前確率の対数logp(yi|xi)の近似値のELBO Lg(xi,yi)は、目的関数となり期待値の計算が必要である。そのため、深層学習の訓練時において、個体差siと潜在変数zi,tを訓練の反復毎に1回サンプルして近似させ、検証時にはそれぞれのMAP推定(事後分布を表現する平均ベクトルμzi,t)を用いた。
なお、人工ニューラルネットワークは、Adam optimization algorithmなどの最適化アルゴリズムを用いて訓練し、また、状態間の被験体数の不均衡は、オーバーサンプル法によって調整した。
As described above, the logarithmic logp of the prior probability of the state label y i | ELBO L g (x i, y i) of the approximate value of (y i x i), it is necessary to calculate the expected value becomes the objective function. Therefore, at the time of deep learning training, the individual difference s i and the latent variable z i, t are sampled and approximated once every training iteration, and at the time of verification, each MAP estimation (average vector μ zi representing the posterior distribution) is performed. , t ) was used.
The artificial neural network was trained using an optimization algorithm such as the Adam optimization algorithm, and the imbalance in the number of subjects between states was adjusted by the oversampling method.
図9に、時系列の脳機能画像データのデータ構造の一例を示す。図9(1)のテーブルは、時系列の脳機能画像データ(入力データxi,t)の116の領域1〜116(ROI−1〜ROI−116)の信号強度に基づく116次元の信号データを示している。これらの信号データは、時系列の脳機能画像から得られ、時間的に変化するデータである。
一方、これらの116次元の信号データに関連付けされた状態ラベルyiと個体差siは、時系列の脳機能画像において時間的に変化しない(時不変)。状態ラベルyiは、一度の計測において状態は変化しないものであり、個体差siも計測中に被験体が入れ替わることはなく同一の被験体である限り、計測において変化しないものである。図9(2)のテーブルに示すように、例えば、個体差siが10次元で表現されるとする。なお、上述の如く、個体差の特徴量において、1つの特徴量が必ずしも1次元であるとは限らず、そのため特徴数と次元数は必ずしも一致しない。また、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分(潜在変数)zi,tも、116次元の信号データに関連付けされる。潜在変数zi,tは、状態ラベルyiと個体差siと異なり、時間的に変化するものである。図9の下のテーブルに示すように、例えば、状態ラベルと個体差とに依存しない信号成分(潜在変数)zi,tが1〜32存在し、次元数も32とする。
この場合、時系列の脳機能画像データ(入力データxi,t)である116次元の信号データは、状態ラベルyiと、個体差siと、潜在変数zi,tの次元数の合計43(=1+10+32)となり、推論される個体差siと潜在変数zi,tは、事後分布で表現されるのである。
FIG. 9 shows an example of the data structure of time-series brain function image data. The table in FIG. 9A shows 116-dimensional signal data based on the signal intensities of 116 regions 1 to 116 (ROI-1 to ROI-116) of the time-series brain function image data (input data x i, t ). Is shown. These signal data are obtained from time-series brain function images, and are data that changes with time.
On the other hand, the state label y i and the individual difference s i associated with these 116-dimensional signal data do not temporally change (time-invariant) in a time-series brain function image. The state label y i is such that the state does not change in one measurement, and the individual difference s i does not change in the measurement as long as the subject does not change during the measurement and remains the same. As shown in the table of FIG. 9 (2), for example, the individual differences s i is expressed by 10-dimensional. As described above, in the feature amount of the individual difference, one feature amount is not always one-dimensional, and therefore, the number of features does not always match the number of dimensions. Further, a signal component (latent variable) z i, t that does not depend on the state label and the individual difference but can change with time is also associated with the 116-dimensional signal data. The latent variable z i, t is different from the state label y i and the individual difference s i and changes with time. As shown in the lower table of FIG. 9, for example, there are 1 to 32 signal components (latent variables) zi , t that do not depend on the state label and the individual difference, and the number of dimensions is 32.
In this case, when the brain functional image data (input data x i, t) of the series signal data 116 D is includes a status label y i, and individual differences s i, the sum of the latent variable z i, the number of dimensions of t 43 (= 1 + 10 + 32), and the inferred individual difference s i and the latent variable z i, t are expressed by a posterior distribution.
(実験に用いた脳機能画像データについて)
脳機能画像データは、オープンデータベース(Open fMRI)から、統合失調症と双極性障害のデータベースを入手し、以下に説明する前処理を行って使用した。前処理は、磁場の安定を確保するために各被験体の最初の10枚の脳機能画像を破棄し、時間方向の調整、体動の補正、そしてMNI座標系を用いた空間正規化を行った。AAL(Automated anatomical labeling)テンプレートにより、116の領域(ROI)に分割し、それぞれで信号強度を平均化し、116次元のベクトルxi,tを得た。データの洗浄として、1.5mmもしくは1.5°以上の体動が検出された瞬間から、以降の脳機能画像をすべて破棄した。
破棄した結果、脳機能画像が100枚未満しか残らなかった被験体は、被験体のデータ全てを破棄した。また撮像位置のずれなどにより、MNI座標系に変換できなかった被験体のデータも破棄した。結果的にコントロール群の被験体数は113、統合失調症の被験体数は44人、双極性障害の被験体数は45人のデータを得た。
(About brain function image data used in the experiment)
The brain function image data was obtained by obtaining a database of schizophrenia and bipolar disorder from an open database (Open fMRI) and performing the preprocessing described below. In the preprocessing, the first 10 brain function images of each subject are discarded in order to secure the stability of the magnetic field, and the time direction adjustment, body motion correction, and spatial normalization using the MNI coordinate system are performed. Was. An AAL (Automated Anatomical Labeling) template was used to divide into 116 regions (ROIs), and the signal intensities were averaged for each of them to obtain a 116-dimensional vector xi , t . As the data washing, from the moment when the body movement of 1.5 mm or 1.5 ° or more was detected, all subsequent brain function images were discarded.
As a result of discarding, a subject in which only less than 100 brain function images remained discarded all of the subject data. In addition, data of subjects that could not be converted to the MNI coordinate system due to a shift in the imaging position were also discarded. As a result, the number of subjects in the control group was 113, the number of subjects with schizophrenia was 44, and the number of subjects with bipolar disorder was 45.
(予測精度について)
実施例の状態予測方法による予測精度について説明する。予測精度の評価として、従来法(比較例1〜5)との精度比較を行い評価した。
比較例1としては、前処理済の脳機能画像において分割した116の領域(ROI)間のピアソン相関係数(PCC)を機能的結合して用いる方法により予測精度を求め、実施例の状態予測方法による予測精度と比較した。具体的には、比較例1では、ROI間のPCCの機能的結合からケンドールのタウ係数(Kendall τ coefficient)を用いて、m個の特徴を選択し、局所線形埋め込み(LLE;Locally Linear Embedding)により、近傍パラメータkのもとでd次元の多様体に埋め込み、c-means法によりクラスタリングしたものである。
(About prediction accuracy)
The prediction accuracy according to the state prediction method of the embodiment will be described. As the evaluation of the prediction accuracy, the accuracy was compared with the conventional method (Comparative Examples 1 to 5) and evaluated.
As Comparative Example 1, the prediction accuracy was obtained by a method of functionally combining and using the Pearson correlation coefficient (PCC) between the 116 regions (ROIs) divided in the pre-processed brain functional image, and the state prediction of the embodiment was performed. It was compared with the prediction accuracy by the method. Specifically, in Comparative Example 1, m features are selected from the functional coupling of PCC between ROIs using Kendall's tau coefficient (Kendall τ coefficient), and locally linear embedding (LLE: Locally Linear Embedding) is performed. Is embedded in a d-dimensional manifold under the neighborhood parameter k, and clustered by the c-means method.
比較例2として、前処理済みの脳機能画像を用い、サポートベクターマシン(SVM;Support Vector Machine)を用いて状態予測した場合の予測精度と実施例の状態予測方法による予測精度を比較した。ここで、SVMは、脳機能画像を一枚ずつ受け取り、それぞれに対して二値分類の結果を返すものであり、被験体iの診断にはTi枚の脳機能画像に対する分類結果の多数決を用いた。 As Comparative Example 2, using a pre-processed brain function image, the prediction accuracy when state prediction was performed using a support vector machine (SVM) and the prediction precision by the state prediction method of the example were compared. Here, SVM receives brain functional image one by one, which returns a result of binary classification for each, the majority of the classification results for T i pieces of brain functional image is the diagnosis of a subject i Using.
比較例3として、前処理済みの脳機能画像を用い、長期短期記憶(LSTM;Long Short Term Memory)を用いて状態予測した場合の予測精度と実施例の状態予測方法による予測精度を比較した。ここで、LSTMは、再帰構造を持ったニューラルネットワークであり、1の被験体から得られた脳機能画像データの集合xi={xi,t}Ti t=1を順番に受け取り、状態の事後確率p(y|xi)を、ロジスティック関数を用いて出力する。 As Comparative Example 3, using a preprocessed brain function image, the prediction accuracy in the case of performing state prediction using Long Short Term Memory (LSTM) and the prediction accuracy by the state prediction method of the example were compared. Here, the LSTM is a neural network having a recursive structure, and sequentially receives a set of brain function image data x i = {xi , t } Tit = 1 obtained from one subject, and posterior probability p | a (y x i), and outputs using logistic function.
比較例4として、前処理済みの脳機能画像を用い、自己符号化器(AE;Auto-encoder)と隠れマルコフモデルの組み合わせを用いて状態予測した場合の予測精度と実施例の状態予測方法による予測精度を比較した。比較例4では、AEを用いて脳機能画像をd次元に埋め込み、その上で2つの隠れマルコフモデルを学習させた。1つの隠れマルコフモデルは被験体用(pθ(xi,t|y=1))、もう1つはコントロール群用(pθ(xi,t|y=0))である。それぞれの隠れマルコフモデルはガウス分布でモデル化されており、実施例の深層生成モデルと同様にベイズの法則によって、状態の事後確率p(y|xi)を計算する。 As a comparative example 4, using the pre-processed brain function image, the prediction accuracy when the state is predicted using a combination of an auto-encoder (AE; Auto-encoder) and a hidden Markov model, and the state prediction method of the embodiment The prediction accuracy was compared. In Comparative Example 4, the brain function image was embedded in the d dimension using AE, and two hidden Markov models were trained on the embedded image. One hidden Markov model is for the subject ( pθ (xi , t | y = 1)) and the other is for the control group ( pθ (xi , t | y = 0)). Each hidden Markov model is modeled by a Gaussian distribution, and calculates the posterior probability p (y | x i ) of the state by Bayes' law as in the deep generation model of the embodiment.
比較例5として、前処理済みの脳機能画像を用い、発明者らが提案している既知の深層生成モデル、すなわち、脳機能画像xi、状態ラベルyi、そして画像毎の差異zi,tを、符号化器q(zi,t|xi,t,yi)と復号化器p(xi,t|zi,t,yi)を用いて実装するが、被験体の個体差siはモデル化していない生成モデルを用いて状態予測した場合の予測精度と実施例の状態予測方法による予測精度を比較した。 As Comparative Example 5, using a preprocessed brain function image, a known deep generation model proposed by the inventors, that is, a brain function image x i , a state label y i , and a difference z i, t is implemented using an encoder q (zi , t | xi , t , yi ) and a decoder p (xi , t | zi , t , yi ), individual differences s i compared the prediction accuracy by the prediction accuracy and the state prediction method embodiment in which the state prediction using the generated model does not modeled.
データセットが不均衡であり、予測精度の比較項目としては、感度(Sensitivity)=TP/(TP+FN)、特異度(Specicity)=TN/(TN+FP)、バランスした正解率(Balanced accuracy)=0.5×(感度+特異度)を用いている。ここで、TP,TN,FP,FNは、それぞれ、True Positive,True Negative,False Positive,False Negativeを表す。
予測精度の測定結果は、10分割交差検定の5回の平均で採取したものであり、下記表1に示す。表1から実施例の深層生成モデルの場合では、統合失調症のデータセットに対して、比較例1〜5の全ての比較手法より明らかに優れた結果を示し、また、双極性障害のデータセットに対して、ほぼ同等あるいは優れた結果を示すことが確認できた。特に、比較例5の発明者らが提案している既知の深層生成モデルよりも高い精度が得られたという点は、実施例の深層生成モデルに与えた個体差siという構造が適切な拘束条件となっていることを示唆しているといえる。
The data set is imbalanced, and the comparison items of the prediction accuracy include: Sensitivity = TP / (TP + FN), Specificity = TN / (TN + FP), Balanced accuracy = 0. 5 × (sensitivity + specificity) is used. Here, TP, TN, FP, and FN represent True Positive, True Negative, False Positive, and False Negative, respectively.
The measurement results of the prediction accuracy were obtained by averaging five times of 10-fold cross validation, and are shown in Table 1 below. From Table 1, in the case of the deep generation model of the example, the data set of schizophrenia shows clearly superior results to all the comparison methods of Comparative Examples 1 to 5, and the data set of bipolar disorder It was confirmed that almost the same or excellent results were obtained. In particular, that higher accuracy than the known deep generative model inventors of Comparative Example 5 has proposed is obtained, an appropriate structure of individual differences s i gave the deep generation model of Example constraining It can be said that it is a condition.
実施例2の深層生成モデルについて、図10に示す構成模式図を用いて説明する。実施例1と同様に、時系列の脳機能画像データを例に挙げて、深層生成モデルを説明する。図10において、実施例1の構成模式図の図3と同様に、脳機能画像データのデータセットはD={xi,yi}N i=1、Nは被験体数、iはインデックス番号、xiは被験体iから得られた脳機能画像データの集合、yiは被験体iの疾患の状態ラベル(診断結果)である。状態ラベルyiにおいて、y=0が疾患無し、y=1が疾患有りの状態を意味し、被験体iからはTi枚の脳機能画像が得られているとする。実施例2の深層生成モデルでは、各被験体iには、疾患の有無とは別に個体差と測定環境差が存在すると仮定する。脳機能画像データにおける測定環境差とは、脳機能画像の測定に用いた測定機器の分解能や感度の違いなどが該当する。また、測定時の周辺ノイズの違いも該当する。測定環境差は、個人差と同様に、脳機能画像データの前処理によって除去が可能な要素であるが、完全に除去することは実際上困難である。 A deep generation model according to the second embodiment will be described with reference to a schematic configuration diagram illustrated in FIG. Similar to the first embodiment, a deep generation model will be described using time-series brain function image data as an example. 10, similarly to FIG. 3 of the schematic structure of the first embodiment, the data set of brain functional image data D = {x i, y i } N i = 1, N is number of subjects, i is an index number , Xi is a set of brain function image data obtained from the subject i, and y i is a disease state label (diagnosis result) of the subject i. In the state label y i, no y = 0 is a disease, it means a state of y = 1 is there disease, and the T i pieces of brain functional image is from a subject i is obtained. In the deep generation model of Example 2, it is assumed that each subject i has an individual difference and a measurement environment difference independently of the presence or absence of a disease. The measurement environment difference in the brain function image data corresponds to a difference in resolution, sensitivity, and the like of the measuring device used for measuring the brain function image. In addition, a difference in ambient noise at the time of measurement also corresponds. The measurement environment difference is an element that can be removed by preprocessing the brain function image data, similarly to the individual difference, but it is actually difficult to completely remove it.
本実施例の深層生成モデルは、個人差に加えて、測定環境差が、事前分布p(f)に従う特徴量fiで表現され、脳機能画像データxiを生成する直接観測不可の潜在変数としてモデル化される。図10に示すように、各脳機能画像データxi,tは、状態ラベルyi、個体差si、測定環境差を表現する特徴量(以下、測定環境差)fi、そして状態ラベルと個体差と測定環境差に依存しないが時間的に変化し得る信号成分(以下、潜在変数)zi,tに紐付けられる構成である。 Deep generation model of the present embodiment, in addition to individual differences, difference measurement environment is expressed by the feature amount f i according to the prior distribution p (f), directly unobservable latent variables to generate a brain functional image data x i Is modeled as As shown in FIG. 10, each brain function image data x i, t includes a state label y i , an individual difference s i , a feature quantity (hereinafter, a measurement environment difference) f i representing a measurement environment difference, and a state label. This is a configuration that is linked to a signal component (hereinafter, a latent variable) z i, t that does not depend on an individual difference and a measurement environment difference but can change over time.
本実施例の深層生成モデルを用いた深層ニューラルネットワークでは、被験体から脳機能画像データを入力し、図11に示すように、状態ラベルyiと個体差siと測定環境差fiを考慮して、符号化プロセスによって次元数を減らし、潜在変数zi,tの事後分布を求め、入力した脳機能画像データから、復号化プロセスによって脳機能画像データを復号する。被験体以外の学習用データの脳機能画像データとその状態の入力を繰返し、バックワード計算において、入力した脳機能画像データと出力した脳機能画像データの差を減らすように重みパラメータを変更する。入力する脳機能画像データとその状態ラベルが繰り返し与えられることによって、重みパラメータは改善されていく。 The deep neural network using the deep generation model of the present embodiment, by entering the brain functional image data from a subject, as shown in FIG. 11, considering the state label y i and individual differences s i and the measured environmental difference f i Then, the number of dimensions is reduced by the encoding process , the posterior distribution of the latent variables z i, t is obtained, and the brain function image data is decoded from the input brain function image data by the decoding process. The brain function image data of learning data other than the subject and the input of the state are repeated, and in the backward calculation, the weight parameter is changed so as to reduce the difference between the input brain function image data and the output brain function image data. The weight parameter is improved by repeatedly inputting the brain function image data and its state label.
なお、図10において、実線矢印は生成モデルによる復号化を示し、状態ラベルyiと個体差siと測定環境差fiと潜在変数zi,tから、脳機能画像データxi,tが生成される。点線矢印は推論モデルによる符号化を示し、脳機能画像データxi,tと状態ラベルyiからそれぞれ個体差siと測定環境差fiと潜在変数zi,tが推論され、さらに、個体差siと測定環境差fiとから潜在変数zi,tが推論される。
上記の深層ニューラルネットワークを用いて、生成モデルpθと推論モデルqφを実装することにより、深層生成モデルを構築する方法についての説明は、実施例1と同様であり割愛する。
In FIG. 10, solid arrows indicate decoding by the generation model, and the brain function image data x i, t is obtained from the state label y i , the individual difference s i , the measurement environment difference f i, and the latent variable z i, t. Generated. Dotted arrows indicate encoding by an inference model , and individual differences s i , measurement environment differences f i, and latent variables z i, t are inferred from brain function image data xi , t and state labels y i , respectively. A latent variable z i, t is inferred from the difference s i and the measurement environment difference f i .
Using the above deep neural network, by implementing a generation model p theta inference model q phi, explanation of how to build a deep generation model is omitted the same as in Example 1.
(その他の実施例)
上述の実施例1では、生体信号データとしてfMRIの脳機能画像データを例に挙げて説明したが、本発明の状態予測方法及び状態予測装置は、発汗測定、心電図測定、脳波測定など他の時系列の生体信号データに対しても適用できる。
(1)発汗測定の場合、例えば、ヒトの全身の発汗部位(手のひら、足の裏、額、脇の下など)の測定ポイント(仮に25カ所の測定ポイント)が存在するならば、25次元の時系列の発汗信号データxi,tが取得できることになる。これに被験体の特徴、例えば、年齢、性別、生活習慣、1日の尿の回数、1日の水分補給量、緊張しやすさ、制汗剤の使用度合、毛深さ、病歴などを考慮し、個体差を表現する特徴量siの次元数が決定される。脳機能画像データと同様に、特徴数と次元数は必ずしも一致しない。仮に、個体差を表現する特徴量siの次元数を8とし、発汗に関する疾病の状態ラベルの次元数を1とし、時間的に変化し得る信号成分の次元数を5とする。1人の被験者で1回の発汗測定を行うことにより得られる25次元の発汗信号データから、5次元の時間的に変化するパラメータと9次元(=8次元+1次元)の時不変のパラメータが得られる。個体差を表現する特徴量siは、計測中に不変であり、被験体の各々の個体差を表現する特徴量siに関して得られるデータは時間的に変化するデータではなく固定である。なお、状態ラベルと個人差を表現する特徴量に依存しないが時間的に変化し得る信号成分である潜在変数zi,tは、時間的に変化する時系列のデータである。
実施例1と同様に、発汗信号データを入力して深層生成モデルを学習し、被験体から入力した発汗信号データから、個体差を表現する特徴量と、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を抽出し、分離した後の信号成分を用いて被験体の発汗に関する疾病の有無の予測を行うことができる。
(Other Examples)
In the first embodiment, the brain function image data of fMRI is described as an example of the biological signal data. However, the state prediction method and the state prediction apparatus of the present invention can be used at other times such as sweat measurement, electrocardiogram measurement, and electroencephalogram measurement. The present invention can also be applied to a series of biological signal data.
(1) In the case of sweat measurement, for example, if there are measurement points (for example, 25 measurement points) of the sweating site (palm, soles, forehead, armpits, etc.) of a human body, a 25-dimensional time series Of the perspiration signal x i, t can be obtained. This takes into account the characteristics of the subject, such as age, gender, lifestyle, daily urine frequency, daily hydration, nervousness, antiperspirant use, hair depth, medical history, etc. and, the number of dimensions of feature quantity s i representing the individual difference is determined. As with the brain function image data, the number of features and the number of dimensions do not always match. If the number of dimensions of feature quantity s i representing the individual difference is 8, the number of dimensions of the state label of diseases related to perspiration and 1, and 5 the number of dimensions of the signal components that may be time varying. From the 25-dimensional sweat signal data obtained by performing a single sweat measurement with one subject, a 5-dimensional time-varying parameter and a 9-dimensional (= 8-dimensional + 1-dimensional) time-invariant parameter are obtained. Can be Feature value s i representing the individual difference is unchanged during measurement, the data obtained for the characteristic quantity s i representing the individual difference of each subject is fixed rather than time varying data. The latent variable z i, t, which is a signal component that does not depend on the state label and the feature amount expressing the individual difference but can change over time, is time-series data that changes over time.
In the same manner as in the first embodiment, the sweat generation signal data is input, the deep generation model is learned, and from the sweat signal data input from the subject, the feature amount representing the individual difference, and the state label and the individual difference are independent. A signal component that can change over time is extracted, and the presence or absence of a disease related to sweating of the subject can be predicted using the separated signal component.
(2)心電図測定の場合、例えば12誘導心電図であれば、12種の時系列の波形データ、すなわち、12次元の時系列の心電信号データxi,tが得られ、被験体の特徴として、年齢、性別、病歴などを考慮し、個体差を表現する特徴量siの次元数が決定される。
(3)心拍測定の場合、時系列の心拍データが得られ、被験体の特徴として、年齢、性別、スポーツに関与する度合いなどを考慮し、個体差を表現する特徴量siの次元数が決定される。被験体が例えば“スポーツ選手などアスリートであれば常に心拍数が低め”といった情報は、個体差を表現する特徴量siとして扱われる。個体差によらず共通な情報、例えば、“現在運動中なので心拍数が高い”という一時的な情報であれば、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分(潜在変数)zi,tとして扱われる。
(4)脳波測定の場合、時系列の脳波データが得られ、被験体の特徴として、年齢、性別、病歴などを考慮し、個体差を表現する特徴量siの次元数が決定される。
(5)血中酸素濃度測定や血糖値測定の場合、時系列の血中酸素濃度データや血糖値データが得られ、被験体の特徴として、年齢、性別、体脂肪率、肥満度、食生活などを考慮し、個体差を表現する特徴量siの次元数が決定される。
(2) In the case of electrocardiogram measurement, for example, in the case of a 12-lead electrocardiogram, twelve kinds of time-series waveform data, that is, twelve-dimensional time-series electrocardiogram signal data x i, t are obtained. , age, gender, etc. to the consideration history, the number of dimensions of feature quantity s i representing the individual difference is determined.
(3) If the heart rate measurement, time series of heart rate data is obtained, as a feature of the subject, age, gender, etc. to the consideration of the degree involved in sports, the number of dimensions of feature quantity s i representing the individual differences It is determined. "Always the heart rate is lower if the athlete such as athletes" information such as the subject is, for example, is treated as a feature value s i to represent the individual differences. If the information is common regardless of individual differences, for example, temporary information such as "Heart rate is high because you are currently exercising," a signal component (potential Variable) z i, t .
(4) In the case of EEG, when obtained brain wave data series, as a feature of the subject, age, gender, etc. to the consideration history, the number of dimensions of feature quantity s i representing the individual difference is determined.
(5) In the case of blood oxygen concentration measurement and blood glucose measurement, time-series blood oxygen concentration data and blood glucose level data are obtained, and the characteristics of the subject include age, gender, body fat percentage, obesity degree, and dietary habits. taking into account the number of dimensions of feature quantity s i representing the individual difference is determined.
(6)実施例2の場合には、測定環境差を表現する特徴量fiの次元数が決定され、取得する生体信号データの次元数に、個人差を表現する特徴量の次元数、状態ラベルの次元数と同様に、加算される。測定環境差を表現する特徴量fiは、同一の測定環境で計測された複数の生体信号データで共有される。 (6) In the case of Example 2 is determined number of dimensions of the feature f i representing the measurement environment difference, the number of dimensions of the biosignal data obtained, the number of dimensions of feature quantity representing the individual difference, condition It is added in the same way as the number of dimensions of the label. Feature value f i representing the measured environmental difference is shared by a plurality of bio-signal data measured by the same measurement environment.
本発明は、脳機能画像データ,脳波,心拍や発汗データなど多様な生体信号データを計測する生体信号データの計測器や疾患診断装置に有用である。 INDUSTRIAL APPLICABILITY The present invention is useful for a biological signal data measuring device and a disease diagnostic apparatus for measuring various biological signal data such as brain function image data, brain waves, heartbeat and perspiration data.
1 状態予測装置
2 生成モデル構築部
3 学習部
4 状態予測部
5,5´ 脳機能画像データ
11 集団符号化器の第1のニューラルネットワーク
12 集団符号化器の第2のニューラルネットワーク
DESCRIPTION OF SYMBOLS 1 State prediction apparatus 2 Generating model construction part 3 Learning part 4 State prediction part 5, 5 'Brain function image data 11 1st neural network of a group encoder 12 2nd neural network of a group encoder
Claims (18)
1)一度の計測において変化しない状態ラベル、個体差を表現する特徴量、及び、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を、前記生体信号データに関連付けして前記深層生成モデルを構築するステップと、
2)複数の被験体の前記生体信号データを入力して深層生成モデルを学習するステップと、
3)入力した前記生体信号データから、前記個体差を表現する特徴量と前記信号成分を抽出し、分離した後の信号成分を用いて被験体の状態予測を行うステップ、
を備えたことを特徴とする状態予測方法。 A method for predicting the state of a subject using a deep generation model by a deep neural network, with time-series biosignal data obtained by measuring biosignals of a plurality of subjects as input,
1) A state label that does not change in a single measurement, a feature amount that represents an individual difference, and a signal component that does not depend on the state label and the individual difference but can change over time are associated with the biological signal data, Building a deep generation model;
2) inputting the biological signal data of a plurality of subjects and learning a deep generation model;
3) extracting a feature quantity representing the individual difference and the signal component from the input biological signal data, and performing a state prediction of the subject using the separated signal component;
A state prediction method comprising:
同一の被験体の複数の生体信号データが、前記個体差を表現する特徴量を共有し、
前記深層生成モデルが、VAE(Variational Auto-Encoder)で構成される場合には、
前記個体差を表現する特徴量は、事前分布に従う潜在変数としてモデル化されることを特徴とする請求項1に記載の状態予測方法。 In the deep generation model,
A plurality of biosignal data of the same subject share a feature amount expressing the individual difference,
When the deep generation model is configured by VAE (Variational Auto-Encoder),
The method according to claim 1, wherein the feature quantity representing the individual difference is modeled as a latent variable following a prior distribution.
同一の測定環境で計測された複数の生体信号データが、前記測定環境差を表現する特徴量を共有し、
前記深層生成モデルが、VAE(Variational Auto-Encoder)で構成される場合には、
前記測定環境差を表現する特徴量は、事前分布に従う潜在変数としてモデル化されることを特徴とする請求項2に記載の状態予測方法。 In the deep generation model,
A plurality of biological signal data measured in the same measurement environment, share a feature amount expressing the measurement environment difference,
When the deep generation model is configured by VAE (Variational Auto-Encoder),
3. The state prediction method according to claim 2, wherein the feature quantity representing the measurement environment difference is modeled as a latent variable following a prior distribution.
前記個体差を表現する特徴量の推定には、
1つの前記生体信号データとそれに関連付けされた状態ラベルを入力として活性値を出力する第1のニューラルネットワークと、
前記生体信号データの集合から得られた活性値の平均を入力として、前記個体差を表現する特徴量を出力する第2のニューラルネットワークと、
から構成される集団符号化器を用いることを特徴とする請求項1又は3に記載の状態予測方法。 In the step of deep learning,
The estimation of the feature amount expressing the individual difference includes:
A first neural network that outputs an activity value by using one of the biological signal data and a state label associated therewith as an input;
A second neural network that receives an average of the activity values obtained from the set of biosignal data and outputs a feature representing the individual difference;
The state prediction method according to claim 1, wherein a group coder configured from the following is used.
前記測定環境差を表現する特徴量の推定には、
同一環境で測定された1つ以上の前記生体信号データとそれに関連付けされた状態ラベルを入力として活性値を出力する第1のニューラルネットワークと、
前記生体信号データの集合から得られた活性値の平均を入力として、前記測定環境差を表現する特徴量を出力する第2のニューラルネットワークと、
から構成される集団符号化器を用いることを特徴とする請求項2又は4に記載の状態予測方法。 In the step of deep learning,
The estimation of the feature quantity expressing the measurement environment difference includes:
A first neural network that outputs an activity value by using one or more of the biological signal data measured in the same environment and a state label associated therewith as an input;
A second neural network that outputs an amount of characteristic representing the measurement environment difference, with an average of the activity values obtained from the set of the biological signal data as input,
5. The state prediction method according to claim 2, wherein a group encoder composed of the following is used.
1)一度の計測において変化しない状態ラベル、個体差を表現する特徴量、及び、状態ラベルと個体差とに依存しないが時間的に変化し得る信号成分を、前記生体信号データに関連付けして前記深層生成モデルを構築する生成モデル構築部と、
2)複数の被験体の前記生体信号データを入力して深層生成モデルを学習する学習部と、
3)入力した前記生体信号データから、前記個体差を表現する特徴量と、前記信号成分を抽出し、分離した後の信号成分を用いて被験体の状態予測を行う状態予測部、
を備えたことを特徴とする状態予測装置。 Apparatus for predicting the state of a subject using a deep generation model by a deep neural network, using as input a time series of biological signal data obtained by measuring biological signals of a plurality of subjects,
1) A state label that does not change in a single measurement, a feature amount that represents an individual difference, and a signal component that does not depend on the state label and the individual difference but can change over time are associated with the biological signal data, A generation model builder for building a deep generation model,
2) a learning unit that receives the biological signal data of a plurality of subjects and learns a deep generation model;
3) a state predicting unit that extracts a feature quantity representing the individual difference and the signal component from the input biosignal data, and predicts a state of the subject using the separated signal component;
A state prediction device comprising:
同一の被験体の複数の生体信号データが、前記個体差を表現する特徴量を共有し、
前記深層生成モデルが、VAE(Variational Auto-Encoder)で構成される場合には、
前記個体差を表現する特徴量は、事前分布に従う潜在変数としてモデル化されることを特徴とする請求項10に記載の状態予測装置。 In the deep generation model,
A plurality of biosignal data of the same subject share a feature amount expressing the individual difference,
When the deep generation model is configured by VAE (Variational Auto-Encoder),
The state prediction device according to claim 10, wherein the feature quantity representing the individual difference is modeled as a latent variable according to a prior distribution.
同一の測定環境で計測された複数の生体信号データが、前記測定環境差を表現する特徴量を共有し、
前記深層生成モデルが、VAE(Variational Auto-Encoder)で構成される場合には、
前記測定環境差を表現する特徴量は、事前分布に従う潜在変数としてモデル化されることを特徴とする請求項11に記載の状態予測装置。 In the deep generation model,
A plurality of biological signal data measured in the same measurement environment, share a feature amount expressing the measurement environment difference,
When the deep generation model is configured by VAE (Variational Auto-Encoder),
The state prediction device according to claim 11, wherein the feature quantity representing the measurement environment difference is modeled as a latent variable according to a prior distribution.
前記個体差を表現する特徴量の推定には、
1つの前記生体信号データと状態ラベルを入力として活性値を出力する第1のニューラルネットワークと、
前記生体信号データの集合から得られた活性値の平均を入力として、前記個体差を表現する特徴量を出力する第2のニューラルネットワークと、
から構成される集団符号化器を用いることを特徴とする請求項10又は12に記載の状態予測装置。 In the learning section,
The estimation of the feature amount expressing the individual difference includes:
A first neural network that outputs an activity value by using one of the biological signal data and a state label as input,
A second neural network that receives an average of the activity values obtained from the set of biosignal data and outputs a feature representing the individual difference;
The state predicting apparatus according to claim 10, wherein a group coder configured from the following is used.
前記測定環境差を表現する特徴量の推定には、
同一環境で測定された1つ以上の前記生体信号データとそれに関連付けされた状態ラベルを入力として活性値を出力する第1のニューラルネットワークと、
前記生体信号データの集合から得られた活性値の平均を入力として、前記測定環境差を表現する特徴量を出力する第2のニューラルネットワークと、
から構成される集団符号化器を用いることを特徴とする請求項11又は13に記載の状態予測装置。 In the learning section,
The estimation of the feature quantity expressing the measurement environment difference includes:
A first neural network that outputs an activity value by using one or more of the biological signal data measured in the same environment and a state label associated therewith as an input;
A second neural network that outputs an amount of characteristic representing the measurement environment difference, with an average of the activity values obtained from the set of the biological signal data as input,
14. The state predicting apparatus according to claim 11, wherein a group encoder composed of
A state prediction program for causing a computer to function as the generation model construction unit, the learning unit, and the state prediction unit in the state prediction device according to claim 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018170121A JP2020042598A (en) | 2018-09-12 | 2018-09-12 | State prediction method and device by individual characteristic separation from biological signal data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018170121A JP2020042598A (en) | 2018-09-12 | 2018-09-12 | State prediction method and device by individual characteristic separation from biological signal data |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020042598A true JP2020042598A (en) | 2020-03-19 |
Family
ID=69798356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018170121A Pending JP2020042598A (en) | 2018-09-12 | 2018-09-12 | State prediction method and device by individual characteristic separation from biological signal data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020042598A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021161542A1 (en) * | 2020-02-14 | 2021-08-19 | ||
JPWO2021210228A1 (en) * | 2020-04-17 | 2021-10-21 | ||
WO2022014943A1 (en) * | 2020-07-14 | 2022-01-20 | 주식회사 바디프랜드 | Electrocardiogram generation device based on generative adversarial network algorithm, and method thereof |
CN114190884A (en) * | 2020-09-18 | 2022-03-18 | 深圳大学 | Longitudinal analysis method, system and device for brain disease data |
KR20220108944A (en) * | 2021-01-28 | 2022-08-04 | 사회복지법인 삼성생명공익재단 | The system and method of symptom worsening prediction |
CN115381400A (en) * | 2022-08-19 | 2022-11-25 | 四川轻化工大学 | Brain disease patient classification system and method based on feature selection and SVM |
WO2023080288A1 (en) * | 2021-11-03 | 2023-05-11 | 홍석우 | Biosignal visualization service system using pan cancer cell diagnosis kit based on glucose metabolism gene microarray chip |
WO2023243468A1 (en) * | 2022-06-15 | 2023-12-21 | 京セラ株式会社 | Electronic device, and method and program for controlling electronic device |
WO2024195592A1 (en) * | 2023-03-20 | 2024-09-26 | 株式会社Pittan | Living body inspection method, inspection system, and patch |
-
2018
- 2018-09-12 JP JP2018170121A patent/JP2020042598A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7343032B2 (en) | 2020-02-14 | 2023-09-12 | 日本電信電話株式会社 | Learning devices, learning methods and learning programs |
JPWO2021161542A1 (en) * | 2020-02-14 | 2021-08-19 | ||
JPWO2021210228A1 (en) * | 2020-04-17 | 2021-10-21 | ||
WO2021210228A1 (en) * | 2020-04-17 | 2021-10-21 | 株式会社島津製作所 | Waveform information estimation method and device, and peak waveform processing method and device |
CN115398226B (en) * | 2020-04-17 | 2024-02-09 | 株式会社岛津制作所 | Waveform information estimation method and device and peak waveform processing method and device |
JP7414125B2 (en) | 2020-04-17 | 2024-01-16 | 株式会社島津製作所 | Waveform information estimation method and device, and peak waveform processing method and device |
CN115398226A (en) * | 2020-04-17 | 2022-11-25 | 株式会社岛津制作所 | Waveform information estimation method and device, and peak waveform processing method and device |
WO2022014943A1 (en) * | 2020-07-14 | 2022-01-20 | 주식회사 바디프랜드 | Electrocardiogram generation device based on generative adversarial network algorithm, and method thereof |
CN114190884A (en) * | 2020-09-18 | 2022-03-18 | 深圳大学 | Longitudinal analysis method, system and device for brain disease data |
CN114190884B (en) * | 2020-09-18 | 2024-05-28 | 深圳大学 | Longitudinal analysis method, system and device for brain disease data |
KR102559047B1 (en) | 2021-01-28 | 2023-07-21 | 사회복지법인 삼성생명공익재단 | The system and method of symptom worsening prediction |
KR20220108944A (en) * | 2021-01-28 | 2022-08-04 | 사회복지법인 삼성생명공익재단 | The system and method of symptom worsening prediction |
WO2023080288A1 (en) * | 2021-11-03 | 2023-05-11 | 홍석우 | Biosignal visualization service system using pan cancer cell diagnosis kit based on glucose metabolism gene microarray chip |
WO2023243468A1 (en) * | 2022-06-15 | 2023-12-21 | 京セラ株式会社 | Electronic device, and method and program for controlling electronic device |
CN115381400A (en) * | 2022-08-19 | 2022-11-25 | 四川轻化工大学 | Brain disease patient classification system and method based on feature selection and SVM |
WO2024195592A1 (en) * | 2023-03-20 | 2024-09-26 | 株式会社Pittan | Living body inspection method, inspection system, and patch |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020042598A (en) | State prediction method and device by individual characteristic separation from biological signal data | |
Riaz et al. | DeepFMRI: End-to-end deep learning for functional connectivity and classification of ADHD using fMRI | |
García-Martínez et al. | A review on nonlinear methods using electroencephalographic recordings for emotion recognition | |
Dissanayake et al. | Deep learning for patient-independent epileptic seizure prediction using scalp EEG signals | |
Jindal et al. | An adaptive deep learning approach for PPG-based identification | |
Maqsood et al. | A benchmark study of machine learning for analysis of signal feature extraction techniques for blood pressure estimation using photoplethysmography (PPG) | |
Han et al. | Internet of medical things—based on deep learning techniques for segmentation of lung and stroke regions in CT scans | |
Shin et al. | Decision boundary-based anomaly detection model using improved AnoGAN from ECG data | |
Klug et al. | The BeMoBIL Pipeline for automated analyses of multimodal mobile brain and body imaging data | |
Vincent Paul et al. | Intelligent framework for prediction of heart disease using deep learning | |
JP7382306B2 (en) | Diagnostic support devices, programs, trained models, and learning devices | |
Pradhan et al. | Hierarchical extreme puzzle learning machine-based emotion recognition using multimodal physiological signals | |
Singhal et al. | A systematic review on artificial intelligence-based techniques for diagnosis of cardiovascular arrhythmia diseases: challenges and opportunities | |
Velasco et al. | Motor imagery EEG signal classification with a multivariate time series approach | |
KR et al. | A multi-dimensional hybrid CNN-BiLSTM framework for epileptic seizure detection using electroencephalogram signal scrutiny | |
Sharma et al. | Classification of heart disease from MRI images using convolutional neural network | |
Neifar et al. | Deep Generative Models for Physiological Signals: A Systematic Literature Review | |
Dhaygude et al. | Knowledge‐based deep learning system for classifying Alzheimer's disease for multi‐task learning | |
Jothiramalingam et al. | Review of Computational Techniques for the Analysis of Abnormal Patterns of ECG Signal Provoked by Cardiac Disease. | |
Rahman et al. | Automated detection of cardiac arrhythmia based on a hybrid CNN-LSTM network | |
Gavrishchaka et al. | Multi-complexity ensemble measures for gait time series analysis: Application to diagnostics, monitoring and biometrics | |
Oster et al. | Signal quality indices for state space electrophysiological signal processing and vice versa | |
Hireš et al. | Brief Overview of Neural Networks for Medical Applications | |
Mohebbian | Improving Maternal and Fetal Cardiac Monitoring Using Artificial Intelligence | |
Bagavathi | Machine learning for interpretation of brain images: A detailed analysis through survey |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20181005 |