JP2021047548A - Biological data processing apparatus, biological data processing method, and program - Google Patents

Biological data processing apparatus, biological data processing method, and program Download PDF

Info

Publication number
JP2021047548A
JP2021047548A JP2019168790A JP2019168790A JP2021047548A JP 2021047548 A JP2021047548 A JP 2021047548A JP 2019168790 A JP2019168790 A JP 2019168790A JP 2019168790 A JP2019168790 A JP 2019168790A JP 2021047548 A JP2021047548 A JP 2021047548A
Authority
JP
Japan
Prior art keywords
data
defective portion
neural network
biological data
biological
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019168790A
Other languages
Japanese (ja)
Inventor
一成 小松崎
Kazunari Komatsuzaki
一成 小松崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2019168790A priority Critical patent/JP2021047548A/en
Publication of JP2021047548A publication Critical patent/JP2021047548A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

To provide a technique which, when missing occurs in biological data, can complement a missing part with higher accuracy compared to complementing the missing part by a prescribed value, for example, an average value.SOLUTION: A biological data processing apparatus 30 comprises a neural network which uses a pair of data having some missing part and data having no missing parts and is learned by pix2pix so as to, in response to input of the data having some missing part, output data having the missing part complemented. Biological data having some missing part is inputted to the neural network, and the biological data having the missing part complemented is outputted to calculate a stress index or the like.SELECTED DRAWING: Figure 4

Description

本発明は、生体データ処理装置、生体データ処理方法及びプログラムに関する。 The present invention relates to a biometric data processing apparatus, a biometric data processing method and a program.

近年、健康に配慮した働き方の実現等、働く環境への注目度が上がっている。これに伴い、健康指標等の内的状態の客観的モニタリング手法として、リストバンド型デバイスを筆頭に、生体に装着する生体データ取得デバイスの利用が検討されている。例えば、心電データや容積脈波データから算出される心拍間隔データは、自律神経の状態を反映するとされ、心拍間隔データからストレス指標等の内的状態を示す指標が算出される。 In recent years, attention has been paid to the working environment, such as the realization of health-friendly working styles. Along with this, as an objective monitoring method for internal conditions such as health indicators, the use of biological data acquisition devices worn on living organisms, including wristband type devices, is being studied. For example, the heartbeat interval data calculated from the electrocardiographic data and the volume pulse wave data is said to reflect the state of the autonomic nerve, and an index indicating an internal state such as a stress index is calculated from the heartbeat interval data.

特許文献1には、欠損値の多いデータセットを用いてニューラルネットワークによる機械学習を行う場合において、出力の精度を向上させることや疾病予測に有用なマーカーを臨床検査データから予測する機械学習装置が記載されている。機械学習装置は、複数の入力ユニットを含む入力層と、1以上の出力ユニットを含む出力層とを備えたニューラルネットワーク部と、複数の値を含む所定の入力データを整形し、入力層へ入力するための整形入力データを出力する前処理部とを備える。また、前処理部は、複数の値が欠損値であるか否かを示す情報、又は複数の値が欠損値である場合に用いる代替値を生成し、複数の値が欠損値であるか否かを示す情報、又は代替値を整形入力データとして出力する。 Patent Document 1 describes a machine learning device that predicts markers useful for improving output accuracy and disease prediction from clinical test data when performing machine learning by a neural network using a data set with many missing values. Has been described. The machine learning device shapes a neural network unit including an input layer including a plurality of input units and an output layer including one or more output units, and predetermined input data including a plurality of values, and inputs the predetermined input data to the input layer. It is provided with a preprocessing unit that outputs well-formed input data. In addition, the preprocessing unit generates information indicating whether or not the plurality of values are missing values, or alternative values used when the plurality of values are missing values, and whether or not the plurality of values are missing values. The information indicating the above or the alternative value is output as the formatted input data.

特許文献2には、対象のモデルと適切な内部表現の獲得と、不完全なセンサ情報による学習/認識の可能な認識装置が記載されている。観測対象毎に欠損値推定/学習手段をそれぞれ対応づけ、観測対象をさまざまな視点から観測したセンサ情報により、複数の観測対象に対応した欠損値推定/学習手段を学習させる。欠損値推定/学習手段は砂時計モデルを具備し、iterative inversion法と誤差逆伝搬により、不完全なセンサ情報の欠損値を推定しモデル獲得を行う。欠損値推定/学習手段を学習させたのち、センサにより観測した観測対象のセンサ情報を複数の欠損値推定/学習手段に与え、最小値誤差選択手段により誤差が最小となる欠損値推定/学習手段を選択し、センサにより観測された観測対象の認識を行う。 Patent Document 2 describes a recognition device capable of acquiring a target model and an appropriate internal representation, and learning / recognizing with incomplete sensor information. Missing value estimation / learning means are associated with each observation target, and missing value estimation / learning means corresponding to a plurality of observation targets are learned from sensor information obtained by observing the observation target from various viewpoints. The missing value estimation / learning means includes an hourglass model, and the missing value of incomplete sensor information is estimated and the model is acquired by the iteration method and error back propagation. After learning the missing value estimation / learning means, the sensor information of the observation target observed by the sensor is given to a plurality of missing value estimation / learning means, and the missing value estimation / learning means that minimizes the error by the minimum value error selection means. Is selected to recognize the observation target observed by the sensor.

特開2018−068752号公報JP-A-2018-08752 特開平08−212184号公報Japanese Unexamined Patent Publication No. 08-212184

リストバンド型デバイス等のセンサを備えたデバイスを生体に装着してセンサから生体データを取得する際に、体動によりセンサが取得する生体データに欠損が生じる場合があり、生体の継続的な状態を把握することが困難となる。 When a device equipped with a sensor such as a wristband type device is attached to a living body and the biological data is acquired from the sensor, the biological data acquired by the sensor may be lost due to body movement, and the living body is in a continuous state. It becomes difficult to grasp.

本発明は、生体データに欠損が生じた場合に、欠損部を所定の値、例えば平均値で補完する場合に比べて高精度に欠損部を補完し得る技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of complementing a defective portion with higher accuracy than in the case of complementing the defective portion with a predetermined value, for example, an average value when a defect occurs in biological data.

請求項1に記載の発明は、欠損部を有するデータと前記欠損部を有しないデータのペアを用い、前記欠損部を有するデータを入力すると前記欠損部を補完したデータを出力すべく学習されたニューラルネットワークと、前記ニューラルネットワークに、欠損部を有する生体データを入力する入力部と、前記ニューラルネットワークからの出力を、前記欠損部が補完された生体データとして出力する出力部とを備える生体データ処理装置である。 The invention according to claim 1 has been learned to use a pair of data having a defective portion and data having no defective portion, and to output data complementing the defective portion when data having the defective portion is input. Biological data processing including a neural network, an input unit for inputting biological data having a defective portion into the neural network, and an output unit for outputting the output from the neural network as biological data in which the defective portion is complemented. It is a device.

請求項2に記載の発明は、前記ニューラルネットワークは、pix2pixのニューラルネットワークである請求項1に記載の生体データ処理装置である。 The invention according to claim 2 is the biological data processing apparatus according to claim 1, wherein the neural network is a pix2pix neural network.

請求項3に記載の発明は、前記入力部は、前記欠損部の占める比率が所定範囲内である場合のみ前記ニューラルネットワークに入力する請求項1,2のいずれかに記載の生体データ処理装置である。 The invention according to claim 3 is the biometric data processing apparatus according to claim 1, wherein the input unit inputs to the neural network only when the ratio occupied by the defective portion is within a predetermined range. is there.

請求項4に記載の発明は、前記欠損部が補完された生体データを用いてストレス指標を算出する算出部をさらに備える請求項1〜3のいずれかに記載の生体データ処理装置である。 The invention according to claim 4 is the biometric data processing apparatus according to any one of claims 1 to 3, further comprising a calculation unit for calculating a stress index using biometric data in which the defective portion is complemented.

請求項5に記載の発明は、コンピュータのプロセッサが、欠損部を有しない生体データから前記欠損部を有する生体データを生成するステップと、前記欠損部を有する生体データと前記欠損部を有しないデータのペアを用い、前記欠損部を有する生体データを入力すると前記欠損部を補完した生体データを出力すべくニューラルネットワークを学習するステップとを実行する生体データ処理方法である。 The invention according to claim 5 is a step in which a computer processor generates biometric data having the defective portion from biological data having no defective portion, and biological data having the defective portion and data having no defective portion. This is a biometric data processing method that executes a step of learning a neural network in order to output biometric data that complements the defective portion when biometric data having the defective portion is input using the pair of.

請求項6に記載の発明は、学習した前記ニューラルネットワークに欠損部を有する生体データを入力し、前記ニューラルネットワーク部から前記欠損部を補完した生体データを出力するステップをさらに実行する請求項5に記載の生体データ処理方法である。 The invention according to claim 6 further executes a step of inputting biological data having a defective portion into the learned neural network and outputting biological data complementing the defective portion from the neural network portion. The biometric data processing method described.

請求項7に記載の発明は、コンピュータのプロセッサに、欠損部を有しない生体データから前記欠損部を有する生体データを生成するステップと、前記欠損部を有する生体データと前記欠損部を有しないデータのペアを用い、前記欠損部を有する生体データを入力すると前記欠損部を補完した生体データを出力すべくニューラルネットワークを学習するステップとを実行させるプログラムである。 The invention according to claim 7 is a step of generating biometric data having the defective portion from biometric data having no defective portion in a computer processor, and biological data having the defective portion and data having no defective portion. This is a program that executes a step of learning a neural network in order to output biometric data that complements the defective portion when biometric data having the defective portion is input using the pair of.

請求項8に記載の発明は、学習した前記ニューラルネットワークに欠損部を有する生体データを入力し、前記ニューラルネットワークから前記欠損部を補完した生体データを出力するステップをさらに実行させる請求項7に記載のプログラムである。 The invention according to claim 8 is the seventh aspect of claim 7, wherein the step of inputting the biological data having a defective portion into the learned neural network and outputting the biological data complementing the defective portion from the neural network is further executed. Program.

請求項1,5,6,7,8に記載の発明によれば、生体データに欠損が生じた場合に、欠損部を所定の値、例えば平均値で補完する場合に比べて高精度に欠損部を補完し得る。 According to the inventions of claims 1, 5, 6, 7, and 8, when a defect occurs in biological data, the defect is deleted with higher accuracy than when the defect is supplemented with a predetermined value, for example, an average value. Can complement the department.

請求項2に記載の発明によれば、さらに、pix2pixのニューラルネットワークにより高精度に欠損部を補完し得る。 According to the second aspect of the present invention, the defective portion can be complemented with high accuracy by the neural network of pix2pix.

請求項3に記載の発明によれば、さらに、欠損部の補完精度を確保し得る。 According to the invention of claim 3, the accuracy of complementing the defective portion can be further ensured.

請求項4に記載の発明によれば、さらに、ストレス指標を高精度に算出し得る。 According to the invention of claim 4, the stress index can be calculated with high accuracy.

実施形態の基本原理説明図(その1)である。It is the basic principle explanatory drawing (the 1) of embodiment. 実施形態の基本原理説明図(その2)である。It is the basic principle explanatory drawing (the 2) of embodiment. 実施形態の基本原理説明図(その3)である。It is the basic principle explanatory drawing (the 3) of embodiment. 実施形態の構成ブロック図である。It is a block diagram of the structure of embodiment. 実施形態の機能ブロック図である。It is a functional block diagram of an embodiment. 実施形態の処理フローチャートである。It is a processing flowchart of an embodiment. 実施形態の学習用データの生成説明図である。It is the generation explanatory diagram of the learning data of embodiment. 実施例の欠損部補完データを示すグラフ図(その1)である。It is a graph figure (the 1) which shows the defective part complementary data of an Example. 実施例の欠損部補完データを示すグラフ図(その2)である。It is a graph figure (No. 2) which shows the defective part complementary data of an Example. 実施例の欠損部補完データを示すグラフ図(その3)である。It is a graph figure (No. 3) which shows the defective part complementary data of an Example. 実施例の欠損部補完データを示すグラフ図(その4)である。It is a graph figure (the 4) which shows the defective part complementary data of an Example. 実施例の欠損部補完データを示すグラフ図(その5)である。It is a graph figure (No. 5) which shows the defective part complementary data of an Example. 実施例の欠損部補完データを示すグラフ図(その6)である。It is a graph figure (No. 6) which shows the defective part complementary data of an Example. 図8Fの一部拡大図である。It is a partially enlarged view of FIG. 8F. 実施例のモデル生成データと平均値で補完したデータの比較結果を示す表図である。It is a table figure which shows the comparison result of the model generation data of an Example, and the data complemented by the average value. 実施例のデータ欠損率に対するモデル生成データと平均値で補完したデータの比較結果(カウント)を示すグラフ図である。It is a graph which shows the comparison result (count) of the model generation data and the data supplemented with the average value with respect to the data loss rate of an Example. 実施例のデータ欠損率に対するモデル生成データと平均値で補完したデータの比較結果(差の平均値)を示すグラフ図である。It is a graph which shows the comparison result (the average value of the difference) of the model generation data and the data supplemented with the average value with respect to the data loss rate of an Example. 実施例のテストデータのヒストグラム図である。It is a histogram figure of the test data of an Example.

以下、図面に基づき本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<基本原理>
まず、本実施形態における生体データ処理の基本原理について説明する。
<Basic principle>
First, the basic principle of biometric data processing in this embodiment will be described.

リストバンド型デバイス等のセンサを備えたデバイスを生体に装着してセンサから生体データを取得する際に、体動によりセンサが取得する生体データに欠損が生じると、生体の継続的な状態を把握することが困難となる。具体的には、例えば生体データから自律神経の状態を反映するとされる心拍間隔データを取得し、心拍間隔データからストレス指標等の内的状態を示す指標を算出する場合において、生体データに欠損が生じると、心拍間隔データが不正確なデータとなり、必然的にストレス指標等の指標も不正確なものとなる。 When a device equipped with a sensor such as a wristband type device is attached to a living body and the biological data is acquired from the sensor, if the biological data acquired by the sensor is lost due to body movement, the continuous state of the living body is grasped. It becomes difficult to do. Specifically, for example, when heartbeat interval data that is considered to reflect the state of the autonomic nerve is acquired from biometric data and an index indicating an internal state such as a stress index is calculated from the heartbeat interval data, the biometric data is missing. When it occurs, the heart rate interval data becomes inaccurate data, and the index such as the stress index inevitably becomes inaccurate.

生体データに欠損が生じた場合に、当該欠損部を一定値で補完する、あるいは平均値で補完する等の対処方法があるが、補完後の心拍間隔データの正確性が担保されず、十分な対処方法といえない。 When a defect occurs in the biometric data, there are countermeasures such as supplementing the defective part with a fixed value or complementing with an average value, but the accuracy of the heartbeat interval data after complementation is not guaranteed, which is sufficient. It cannot be said that it is a coping method.

そこで、本実施形態では、深層学習技術における生成モデルと呼ばれるニューラルネットワーク(NN)の一種である、敵対的生成ネットワーク(GAN:Generative Adversarial Network)の応用であるpix2pixと呼ばれる形態のNNに着目し、このpix2pixを用いて欠損部を有する生体データと欠損部のない生体データをペアで学習することでモデルを構築する。そして、学習済みのpix2pixモデルを用いて、欠損部を有するデータの当該欠損部を補完し、欠損部のないデータとして出力する。 Therefore, in this embodiment, we focus on a form called pix2pix, which is an application of a hostile generation network (GAN: Generative Adversarial Network), which is a kind of neural network (NN) called a generation model in deep learning technology. A model is constructed by learning a pair of biometric data having a defective portion and biometric data having no defective portion using this fix2pix. Then, using the trained pix2pix model, the deficient portion of the data having the deficient portion is complemented and output as data without the deficient portion.

pix2pixは、GANの一種であり、基本構造としてGANをベースとしている。GANは、生成器(ジェネレータ)と判別器(ディスクリミネータ)の2つのNNから構成される。生成器は、ノイズ(例えば100次元の0〜1間の値)の入力を受け、偽の画像データを出力する。判別器は、真のデータや偽のデータが入力されると、入力データが真である確率を出力する。生成器は、より真らしい偽の画像データを生成できるように学習し、判別器は真と偽を見分ける精度を上げるように学習する。これにより、生成器は、学習が進むことでより真に近いデータを生成できるようになる。 pix2pix is a kind of GAN, and is based on GAN as a basic structure. The GAN is composed of two NNs, a generator and a discriminator. The generator receives an input of noise (for example, a value between 0 and 1 in 100 dimensions) and outputs fake image data. When true data or false data is input, the discriminator outputs the probability that the input data is true. The generator learns to generate more true fake image data, and the discriminator learns to improve the accuracy of distinguishing between true and false. This allows the generator to generate data that is closer to true as the learning progresses.

なお、GANについては、例えば、
"Generative Adversarial Nets", Ian J. Goodfellow et.al, D ‘epartement d’informatique et de recherche op ‘erationnelle Universit ‘e de Montr ‘eal Montr ‘eal, QC H3C 3J7
に記載されている。
Regarding GAN, for example,
"Generative Adversarial Nets", Ian J. Goodfellow et.al, D'epartement d'informatique et de recherche op'erationnelle Universit'e de Montr'eal Montr'eal, QC H3C 3J7
It is described in.

pix2pixでは、GANにおけるノイズの代わりに、ペアデータの片方(以下、これを「元データ」と称する)を生成器12に入力する。 In pix2pix, one of the pair data (hereinafter, this is referred to as "original data") is input to the generator 12 instead of the noise in GAN.

図1は、pix2pixの概念構成図を示す。pix2pixでは、GANと同様に、生成器12と判別器20の2つのNNを備える。 FIG. 1 shows a conceptual configuration diagram of pix2pix. The pix2pix includes two NNs, a generator 12 and a discriminator 20, similar to the GAN.

ペアデータの片方である元データ10が、生成器12に入力される。例えば航空写真から地図を作成する場合、航空写真とその地図がペアであり、航空写真が元データ10である。生成器12は、元データ10を入力すると、この元データ10から偽物14を生成して出力する。例えば、航空写真を入力して偽の地図データを出力する。 The original data 10, which is one of the pair data, is input to the generator 12. For example, when creating a map from an aerial photograph, the aerial photograph and the map are a pair, and the aerial photograph is the original data 10. When the original data 10 is input, the generator 12 generates a fake 14 from the original data 10 and outputs it. For example, input an aerial photograph and output fake map data.

敵対的生成ネットワークでは、判別器20に真のデータと生成器12が生成した偽のデータが個別に入力され、判別器20では真偽の判定が行われるが、pix2pixでは、判別器20に元データと真のデータのペア16、または元データと生成器12が生成した偽のデータのペア18のいずれかが入力され、判別器20ではこれらのペアデータの真偽の判定が行われる。これにより、元データとペアになる、真のデータにより近い偽のデータが生成器12により生成されるようになる。 In the hostile generation network, true data and false data generated by the generator 12 are individually input to the discriminator 20, and the discriminator 20 determines the authenticity. Either the data-true data pair 16 or the fake data pair 18 generated by the original data-generator 12 is input, and the discriminator 20 determines the authenticity of these paired data. As a result, the generator 12 will generate fake data that is paired with the original data and is closer to the true data.

図2は、pix2pixにより構築された生成器12にデータを入力し、生成器12で生成され出力されるデータの一例を示す。入力データとして航空写真100を入力すると、生成器12はその航空写真100とペアをなす地図102を生成して出力する。このように、pix2pixによりモデルが構築された生成器12は、入力されたデータに対し、これとペアをなす類似のデータを出力することができる。そこで、本実施形態では、かかる技術に着目し、欠損部を有する生体データと欠損部を有しない生体データをペアとしてpix2pixを用いて生成器12を学習し、学習済みの生成器12に欠損部を有する生体データが入力されると、欠損部を有しない生体データが出力されるように構成し、欠損部を有する生体データの当該欠損部を補完する。 FIG. 2 shows an example of the data generated and output by the generator 12 in which the data is input to the generator 12 constructed by the pix2pix. When the aerial photograph 100 is input as input data, the generator 12 generates and outputs a map 102 paired with the aerial photograph 100. In this way, the generator 12 whose model is constructed by pix2pix can output similar data paired with the input data. Therefore, in the present embodiment, paying attention to such a technique, the generator 12 is learned by using pix2pix as a pair of biological data having a defective portion and biological data having no defective portion, and the learned generator 12 has a defective portion. When the biometric data having the defect portion is input, the biometric data having no defective portion is output so as to complement the defective portion of the biometric data having the defective portion.

図3は、本実施形態の概念構成図を示す。図2と同様に、生成器12にデータが入力され、入力データとペアとなるデータを出力する。生成器12は、欠損部を有する生体データと欠損部を有しない生体データをペアとして学習したNNである。生成器12に欠損部を有するデータ200を入力すると、欠損部が補完された生体データ202を出力する。欠損部が補完された生体データ202は、真値に近い生体データであり、単に一定値、例えば平均値で補完する場合に比べてより真値に近い生体データである。 FIG. 3 shows a conceptual configuration diagram of the present embodiment. Similar to FIG. 2, data is input to the generator 12, and data paired with the input data is output. The generator 12 is an NN learned as a pair of biological data having a defective portion and biological data having no defective portion. When the data 200 having the defective portion is input to the generator 12, the biological data 202 in which the defective portion is complemented is output. The biometric data 202 in which the defective portion is complemented is biometric data close to the true value, and is biometric data closer to the true value than in the case of simply complementing with a constant value, for example, an average value.

すなわち、学習済みの生成器12は、判別器20により本物と区別することができないような偽物を作成することができ、このときの判別器20は、生成器12により作成された偽物を可能な限り本物と区別できるように学習されたものである。生成器12は、欠損部のない生体データと区別することができない、欠損部のない生体データに近い生体データを作成するといえる。 That is, the trained generator 12 can create a fake that cannot be distinguished from the real one by the discriminator 20, and the discriminator 20 at this time can create a fake created by the generator 12. It was learned so that it could be distinguished from the real thing. It can be said that the generator 12 creates biometric data close to biometric data without defects, which is indistinguishable from biometric data without defects.

生成器12及び判別器20は、具体的にはCNN(Convolutional Neural Network)、特にconvolution-BatchNorm-ReLuで構成される。pix2pixについては、例えば
"Image-to-Image Translation with Conditional Adversarial Networks", Phillip Isola et.al, Berkeley AI Research (BAIR) Laboratory, UC Berkeley
に記載されている。
The generator 12 and the discriminator 20 are specifically composed of a CNN (Convolutional Neural Network), particularly a convolution-Batch Norm-ReLu. For fix2pix, for example
"Image-to-Image Translation with Conditional Adversarial Networks", Phillip Isola et.al, Berkeley AI Research (BAIR) Laboratory, UC Berkeley
It is described in.

本実施形態では、pix2pixで学習した生成器によって欠損部を有する生体データの欠損部を補完して、欠損部を有しない生体データを出力するが、生体データは、リストバンド型デバイス等のセンサを備えたデバイスにより生体から取得し得る任意のデータが含まれる。生体データは、具体的には心電図(ECG)や容積脈波(BVP)であるがこれに限定されない。また、生体データには、心電図等から算出される心拍間隔データも含まれる。 In the present embodiment, the defective portion of the biological data having the defective portion is complemented by the generator learned by the pix2pix, and the biological data having no defective portion is output. The biological data uses a sensor such as a wristband type device. It contains arbitrary data that can be obtained from the living body by the equipped device. The biometric data is specifically, but is not limited to, an electrocardiogram (ECG) or a volume pulse wave (BVP). The biological data also includes heartbeat interval data calculated from an electrocardiogram or the like.

<構成>
次に、本実施形態の具体的構成について説明する。
<Structure>
Next, a specific configuration of the present embodiment will be described.

図4は、本実施形態における生体データ処理装置30の構成ブロック図である。生体データ処理装置30は、コンピュータで構成され、具体的には制御部32、生体データ処理部34、通信部36、操作部38、表示部40、及び記憶部42を備える。 FIG. 4 is a block diagram of the biological data processing device 30 according to the present embodiment. The biological data processing device 30 is composed of a computer, and specifically includes a control unit 32, a biological data processing unit 34, a communication unit 36, an operation unit 38, a display unit 40, and a storage unit 42.

制御部32は、CPU(Central Processing Unit)等のプロセッサから構成され、装置の各部を制御して各種機能を実現する。 The control unit 32 is composed of a processor such as a CPU (Central Processing Unit), and controls each part of the device to realize various functions.

生体データ処理部34は、GPU(Graphics Processing Unit)または専用回路等のプロセッサから構成され、制御部32からの制御指令に応じて生体データ処理を実行する。 The biometric data processing unit 34 is composed of a processor such as a GPU (Graphics Processing Unit) or a dedicated circuit, and executes biometric data processing in response to a control command from the control unit 32.

なお、制御部32及び生体データ処理部34におけるプロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。 The operation of the processors in the control unit 32 and the biometric data processing unit 34 may be performed not only by one processor but also by a plurality of processors existing at physically separated positions in cooperation with each other. ..

通信部36は、公衆回線あるいは専用回線等の通信回線への通信接続を実現する通信モジュールである。 The communication unit 36 is a communication module that realizes a communication connection to a communication line such as a public line or a dedicated line.

操作部38は、キーボードやマウス等のユーザインターフェイスである。操作部38は、物理的なボタン等に限定されず、表示部40に表示されるタッチボタン等のソフトウェアボタンでもよい。 The operation unit 38 is a user interface such as a keyboard and a mouse. The operation unit 38 is not limited to physical buttons and the like, and may be software buttons such as touch buttons displayed on the display unit 40.

表示部40は、液晶ディスプレイや有機ELディスプレイ等であり、制御部32からの制御指令により各種データを表示する。各種データには、欠損部を有する生体データや、当該欠損部が補完された生体データ等が含まれる。 The display unit 40 is a liquid crystal display, an organic EL display, or the like, and displays various data by a control command from the control unit 32. The various data include biological data having a defective portion, biological data in which the defective portion is complemented, and the like.

記憶部42は、ハードディスクやフラッシュメモリ等で構成される。記憶部42は、生体データ処理プログラム42a、及びCNNとしての機能を発揮させるCNNライブラリ42bを記憶する。なお、図示していないが、記憶部42は、NNを定義する情報、学習済みCNNにおける各層の重み係数等を含むパラメータ情報を記憶する。 The storage unit 42 is composed of a hard disk, a flash memory, or the like. The storage unit 42 stores the biological data processing program 42a and the CNN library 42b that exerts a function as a CNN. Although not shown, the storage unit 42 stores information defining the NN, parameter information including the weighting coefficient of each layer in the learned CNN, and the like.

このような構成において、生体データ処理部34は、記憶部42に記憶されているCNNライブラリ42b、定義データ、パラメータ情報に基づいてメモリを用いてCNNとして機能する。 In such a configuration, the biometric data processing unit 34 functions as a CNN using a memory based on the CNN library 42b, definition data, and parameter information stored in the storage unit 42.

また、制御部32は、記憶部42に記憶されている生体データ処理プログラム42aに基づいて、生体データ処理を実行する。生体データ処理には、CNNに供給する学習データを作成する処理、学習データを供給してCNNを学習する処理、学習済みのCNNに対して欠損部を有する生体データを供給し、出力された生体データを取得する処理が含まれる。 Further, the control unit 32 executes the biometric data processing based on the biometric data processing program 42a stored in the storage unit 42. The biometric data processing includes a process of creating learning data to be supplied to the CNN, a process of supplying the learning data to learn the CNN, and a process of supplying biometric data having a defect to the trained CNN and outputting the living body. Includes the process of retrieving data.

図5は、制御部32、生体データ処理部34、及び記憶部42の各部の機能を示す。制御部32は、記憶部42に記憶されている生体データ処理プログラム42aに従い、記憶部42に記憶されたデータを読み出して生体データ処理部34に供給して生体データ処理部34で実現されるNNを学習させる。生体データ処理部34で実現されるCNNは、pix2pixに応じたネットワーク構成を有し、具体的には図1に示すように生成器12として機能する第1のCNNと、判別器20として機能する第2のCNNを備える。判別器20は、元データと生成器12により生成された偽データの真偽を判定するように学習し、他方で生成器12は判別器20をだますように学習する。制御部32は、学習用データとして、欠損部を有する生体データと欠損部を有しない生体データをペアとして生成し供給する。学習により生成器12として機能する第1のCNNのパラメータ情報、及び判別器20として機能する第2のCNNのパラメータ情報は、記憶部42に記憶される。 FIG. 5 shows the functions of the control unit 32, the biological data processing unit 34, and the storage unit 42. The control unit 32 reads the data stored in the storage unit 42 and supplies the data stored in the storage unit 42 to the biometric data processing unit 34 according to the biometric data processing program 42a stored in the storage unit 42, and the NN realized by the biometric data processing unit 34. To learn. The CNN realized by the biological data processing unit 34 has a network configuration corresponding to pix2pix, and specifically, as shown in FIG. 1, functions as a first CNN that functions as a generator 12 and a discriminator 20. It has a second CNN. The discriminator 20 learns to determine the authenticity of the original data and the false data generated by the generator 12, while the generator 12 learns to trick the discriminator 20. The control unit 32 generates and supplies a pair of biological data having a defective portion and biological data having no defective portion as learning data. The parameter information of the first CNN that functions as the generator 12 and the parameter information of the second CNN that functions as the discriminator 20 by learning are stored in the storage unit 42.

学習が完了した後、制御部32は、欠損部を有する生体データを入力データとして第1のCNNに供給する。生成器12として機能する第1のCNNは、欠損部を有する生体データの当該欠損部を補完し、欠損部を有しない生体データを出力する。制御部32は、第1のCNNから出力された欠損部を有しない生体データを取得する。制御部32は、欠損部が補完された生体データを取得すると、これに基づきストレス指標を算出して表示部40に表示する。 After the learning is completed, the control unit 32 supplies the biological data having the defective portion as input data to the first CNN. The first CNN functioning as the generator 12 complements the defective portion of the biological data having the defective portion and outputs the biological data having no defective portion. The control unit 32 acquires the biometric data output from the first CNN that does not have a defective portion. When the control unit 32 acquires the biological data in which the defective portion is complemented, the control unit 32 calculates a stress index based on the acquired biological data and displays it on the display unit 40.

なお、CNNライブラリ42bは、任意の深層学習ライブラリを用いることができ、例えばkerasを用いることができる。Kerasは、Pythonで書かれた、TensorFlow上で実行可能なオープンソースNNライブラリである。NNの層、損失関数、最適化、初期化、活性化関数、正規化は、全て新しいモデルを作成するための組み合わせ可能な独立したモジュールとして提供され、CNNをサポートする。 As the CNN library 42b, any deep learning library can be used, for example, keras can be used. Keras is an open source NN library written in Python that can be run on TensorFlow. The NN layer, loss function, optimization, initialization, activation function, and normalization are all provided as separate, combinable modules for creating new models and support CNN.

また、制御部32は、欠損部が補完された生体データを取得すると、これに基づきストレス指標を算出して表示部40に表示するが、欠損部が補完された生体データを表示部40に表示してもよく、欠損部が補完された生体データを別のプロセッサに供給し、当該別のプロセッサでストレス指標を算出してもよい。すなわち、欠損部の補完処理と、ストレス指標の算出処理を別のプロセッサで実行してもよい。欠損部の補完処理を実行するプロセッサとストレス指標を算出するプロセッサは、同一装置内に組み込まれている必要はなく、通信ネットワークで接続されていてもよい。 Further, when the control unit 32 acquires the biometric data in which the defective portion is complemented, the control unit 32 calculates the stress index based on the acquired biometric data and displays it on the display unit 40, but displays the biometric data in which the defective portion is complemented on the display unit 40. Alternatively, the biometric data in which the defective portion is complemented may be supplied to another processor, and the stress index may be calculated by the other processor. That is, the processing for complementing the defective portion and the processing for calculating the stress index may be executed by different processors. The processor that executes the complement processing of the defective portion and the processor that calculates the stress index do not have to be incorporated in the same device, and may be connected by a communication network.

さらに、生体データ処理装置30は、サーバクライアントシステムとして構成されていてもよい。この場合、例えばクライアント側の端末装置では被験者から生体データを収集してサーバ装置に送信する。サーバ装置では、学習済みのCNNで生体データの欠損部を補完し、さらにストレス指標を算出して端末装置に送信する。端末装置では、ストレス指標を受信して表示部に表示することも可能である。 Further, the biometric data processing device 30 may be configured as a server-client system. In this case, for example, the terminal device on the client side collects biological data from the subject and transmits it to the server device. In the server device, the learned CNN is used to supplement the missing part of the biological data, and the stress index is calculated and transmitted to the terminal device. The terminal device can also receive the stress index and display it on the display unit.

<処理>
図6は、本実施形態の生体データ処理装置30の処理フローチャートである。S101〜S107の処理が学習用データを作成する処理、S108及びS109の処理が学習処理、S110が学習済みのモデルを用いた補完処理である。
<Processing>
FIG. 6 is a processing flowchart of the biological data processing device 30 of the present embodiment. The processes S101 to S107 are processes for creating learning data, the processes S108 and S109 are learning processes, and S110 is a complementary process using a trained model.

まず、制御部32は、学習用データとして生体データを収集する(S101)。生体データは、複数の被験者にリストバンド型デバイス等のセンサを備えたデバイスを装着してもらうことで取得し得る。収集した生体データは、記憶部42に記憶される。 First, the control unit 32 collects biological data as learning data (S101). Biological data can be obtained by having a plurality of subjects wear a device equipped with a sensor such as a wristband type device. The collected biological data is stored in the storage unit 42.

次に、制御部32は、収集した生体データから欠損部のない無欠損部分を抽出する(S102)。具体的には、制御部32は、収集した全生体データを対象として、欠損のない所定時間を超える長さの部分を抽出する。所定時間は任意に設定し得るが、例えば30秒等とし得る。また、「欠損のない」とは、隣接するデータの取得時刻の差が閾時間以下となることを意味する。閾時間も任意に設定し得るが、例えば1.5秒等とし得る。 Next, the control unit 32 extracts a non-defective portion without a defective portion from the collected biological data (S102). Specifically, the control unit 32 extracts a portion having a length exceeding a predetermined time without any loss from the collected whole biological data. The predetermined time can be set arbitrarily, but may be, for example, 30 seconds. Further, "no loss" means that the difference between the acquisition times of adjacent data is equal to or less than the threshold time. The threshold time can be set arbitrarily, but can be, for example, 1.5 seconds.

全データから無欠損部分を抽出した後、制御部32は、無欠損部分をリサンプリングして、所定長さの固定長データを作成することで真値データを作成する(S103)。リサンプリングは、例えば4Hzのサンプリング周波数で実行され、所定長さは例えば31.75秒(4Hzで128個)等とし得る。 After extracting the non-defective portion from all the data, the control unit 32 resamples the non-defective portion and creates true value data by creating fixed-length data having a predetermined length (S103). Resampling is performed at a sampling frequency of, for example, 4 Hz, and the predetermined length can be, for example, 31.75 seconds (128 at 4 Hz).

真値データを作成した後、次に真値データに基づいて欠損部を有する生体データを作成する。 After creating the true value data, next, biometric data having a defect is created based on the true value data.

すなわち、まず、欠損箇所の数を設定する(S104)。欠損数の数は任意に設定し得るが、例えば2箇所あるいは3箇所等と設定する。 That is, first, the number of missing parts is set (S104). The number of defects can be set arbitrarily, but for example, it is set to 2 or 3 places.

次に、欠損箇所のインデックスをランダムに設定する(S105)。欠損箇所のインデックスとは、欠損箇所の先頭位置を示す。欠損箇所が2箇所の場合、データ長128の真値データに対し、ランダムに設定された2箇所が欠損箇所として設定される。 Next, the index of the missing portion is randomly set (S105). The index of the missing part indicates the starting position of the missing part. When there are two missing points, two randomly set points are set as missing points with respect to the true value data having a data length of 128.

さらに、欠損箇所のインデックスそれぞれに対し、欠損箇所の長さをランダムに設定する(S106)。ランダムに設定する際に、上限値を設定し、0〜上限値の範囲内でランダムに設定してもよい。上限値は、例えば20等と設定し得る。欠損箇所のインデックスはランダムに設定されるため、欠損箇所が結果として連続する場合もあり得、この場合には欠損箇所の長さが上限値を超える場合もあり得る。 Further, the length of the defective portion is randomly set for each index of the defective portion (S106). When setting at random, the upper limit value may be set and may be set randomly within the range of 0 to the upper limit value. The upper limit value can be set to, for example, 20 or the like. Since the index of the missing part is set randomly, the missing part may be continuous as a result, and in this case, the length of the missing part may exceed the upper limit value.

欠損箇所の数、インデックス、欠損箇所の長さは、予め生体データ処理プログラム42aに組み込まれていてもよく、あるいは利用者が操作部38を操作して入力してもよい。 The number of missing parts, the index, and the length of the missing parts may be incorporated in the biometric data processing program 42a in advance, or may be input by the user by operating the operation unit 38.

欠損箇所の数、インデックス、及び欠損箇所の長さを設定した後、これらの情報を用いて全ての真値データを対象としてデータを欠損させ、欠損箇所を所定値、例えば0で埋めることで欠損データを作成する(S107)。 After setting the number of missing points, the index, and the length of the missing points, data is lost for all true value data using this information, and the missing points are filled with a predetermined value, for example, 0. Create data (S107).

このようにして、真値データから欠損データが作成される。真値データを、仮に
x1,x2,x3,x4,・・・・・・、x127,x128
とすると、この真値データから2箇所に欠損部がある欠損データとして、
x1,x2,0,0,・・・,x60,x61,0,0,・・・,x127,x128
等と作成される。
In this way, missing data is created from the true value data. The true value data is assumed to be x1, x2, x3, x4, ..., X127, x128.
Then, from this true value data, as missing data with two missing parts,
x1, x2,0,0, ..., x60, x61,0,0, ..., x127, x128
Etc. are created.

制御部32は、作成した真値データ及び欠損データをペアとして、学習用データとしてCNNに与える。CNNは、与えられた学習用データを用いて学習し(S108)、生成器12として機能する第1のCNNのパラメータ情報、及び判別器20として機能する第2のCNNのパラメータ情報が記憶部42に記憶されてモデルが作成される(S109)。このモデルにより、入力データとして欠損データが入力されると、判別器20では真値と判定され得る偽データ、すなわち欠損部が補完された真値データが出力される。 The control unit 32 gives the created true value data and missing data as a pair to the CNN as learning data. The CNN learns using the given learning data (S108), and the parameter information of the first CNN that functions as the generator 12 and the parameter information of the second CNN that functions as the discriminator 20 are stored in the storage unit 42. The model is created by being stored in (S109). When missing data is input as input data by this model, false data that can be determined as a true value by the discriminator 20, that is, true value data in which the missing portion is complemented is output.

CNNの学習が完了すると、次に、制御部32は、ストレス評価の対象となる評価者から収集した生体データを記憶部42から読み出し、学習済みのモデルに供給する。学習済みのモデルにおける生成器12として機能する第1のCNNは、入力された欠損部を有する生体データの当該欠損部を補完して生体データを出力する(S110)。 When the learning of the CNN is completed, the control unit 32 then reads the biometric data collected from the evaluator to be stress-evaluated from the storage unit 42 and supplies it to the trained model. The first CNN functioning as the generator 12 in the trained model complements the defective portion of the input biological data having the defective portion and outputs the biological data (S110).

図7は、学習用データの作成処理、すなわち真値データから欠損データを作成する処理を模式的に示す。 FIG. 7 schematically shows a process of creating learning data, that is, a process of creating missing data from true value data.

図7の上段は、真値データ300の一例を時系列波形として示す。真値データ300は、収集したデータから無欠損部分を抽出し、無欠損部分をリサンプリングして所定長さの固定長データを作成することで得られる。具体的には、真値データ300は、リストバンド型デバイス等で得られた心電図から心拍間隔を計算した心拍間隔データである。図7の中段は、欠損箇所の数、インデックス、及び欠損箇所の長さを設定し、これらの情報を真値データ300に対して適用した場合を示す。欠陥箇所の数を2箇所とし、それぞれの箇所におけるインデックス及び長さをランダムに設定する。設定された箇所は図中破線300a,300bとして示す。破線300a及び破線300bの大きさは、0〜20の範囲内でランダムに設定されるので一般に同一ではない。図7の下段は、破線300a,300bで示す欠損箇所において真値データを欠損させた欠損データ302を示す。なお、欠損部分は、実際には0で埋められる。上段に示す真値データ300、及び下段に示す欠損データ302がペアとして学習用データが構成される。 The upper part of FIG. 7 shows an example of true value data 300 as a time series waveform. The true value data 300 is obtained by extracting a non-defective portion from the collected data and resampling the non-defective portion to create fixed-length data having a predetermined length. Specifically, the true value data 300 is heartbeat interval data obtained by calculating the heartbeat interval from an electrocardiogram obtained by a wristband type device or the like. The middle part of FIG. 7 shows a case where the number of missing parts, the index, and the length of the missing parts are set and these information are applied to the true value data 300. The number of defective parts is set to 2, and the index and length at each part are set at random. The set locations are shown as broken lines 300a and 300b in the figure. The sizes of the broken line 300a and the broken line 300b are generally not the same because they are randomly set within the range of 0 to 20. The lower part of FIG. 7 shows the missing data 302 in which the true value data is lost at the missing points indicated by the broken lines 300a and 300b. The missing portion is actually filled with 0. The learning data is composed of the true value data 300 shown in the upper row and the missing data 302 shown in the lower row as a pair.

CNNライブラリ42bとして、Kerasを用いて実装とテストを行った。 It was implemented and tested using Keras as the CNN library 42b.

まず、単純なテストとして、種々の周波数のsin波を作成し、その一部を欠落させることで欠損部を有するデータを作成し、欠損なしのデータと欠損ありのペアデータを作成した。そして、これらのペアデータを用いて生体データ処理部34のCNNをpix2pixで学習し、その後に欠損ありのsin波を入力したところ、欠損部が補完されたsin波が出力されることを確認した。 First, as a simple test, sine waves of various frequencies were created, and data having a defect was created by omitting a part of the sine wave, and pair data with no defect and pair data with a defect were created. Then, using these pair data, the CNN of the biometric data processing unit 34 was learned with pix2pix, and then a sine wave with a defect was input, and it was confirmed that a sine wave with the defective portion complemented was output. ..

次に、被験者6人に1ヶ月程度リストバンド型デバイスを装着してもらうことで、生体データとして心拍間隔データ(IBI)を収集した。 Next, heartbeat interval data (IBI) was collected as biometric data by having six subjects wear wristband type devices for about one month.

全データから欠損のない30秒を少し超える長さの箇所を抽出した。欠損がないとは、隣り合うデータの取得時刻の差が1.5秒より小さいこととした。合計10684箇所の無欠損データを抽出した。 From all the data, a part having a length slightly over 30 seconds without any loss was extracted. No loss means that the difference in acquisition time of adjacent data is less than 1.5 seconds. A total of 10684 non-defective data were extracted.

そして、無欠損データを対象として、4Hzでリサンプリングし、長さ31.75秒(4Hzで128個)の固定長のデータを作成して真値データとした。 Then, the non-defective data was resampled at 4 Hz, and fixed-length data having a length of 31.75 seconds (128 at 4 Hz) was created and used as true value data.

次に、真値データを対象として、欠損箇所を3箇所とし、データ長128に対して欠損箇所のインデックスをランダムに選択し、それぞれの欠損箇所の長さを0〜20からランダムに選択した。そして、欠損箇所をゼロ(0)で埋めて欠損データを作成した。 Next, for the true value data, the number of missing parts was set to three, the index of the missing part was randomly selected with respect to the data length of 128, and the length of each missing part was randomly selected from 0 to 20. Then, the missing part was filled with zero (0) to create the missing data.

真値データと欠損データをペアとし、合計10684個のペアデータからランダムに学習用ペアデータ9000個、テストデータ1000個を選択した。学習用ペアデータ9000個を用いて生体データ処理部34のCNNを学習させ、学習が完了した後に、テストデータ1000個を入力データとして与えてその出力を得た。 The true value data and the missing data were paired, and 9000 training pair data and 1000 test data were randomly selected from a total of 10684 pair data. The CNN of the biological data processing unit 34 was trained using 9000 pair data for learning, and after the learning was completed, 1000 test data were given as input data and the output was obtained.

図8A〜図8Fは、それぞれ異なるテストデータの入力波形と出力波形を示す。各図において、横軸は時間、縦軸は心拍間隔データにおける心拍間隔時間値であり、a,b,cはそれぞれ
a:真値データ
b:欠損データ
c:モデルから出力された補完データ
を示す。また、図8Gには、図8Fの一部拡大図を示す。cで示すモデルから出力された補完データと、aで示す真値データが一致していれば、欠損部が高精度に補完されたことを示す。これらの図8A〜図8Gに示すように、多くの欠損部分ではモデルから出力された補完データは真値データに近似している。但し、モデルから出力された補完データが真値データに一致していない箇所も存在する。例えば、図8Gに着目すると、2番目の欠陥箇所はモデルから出力された補完データ(c)と真値データ(a)はよく一致しているが、1番目の欠陥箇所では両者が一致していない。
8A to 8F show input waveforms and output waveforms of different test data. In each figure, the horizontal axis is time, the vertical axis is the heartbeat interval time value in the heartbeat interval data, and a, b, and c are a: true value data b: missing data c: complementary data output from the model. .. Further, FIG. 8G shows a partially enlarged view of FIG. 8F. If the complementary data output from the model indicated by c and the true value data indicated by a match, it indicates that the missing portion has been complemented with high accuracy. As shown in FIGS. 8A to 8G, the complementary data output from the model is close to the true value data in many missing parts. However, there are some places where the complementary data output from the model does not match the true value data. For example, focusing on FIG. 8G, in the second defect portion, the complementary data (c) and the true value data (a) output from the model are in good agreement, but in the first defect portion, both are in agreement. Absent.

図9は、モデルから出力された補完データと、欠損箇所を平均値で補完したデータを比較対象として、もう一方より真値に近い数、もう一方より真値に近い数の割合、及び真値との差分の平均値を表として示す。心拍間隔データからストレス指標(LF/HF)を算出し、ストレス指標を用いて比較した結果である。なお、真値データのストレス評価(LF/HF)が20以上と常識外のデータは除外し、868個のテストデータについて評価した結果である。 FIG. 9 shows the ratio of the number closer to the true value than the other, the ratio of the number closer to the true value than the other, and the true value, comparing the complementary data output from the model and the data obtained by complementing the missing part with the average value. The average value of the difference from and is shown in the table. It is the result of calculating the stress index (LF / HF) from the heartbeat interval data and comparing using the stress index. It should be noted that the stress evaluation (LF / HF) of the true value data is 20 or more, excluding the data that is not common sense, and is the result of evaluating 868 test data.

ストレス評価(LF/HF)は公知であり、心拍間隔データから、呼吸変動に対応する高周波変動成分(HF成分)と血圧変動であるメイヤー波(Mayer wave)に対応する低周波成分(LF成分)を抽出し、両者の大きさを比較するものである。HF成分とLF成分の大きさは任意に算出でき、例えば、パワースペクトルのLF成分の領域(0.05Hzから0.15Hzまで)、及びHF成分の領域(0.15Hzから0.40Hzまで)の強度を合計した値(積分値)を用いることができる。 Stress evaluation (LF / HF) is known, and from heartbeat interval data, high-frequency fluctuation component (HF component) corresponding to respiratory fluctuation and low-frequency component (LF component) corresponding to Mayer wave, which is blood pressure fluctuation, are known. Is extracted and the sizes of the two are compared. The magnitudes of the HF component and the LF component can be calculated arbitrarily, for example, in the LF component region (0.05 Hz to 0.15 Hz) and the HF component region (0.15 Hz to 0.40 Hz) of the power spectrum. The total value (integral value) of the intensities can be used.

モデルから出力された補完データが平均値で補完したデータよりも真値に近い数は494個あり、逆に平均値で補完したデータの方がモデルから出力された補完データよりも真値に近い数は374個存在する。また、モデルから出力された補完データが平均値で補完したデータよりも真値に近い割合は56.90%であり、逆に平均値で補完したデータの方がモデルから出力された補完データよりも真値に近い割合は43.10%である。さらに、モデルから出力された補完データと真値との差分の平均値は1.19であるのに対し、平均値で補完したデータと真値との差分の平均値は1.5である。 There are 494 complementary data output from the model that are closer to the true value than the data complemented by the mean value, and conversely, the data complemented by the average value is closer to the true value than the complementary data output from the model. There are 374 numbers. In addition, the ratio of the complement data output from the model closer to the true value than the data complemented by the mean value is 56.90%, and conversely, the data complemented by the mean value is better than the complement data output from the model. The ratio close to the true value is 43.10%. Further, the average value of the difference between the complementary data output from the model and the true value is 1.19, while the average value of the difference between the data complemented by the average value and the true value is 1.5.

従って、モデルから出力された補完データの方が、単に平均値で補完する場合に比べてより真値に近いデータとなる場合が多く、かつ、真値との差分も小さくなった。 Therefore, the complementary data output from the model is often closer to the true value than the case of simply complementing with the average value, and the difference from the true value is also small.

図10は、データ欠損率ごとの、モデルから出力された補完データ(c)と、単に平均値で補完したデータ(d)との、どちらが真値に近いかの個数をグラフで示す。図において、縦軸のカウント数はどちらが真値に近いかの個数であり、その値が大きいほど真値に近い数が多いことを示す。図に示すように、データ欠損率が0.05〜0.40の全領域に亘って、モデルから出力された補完データ(c)の方が、単に平均値で補完したデータ(d)よりも真値に近い値が得られた。 FIG. 10 graphically shows the number of complementary data (c) output from the model and data (d) simply complemented by the average value for each data loss rate, which is closer to the true value. In the figure, the number of counts on the vertical axis is the number of which is closer to the true value, and the larger the value is, the larger the number is closer to the true value. As shown in the figure, the complementary data (c) output from the model over the entire region where the data loss rate is 0.05 to 0.40 is more than the data (d) supplemented by the average value. A value close to the true value was obtained.

図11は、データ欠損率ごとの、モデルから出力された補完データ(c)と、単に平均値で補完したデータ(d)との、真値からの差分の平均値をグラフで示す。データ欠損率が0.30以下ではモデルから出力された補完データ(c)の方が、単に平均値で補完したデータ(d)よりも真値との差分の平均値が小さく、より真値に近い値が得られた。他方で、データ欠損率が0.30を超えると、モデルから出力された補完データ(c)と、単に平均値で補完したデータ(d)との差はあまり見られず同程度となった。このことから、本実施形態のモデルは、データ欠損率が所定範囲内において特に有効であり、具体的にはデータ欠損率が30%以下の場合において特に有効であった。 FIG. 11 graphically shows the average value of the differences from the true values of the complementary data (c) output from the model and the data (d) simply supplemented with the average value for each data loss rate. When the data loss rate is 0.30 or less, the complementary data (c) output from the model has a smaller average value of the difference from the true value than the data (d) supplemented with the average value, and becomes a more true value. A close value was obtained. On the other hand, when the data loss rate exceeds 0.30, the difference between the complementary data (c) output from the model and the data (d) simply complemented by the average value is not so much seen and is about the same. From this, the model of the present embodiment was particularly effective when the data loss rate was within a predetermined range, and specifically when the data loss rate was 30% or less.

図12は、本実施形態において用いたテストデータ1000個のデータ欠損率のヒストグラムを示す。データ欠損率20%程度にピークがあり、データ欠損率30%を超える個数は少ない。従って、モデルの適用範囲をデータ欠損率30%以下の場合に限定したとしても、殆どのテストデータに適用して欠損部を補完し得る。 FIG. 12 shows a histogram of the data loss rate of 1000 test data used in this embodiment. There is a peak at the data loss rate of about 20%, and the number of data loss rates exceeding 30% is small. Therefore, even if the application range of the model is limited to the case where the data loss rate is 30% or less, it can be applied to most test data to supplement the missing part.

なお、実施例では、学習用データとテストデータを同じ方法で作成しているため、学習用データのヒストグラムも図12に示すテストデータのヒストグラムと同様の傾向を示す。従って、このようなヒストグラムを示す学習用データを用いて学習した結果、データ欠損率が30%以下の場合に本実施形態のモデルが特に有効になったものと考えることもできる。従って、データ欠損率が30%以上の高データ欠損率の学習用データを増大させて学習することで、データ欠損率が30%以上と高いテストデータの場合にも真値に近い補完が可能となり得る。 In the embodiment, since the training data and the test data are created by the same method, the histogram of the training data shows the same tendency as the histogram of the test data shown in FIG. Therefore, as a result of learning using the learning data showing such a histogram, it can be considered that the model of the present embodiment is particularly effective when the data loss rate is 30% or less. Therefore, by increasing and learning the training data with a high data loss rate of 30% or more, it is possible to complement the test data with a high data loss rate of 30% or more, which is close to the true value. obtain.

12 生成器、20 判別器、30 生体データ処理装置、32 制御部、34 生体データ処理部、36 通信部、38 操作部、40 表示部、42 記憶部、42a 生体データ処理プログラム、42b NNライブラリ。
12 generator, 20 discriminator, 30 biometric data processing device, 32 control unit, 34 biometric data processing unit, 36 communication unit, 38 operation unit, 40 display unit, 42 storage unit, 42a biometric data processing program, 42b NN library.

Claims (8)

欠損部を有するデータと前記欠損部を有しないデータのペアを用い、前記欠損部を有するデータを入力すると前記欠損部を補完したデータを出力すべく学習されたニューラルネットワークと、
前記ニューラルネットワークに、欠損部を有する生体データを入力する入力部と、
前記ニューラルネットワークからの出力を、前記欠損部が補完された生体データとして出力する出力部と、
を備える生体データ処理装置。
A neural network learned to output data that complements the defective portion when data having the defective portion is input using a pair of data having a defective portion and data having no defective portion, and a neural network.
An input unit for inputting biological data having a defect into the neural network,
An output unit that outputs the output from the neural network as biological data in which the defect portion is complemented, and an output unit.
A biological data processing device comprising.
前記ニューラルネットワークは、pix2pixのニューラルネットワークである
請求項1に記載の生体データ処理装置。
The biological data processing apparatus according to claim 1, wherein the neural network is a pix2pix neural network.
前記入力部は、前記欠損部の占める比率が所定範囲内である場合のみ前記ニューラルネットワークに入力する
請求項1,2のいずれかに記載の生体データ処理装置。
The biometric data processing apparatus according to any one of claims 1 and 2, wherein the input unit inputs to the neural network only when the ratio occupied by the defective portion is within a predetermined range.
前記欠損部が補完された生体データを用いてストレス指標を算出する算出部
をさらに備える請求項1〜3のいずれかに記載の生体データ処理装置。
The biometric data processing apparatus according to any one of claims 1 to 3, further comprising a calculation unit for calculating a stress index using biometric data in which the defective portion is complemented.
コンピュータのプロセッサが、
欠損部を有しない生体データから前記欠損部を有する生体データを生成するステップと、
前記欠損部を有する生体データと前記欠損部を有しないデータのペアを用い、前記欠損部を有する生体データを入力すると前記欠損部を補完した生体データを出力すべくニューラルネットワークを学習するステップと、
を実行する生体データ処理方法。
The computer processor
The step of generating the biological data having the defective portion from the biological data having no defective portion, and
Using a pair of biometric data having the defective portion and data not having the defective portion, when the biometric data having the defective portion is input, the step of learning the neural network to output the biological data complementing the defective portion, and
Biodata processing method to perform.
学習した前記ニューラルネットワークに欠損部を有する生体データを入力し、前記ニューラルネットワークから前記欠損部を補完した生体データを出力するステップ
をさらに実行する請求項5に記載の生体データ処理方法。
The biometric data processing method according to claim 5, further performing a step of inputting biometric data having a defective portion into the learned neural network and outputting biometric data complementing the defective portion from the neural network.
コンピュータのプロセッサに、
欠損部を有しない生体データから前記欠損部を有する生体データを生成するステップと、
前記欠損部を有する生体データと前記欠損部を有しないデータのペアを用い、前記欠損部を有する生体データを入力すると前記欠損部を補完した生体データを出力すべくニューラルネットワークを学習するステップと、
を実行させるプログラム。
To the processor of the computer
The step of generating the biological data having the defective portion from the biological data having no defective portion, and
Using a pair of biometric data having the defective portion and data not having the defective portion, when the biometric data having the defective portion is input, the step of learning the neural network to output the biological data complementing the defective portion, and
A program that executes.
学習した前記ニューラルネットワークに欠損部を有する生体データを入力し、前記ニューラルネットワークから前記欠損部を補完した生体データを出力するステップ
をさらに実行させる請求項7に記載のプログラム。
The program according to claim 7, wherein the step of inputting the biological data having a defective portion into the learned neural network and outputting the biological data complementing the defective portion from the neural network is further executed.
JP2019168790A 2019-09-17 2019-09-17 Biological data processing apparatus, biological data processing method, and program Pending JP2021047548A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019168790A JP2021047548A (en) 2019-09-17 2019-09-17 Biological data processing apparatus, biological data processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019168790A JP2021047548A (en) 2019-09-17 2019-09-17 Biological data processing apparatus, biological data processing method, and program

Publications (1)

Publication Number Publication Date
JP2021047548A true JP2021047548A (en) 2021-03-25

Family

ID=74878457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019168790A Pending JP2021047548A (en) 2019-09-17 2019-09-17 Biological data processing apparatus, biological data processing method, and program

Country Status (1)

Country Link
JP (1) JP2021047548A (en)

Similar Documents

Publication Publication Date Title
Jiwani et al. Novel healthcare framework for cardiac arrest with the application of AI using ANN
US9913587B2 (en) Method and system for screening of atrial fibrillation
US7487134B2 (en) Medical risk stratifying method and system
US8527251B2 (en) Method and system for multi-component heart and aorta modeling for decision support in cardiac disease
Brodu et al. Exploring two novel features for EEG-based brain–computer interfaces: Multifractal cumulants and predictive complexity
KR20190100011A (en) Method and apparatus for providing surgical information using surgical video
EP3453321B1 (en) Non-invasive method and system for estimating blood pressure from photoplethysmogram using statistical post-processing
CN111133526A (en) Discovering novel features that can be used in machine learning techniques, e.g. for diagnosing medical conditions
US20170329905A1 (en) Life-Long Physiology Model for the Holistic Management of Health of Individuals
EP3125757A1 (en) System and method for focal source identification
KR20190046471A (en) Method for processing of medical image and medical image processing apparatus thereof
EP3445239A2 (en) Method and system for estimating a location of an epileptogenic zone of a mammalian brain
EP3617964A1 (en) Performance measurement device, performance measurement method and performance measurement program
KR20180036503A (en) Apparatus and method of brain-computer interface for device controlling based on brain signal
Sharma et al. Machine learning-based analysis of operator pupillary response to assess cognitive workload in clinical ultrasound imaging
Thiemjarus et al. An eye–hand data fusion framework for pervasive sensing of surgical activities
CN113974589B (en) Multi-modal behavior paradigm evaluation optimization system and cognitive ability evaluation method
US20240156536A1 (en) System and method for automated focal source detection
JP2022014912A (en) Optimized ablation for persistent atrial fibrillation
Arya et al. Heart disease prediction with machine learning and virtual reality: from future perspective
KR20200096155A (en) Method for analysis and recognition of medical image
CN111507455B (en) Neural network system generation method and device, image processing method and electronic equipment
JP2021047548A (en) Biological data processing apparatus, biological data processing method, and program
EP4113528A1 (en) System and method to determine the location of a catheter
CN116504398A (en) Methods and systems for arrhythmia prediction using a transducer-based neural network