JP2593625B2 - Biological information automatic identification device - Google Patents

Biological information automatic identification device

Info

Publication number
JP2593625B2
JP2593625B2 JP6001567A JP156794A JP2593625B2 JP 2593625 B2 JP2593625 B2 JP 2593625B2 JP 6001567 A JP6001567 A JP 6001567A JP 156794 A JP156794 A JP 156794A JP 2593625 B2 JP2593625 B2 JP 2593625B2
Authority
JP
Japan
Prior art keywords
biological information
subject
arithmetic unit
automatic identification
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6001567A
Other languages
Japanese (ja)
Other versions
JPH07204168A (en
Inventor
利光 武者
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BRAIN FUNCTIONS LABORATORY, INC.
Original Assignee
BRAIN FUNCTIONS LABORATORY, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BRAIN FUNCTIONS LABORATORY, INC. filed Critical BRAIN FUNCTIONS LABORATORY, INC.
Priority to JP6001567A priority Critical patent/JP2593625B2/en
Publication of JPH07204168A publication Critical patent/JPH07204168A/en
Application granted granted Critical
Publication of JP2593625B2 publication Critical patent/JP2593625B2/en
Priority to US08/902,648 priority patent/USRE36450E/en
Priority to US08/904,043 priority patent/US6349231B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は生体情報自動識別装置に
関し、特にME(メディカル・エレクトロニクス:医療
用電子機器)分野において人間の脳波を計測し脳の神経
活動の解析を行う装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for automatically identifying biological information, and more particularly to an apparatus for measuring human brain waves and analyzing neural activity in the brain in the field of medical electronics (ME). .

【0002】[0002]

【従来の技術】人間の思考・認識・記憶の想起・快/不
快及び精神的な疲労・緊張等は、脳内にある多数のニュ
ーロン(神経細胞)の電気的な活動を反映することは既
に広く知られている。
2. Description of the Related Art Human thought, recognition, memory recall, pleasure / discomfort, mental fatigue, tension, etc., already reflect the electrical activity of many neurons in the brain. Widely known.

【0003】このため、思考過程、認識、記憶の想起、
またある種の感情に伴ってニューロンの活動に連携が発
生して、その連携が頭皮面に電位として現れ、これを脳
波として計測することができる。
For this reason, the thinking process, recognition, recall of memory,
In addition, coordination occurs in the activity of neurons with a certain emotion, and the coordination appears as a potential on the scalp surface, which can be measured as an electroencephalogram.

【0004】そこで本発明者は既に特願平4-317568号に
おいて発明の名称「脳波の多次元相関分析方法」を既に
出願し、脳神経活動の定性的な分析を行っている。
Accordingly, the present inventor has already filed an application for the title of "Multidimensional Correlation Analysis of EEG" in Japanese Patent Application No. 4-317568, and has conducted qualitative analysis of cranial nerve activity.

【0005】この発明を概略的に説明すると、人体頭部
(平面図)において所定数(例えば21個)の電極(脳
波センサ)を設置し、これらの各電極の出力信号をフー
リエ変換し、それによって得られる種々の周波数成分の
ピークが周波数毎に一致している電極同士の位置を図6
に示すように例えば色別に画面表示したものである。
The present invention will be described in brief. A predetermined number (for example, 21) of electrodes (electroencephalogram sensors) are provided on a human head (plan view), and output signals of these electrodes are subjected to Fourier transform. FIG. 6 shows the positions of the electrodes where the peaks of various frequency components obtained by
For example, as shown in FIG.

【0006】即ち、図6に示す場合には被験者が例えば
快適な音楽を聞いたときの各電極出力の相関が強いもの
の状態を示している。
That is, the case shown in FIG. 6 shows a state where the correlation between the electrode outputs is strong when the subject listens to comfortable music, for example.

【0007】尚、この例では特に脳波中の代表的なα波
のピークによって検出を行っている。
[0007] In this example, the detection is particularly performed based on the peak of a typical α wave in brain waves.

【0008】[0008]

【発明が解決しようとする課題】この様に脳波の解析を
相関分析方法により行う従来例においては、図6に示し
た様に画面表示が行われるので、被験者の例えば感情の
識別が定性的にはできるが定量化するのは困難であると
いう問題点があった。
In the conventional example in which the analysis of brain waves is performed by the correlation analysis method as described above, the screen is displayed as shown in FIG. However, there is a problem that it is difficult to quantify.

【0009】従って本発明は、人間の感情や知的作業内
容に対して定量化することにより識別が容易な生体情報
自動識別装置を提供することを目的とする。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an apparatus for automatically identifying biological information which can be easily identified by quantifying human emotions and intellectual work contents.

【0010】[0010]

【課題を解決するための手段】上記の目的を達成するた
め、本発明に係る生体情報自動識別装置は、被験者の身
体に取り付けられて該被験者の特徴量を検出する複数個
のセンサと、各センサの出力信号を増幅する増幅器と、
該増幅器の各出力信号をディジタル信号に変換すると共
に各ディジタル信号をフーリエ変換し所望周波数帯域内
の複数の分割された周波数帯域毎のスペクトルパワーを
求め、更にニューラルネットワークにより該スペクトル
パワーが該センサを取り付けた被験者の複数の感情要素
又は知的作業内容要素に対して標準値になるように該ニ
ューラルネットワークの係数及びバイアスを学習して求
めて記憶しておきその後の各センサの出力信号と各係数
及びバイアスを該ニューラルネットワークに適用したと
きの値から該被験者の感情要素又は知的作業内容要素
のレベルを演算する演算装置と、該演算装置の演算結果
を表示する表示装置と、を備えている。
In order to achieve the above object, an automatic biological information identifying apparatus according to the present invention comprises a plurality of sensors attached to a body of a subject to detect a characteristic amount of the subject; An amplifier for amplifying the output signal of the sensor;
Each output signal of the amplifier is converted into a digital signal, and at the same time, each digital signal is Fourier-transformed to obtain a spectral power for each of a plurality of divided frequency bands within a desired frequency band. Learning and calculating and storing the coefficients and biases of the neural network so that a plurality of emotional elements or intellectual work content elements of the attached subject become standard values, and thereafter output signals and coefficients of each sensor. And a computing device that computes the level of each emotional element or intellectual work content element of the subject from a value when the bias is applied to the neural network, and a display device that displays the computation result of the computing device. I have.

【0011】また上記の本発明では、該特徴量が、頭皮
上電位又は筋電位であればよい。
Further, in the above-mentioned present invention, it is sufficient that the characteristic amount is a scalp potential or a myoelectric potential.

【0012】更に上記の演算装置は、該特徴量として該
頭皮上電位又は筋電位の代わりに各センサ出力同士の相
互相関係数を用いてもよい。
Further, the arithmetic unit may use a cross-correlation coefficient between sensor outputs instead of the scalp potential or the myoelectric potential as the characteristic amount.

【0013】更に上記の演算装置は、該スペクトルパワ
ーの代わりに或いは加えて心拍回数、眼球運動及び瞬き
頻度の内の少なくともいずれかを用いてもよい。
Further, the arithmetic unit may use at least one of the number of heartbeats, eye movement and blink frequency instead of or in addition to the spectral power.

【0014】また、上記の所望周波数帯域はα帯域及び
β帯域の少なくともいずれかであることが好ましい。
Preferably, the desired frequency band is at least one of an α band and a β band.

【0015】[0015]

【作用】本発明においては対象とする人間の脳神経活動
を例えば感情や知的作業内容に関して以下の通り定量化
を行うものである。
In the present invention, the cerebral nerve activity of a target human is quantified, for example, with respect to emotions and intellectual work contents as follows.

【0016】即ち、演算装置は、所定数の脳波センサか
ら出力され増幅器で増幅された出力信号を入力する。
That is, the arithmetic unit inputs an output signal output from a predetermined number of brain wave sensors and amplified by an amplifier.

【0017】そして、この入力したアナログ信号をディ
ジタル信号に変換するとともにこのディジタル信号を各
センサ出力毎にフーリエ変換してそれぞれ所望周波数帯
域(例えばα帯域及びβ帯域の少なくともいずれか)に
分割する。
The input analog signal is converted into a digital signal, and the digital signal is Fourier-transformed for each sensor output to divide the digital signal into desired frequency bands (for example, at least one of the α band and the β band).

【0018】そしてこの様に分割した周波数帯域毎のス
ペクトルパワー、即ち該周波数帯域内での時間軸上のバ
リアンス(Variance:分散)を求める。
Then, the spectrum power for each frequency band divided in this manner, that is, the variance on the time axis (variance) within the frequency band is obtained.

【0019】そしてこれらのスペクトルパワーをニュー
ラルネットワークに入力して処理を行い、センサを取り
付けた被験者におけるいろいろな感情要素又は知的作業
内容要素を表す標準値になるように該ニューラルネット
ワーク中の各係数及びバイアスを学習により求め記憶し
ておく。
These spectral powers are input to a neural network and processed, and each coefficient in the neural network is set to a standard value representing various emotional elements or intellectual work content elements in a subject to which the sensor is attached. And bias are obtained by learning and stored.

【0020】その後、このようにして記憶しておいた当
該被験者の各センサ出力に対してニューラルネットワー
クが学習した各係数及びバイアスをそれぞれの状況にお
ける被験者の示す上記特徴量に適用することにより、ニ
ューラルネットワークで演算された値が上記の感情要素
又は知的作業内容要素のレベルを表す値(アナログ値)
となるので、この値を表示することにより該被験者の現
在の感情を判定することが出来る。
Thereafter, by applying the coefficients and bias learned by the neural network to the sensor outputs of the subject stored in this way, to the above-mentioned feature values indicated by the subject in each situation, A value (analog value) in which the value calculated by the network indicates the level of the emotion element or the intellectual work content element.
By displaying this value, the current emotion of the subject can be determined.

【0021】この様に、個人毎に脳神経活動の特徴が異
なっていることに着目し、個人毎にデータファイルを作
れば、精度の良い感情又は知的作業内容の自動識別を行
うことが可能となる。
By focusing on the fact that the characteristics of cranial nerve activity differ from person to person and creating a data file for each individual, accurate identification of emotions or intellectual work can be performed with high accuracy. Become.

【0022】[0022]

【実施例】図1は本発明に係る生体情報自動識別装置の
実施例の構成を示したもので、図中、1はこの脳波解析
の被験者であり、この被験者1の頭部には例えば6個の
脳波センサ(電極)21 〜26 がペーストにより装着さ
れている。
FIG. 1 shows the configuration of an embodiment of an automatic biological information identification apparatus according to the present invention. In the figure, reference numeral 1 denotes a subject for the electroencephalogram analysis, and number of EEG sensors (electrodes) 2 1 to 2 6 is mounted by a paste.

【0023】尚、被験者の脳神経活動を示す特徴量とし
て頭皮上の電位分布だけでなく、筋電位を検出するよう
にセンサを被験者1の頭部に取り付けてもよい。更には
上記の頭皮上の電位分布や筋電位の代わりに或いは加え
て心拍回数、眼球運動及び瞬き頻度の内の少なくともい
ずれかをセンサにより検出してもよい。
Note that a sensor may be attached to the head of the subject 1 so as to detect not only the potential distribution on the scalp but also the myoelectric potential as the characteristic amount indicating the cranial nerve activity of the subject. Further, instead of or in addition to the potential distribution on the scalp and the myoelectric potential, at least one of the number of heartbeats, eye movements, and blink frequency may be detected by a sensor.

【0024】これら6個のセンサ21 〜26 はプリアン
プ3で一旦増幅された後、更にメインアンプ4で所定の
レベルまで増幅された後、演算装置5に与えられ、最終
的に識別結果を表示装置6に与えて表示する。尚、プリ
アンプ3とメインアンプ4とで増幅器を構成している。
[0024] After the six sensors 2 1 to 2 6, which is once amplified by the preamplifier 3, after being further amplified by the main amplifier 4 to a predetermined level, given to the arithmetic unit 5, a final identification result It is given to the display device 6 and displayed. The preamplifier 3 and the main amplifier 4 constitute an amplifier.

【0025】図2は図1に示した演算装置5の処理手順
を示しており、以下、この図2のフローチャートを参照
して演算装置5における演算処理について説明する。
FIG. 2 shows the processing procedure of the arithmetic unit 5 shown in FIG. 1. Hereinafter, the arithmetic processing in the arithmetic unit 5 will be described with reference to the flowchart of FIG.

【0026】先ず、演算装置5はメインアンプ4からの
各センサ21 〜26 の出力アナログ信号を入力してそれ
ぞれディジタル信号に変換する(ステップS1)。
[0026] First, the arithmetic unit 5 converts into digital signals by inputting the output analog signals of the sensors 2 1 to 2 6 from the main amplifier 4 (Step S1).

【0027】そして、これらの各センサの出力に高速フ
ーリエ変換(FFT)を施して時間情報から周波数情報
に変換する(ステップS2)。
Then, the output of each of these sensors is subjected to a fast Fourier transform (FFT) to convert time information into frequency information (step S2).

【0028】ここで、このフーリエ変換について簡単に
説明すると、時系列の長さをT秒とした時、1個のセン
サに付き1/T〔Hz〕毎にフーリエ変換値が周波数スペ
クトルにおけるスペクトルパワーとして図3に示すよう
に発生する。この場合の周波数は、1/T〔Hz〕毎に離
散的になる。最高周波数は1/2τ〔Hz〕(τは脳波を
A/D変換するときのサンプリング間隔)である。
Here, the Fourier transform will be briefly described. Assuming that the length of the time series is T seconds, the Fourier transform value is the spectral power in the frequency spectrum every 1 / T [Hz] per sensor. As shown in FIG. In this case, the frequency becomes discrete every 1 / T [Hz]. The highest frequency is 1 / 2τ [Hz] (τ is a sampling interval when A / D conversion is performed on brain waves).

【0029】この結果、合計で(1/2τ)/(1/
T)=T/2τ個のフーリエ変換値が発生することにな
る。各周波数毎に実数部と虚数部が存在し、変数として
は全部で、(1/2τ)×2=T/τ個発生する。
As a result, a total of (1 / 2τ) / (1 /
T) = T / 2τ Fourier transform values will be generated. There are a real part and an imaginary part for each frequency, and a total of (1 / 2τ) × 2 = T / τ variables are generated.

【0030】尚、図3ではフーリエ変換波形として、脳
波における『感情』(要素)又は『知的作業内容』(要
素)等を推し量る重要な情報であるα波帯域(8〜13
Hz)のみを例示しているが、その他、δ波(1〜3H
z)、θ波(4〜7Hz)、又はβ波(13Hz以上)につ
いても同様に適用することが出来る。以下の説明ではα
波のみを例にとって説明する。
In FIG. 3, as the Fourier transform waveform, α wave band (8 to 13) which is important information for estimating “emotional” (element) or “intelligent work contents” (element) in the brain wave.
Hz), but other δ waves (1-3H)
The same applies to z), θ wave (4 to 7 Hz), or β wave (13 Hz or more). In the following description, α
A description will be given using only the wave as an example.

【0031】この様にして得たα波帯域のフーリエ変換
波形において特にそのうちの例えば3つの部分周波数帯
域α12,α3 をバンドパスフィルタリング(BPF)
により抽出する(ステップS3)。尚、部分周波数帯域
α12,α3 の例としては、α1=8〜9.5Hz,α2=9.5〜
11Hz,α3=11〜13Hzである。
In the Fourier transform waveform of the α-wave band obtained in this way, for example, three partial frequency bands α 1 , α 2 and α 3 are particularly band-pass filtered (BPF).
(Step S3). In addition, as an example of the partial frequency bands α 1 , α 2, α 3 , α 1 = 8 to 9.5 Hz, α 2 = 9.5 to
11 Hz, α 3 = 11 to 13 Hz.

【0032】このように部分周波数帯域α12,α3
以下の処理に用いるのは、α波以外の上記のような種々
の脳波も含めて処理を行うと情報過多になって識別が困
難になるためである。
The use of the partial frequency bands α 1 , α 2, α 3 in the following processing as described above is performed when the processing including the above-mentioned various brain waves other than the α wave causes an excessive amount of information, resulting in discrimination. This is because it becomes difficult.

【0033】この様にして求めた各センサ出力の部分周
波数帯域α12,α3 のそれぞれのスペクトルパワー
は、周波数帯域α12,α3 はそれぞれ6個のセンサ2
1 〜2 6 について存在するので、x1 1,x1 2,x1 3,x
1 4,x1 5,x1 6; x2 1,x2 2,x2 3,x2 4,x2 5
2 6; x3 1,x3 2,x3 3,x3 4,x3 5,x3 6から成る6
×3=18個のスペクトルパワーが求められることにな
る(ステップS4)。
The partial circumference of each sensor output obtained in this way
Wavenumber band α1, α2,αThreeThe spectral power of each
Is the frequency band α1, α2,αThreeIs six sensors 2 each
1~ 2 6X1 1, X1 Two, X1 Three, X
1 Four, X1 Five, X1 6; xTwo 1, XTwo Two, XTwo Three, XTwo Four, XTwo Five,
xTwo 6; xThree 1, XThree Two, XThree Three, XThree Four, XThree Five, XThree 6Consisting of 6
× 3 = 18 spectral powers will be obtained.
(Step S4).

【0034】尚、上記のスペクトルパワーの代わりに、
各センサ出力の値同士の「相互相関」を用いてもよい。
上記のように6個のセンサを用いた場合は各周波数帯域
毎に全部で62=15個の相関値が得られることにな
る。
Incidentally, instead of the above spectral power,
"Cross correlation" between the values of the sensor outputs may be used.
When six sensors are used as described above, a total of 6 C 2 = 15 correlation values can be obtained for each frequency band.

【0035】このようにして求めたスペクトルパワーx
1 1〜x3 6を演算装置5においてソフトウェアにより設け
られたニューラルネットワークに与えることにより、こ
のニューラルネットワークの出力値が被験者1に例えば
複数の音を聴かせたときの感情又は知的作業内容を表す
標準値となるようなニューラルネットワークの係数及び
バイアスの組を学習により求める(ステップS5)。
The thus obtained spectral power x
By providing the neural network provided by the software in 1 1 ~x 3 6 an arithmetic unit 5, an emotion or intellectual work when the output value of the neural network has listened a plurality of sounds, for example, in the subject 1 A set of a neural network coefficient and a bias that becomes a standard value to be represented is obtained by learning (step S5).

【0036】ここで、ニューラルネットワークの学習方
法を図4並びにこの図4の内容を示す以下の式により説
明する。尚、このニューラルネットワークはバック・プ
ロパゲーション(Back propagation)法として知られたア
ルゴリズムを用いているが、その他のアルゴリズムを用
いてもよい。
Here, the learning method of the neural network will be described with reference to FIG. 4 and the following equations showing the contents of FIG. Although the neural network uses an algorithm known as a back propagation method, other algorithms may be used.

【0037】まず、スペクトルパワーx1 1〜x3 6に対し
て次式(1)に示すように、重み付け係数(C)により
重み付けを行い、更にこの乗算結果にバイアス(B)を
加算する。そして、この演算結果を(y1,2,3)と定
義する。
Firstly, as shown in the following equation (1) with respect to the spectral power x 1 1 ~x 3 6, performs weighting by the weighting factor (C), further adding the bias (B) to the multiplication result. Then, define the calculation result (y 1, y 2, y 3).

【0038】[0038]

【数1】 (Equation 1)

【0039】尚、上記の重み付け係数(C)はニューロ
ンの数N=3としてしているが、後述するようにこのニ
ューロンの数Nは適当に選択することができる。
Although the weighting coefficient (C) is set to the number of neurons N = 3, the number N of neurons can be appropriately selected as described later.

【0040】この演算結果(y1,2,3)は、更に例え
ば図4に示すような非線型関数Fによって次式(2)に
示すように値(z1,2,3)に変換される。
The operation result (y 1, y 2, y 3 ) is further converted to a value (z 1, z 2, z 3 ) by a non-linear function F as shown in FIG. ).

【0041】[0041]

【数2】 (Equation 2)

【0042】そして更に今度は、値(z1,2,3)に対
して次式(3)に示すように別の重み付け係数(D)に
より重み付けを行い、更にこの乗算結果にバイアス
(B')を加算する。そして、この演算結果を(w1,
2,3)と定義する。
[0042] And further turn, performs weighting with the value (z 1, z 2, z 3) different weighting coefficients as shown in the following equation (3) with respect to (D), further bias the result of the multiplication ( B ′) is added. Then, the calculation result is expressed as (w 1, w
2, w 3 ).

【0043】[0043]

【数3】 (Equation 3)

【0044】尚、この場合にも、ニューロンの数N=3
に仮定している。
Note that also in this case, the number of neurons N = 3
Is assumed.

【0045】この演算結果(w1,2,3)は、更に例え
ば図4に示すような線型関数Gによって次式(4)に示
すように値(v1,2,3)に変換(圧縮)される。
The calculation result (w 1, w 2, w 3 ) is further converted to a value (v 1, v 2, v 3 ) by a linear function G as shown in FIG. (Compressed).

【0046】[0046]

【数4】 (Equation 4)

【0047】このようにして求めた値(v1,2,3)に
対して次式(5)に示すように、例えば脳の神経活動と
しての「感情」に適用すると、被験者1にとって「喜」
「怒」「哀」を示すものとして予め分かっている3つの
音を該被験者1に聴かせたときのそれぞれの感情〜
を標準値(又は基準値)(100),(010),(0
01)として割り当て、この時の上記の重み付け係数
(C)及び(D)並びにバイアス(B)及び(B')を
繰り返し学習(Iteration)により求める。
When the value (v 1, v 2, v 3 ) obtained in this way is applied to, for example, “emotion” as neural activity of the brain as shown in the following equation (5), "Pleasure"
Emotions when the subject 1 listens to three sounds that are known in advance to indicate "anger" and "sorrow"
To standard values (or reference values) (100), (010), (0
01), and the weighting coefficients (C) and (D) and the biases (B) and (B ′) at this time are obtained by iterative learning (Iteration).

【0048】[0048]

【数5】 (Equation 5)

【0049】尚、上記の学習では、3つの感情〜に
対応させるために3つの線型関数部Gを用いる必要があ
るが、この線型関数部Gの前においては、適当な数の重
み付け係数(C),(D)とバイアス(B)と非線型関
数(F)を用いることができる。
In the above learning, it is necessary to use three linear function parts G in order to correspond to three emotions. However, before this linear function part G, an appropriate number of weighting coefficients (C ), (D), bias (B) and non-linear function (F).

【0050】この様にして所定の複数の音を被験者1に
聞かせたときの感情を表す値に対する重み付け係数
(C)及び(D)並びにバイアス(B)及び(B')の
組を算出した後、演算装置5に内蔵したメモリ(図示せ
ず)に記憶しておく(ステップS5)。
After calculating the set of the weighting coefficients (C) and (D) and the biases (B) and (B ') for the value representing the emotion when the plurality of predetermined sounds are heard by the subject 1, Are stored in a memory (not shown) built in the arithmetic unit 5 (step S5).

【0051】そして、メモリに記憶された重み付け係数
(C)及び(D)並びにバイアス(B)及び(B')の
組はその被験者1の3つの感情〜に関する固有の特
徴を示すものであり、この後に各センサ出力より求めた
スペクトルパワーx1 1〜x3 6(ステップS4)に対し
て、図4並びに上記の式(1)〜(5)に示すようにメ
モリに記憶された重み付け係数(C)及び(D)並びに
バイアス(B)及び(B')の組を適用する。
The set of the weighting coefficients (C) and (D) and the biases (B) and (B ′) stored in the memory indicates the unique characteristics of the subject 1 regarding the three emotions. relative spectral power x 1 1 ~x 3 6 obtained from each sensor output after this (step S4), and 4 and the above-described formula (1) to (5) weighting coefficients stored in the memory as shown in ( C) and (D) and the set of biases (B) and (B ′) apply.

【0052】これにより、式(4)に示した値(v1,
2,3)は、式(5)のようなバイナリー値ではなく、そ
れぞれ例えば「0.5 」, 「0.3 」, 「0.1 」のようにア
ナログ値として出力されることとなり、被験者1の現在
の感情状態を表示装置6において図5に示すような棒グ
ラフの他、円グラフ、または記号や色彩等を用いて表示
することができる(ステップS6)。
As a result, the values (v 1, v
2, v 3 ) is not a binary value as in equation (5), but is output as an analog value, for example, “0.5”, “0.3”, “0.1”, respectively. The state can be displayed on the display device 6 using a bar chart as shown in FIG. 5, a pie chart, a symbol, a color, or the like (step S6).

【0053】ここで、上記のニューラルネットワーク学
習方法を最も簡単な例で説明すると、図4の出力z1
みで足りることとなる。
[0053] Here, it described in the simplest case the neural network learning methods, and it is sufficient with only the output z 1 in FIG.

【0054】即ち、重み付け係数(C)は(c1,2,
18) のみとし、バイアス(B)もb1 のみとすること
により、次式(6)に示すように値y1 のみが得られ
る。
That is, the weighting coefficient (C) is (c 1, c 2, ...)
By setting only c 18 ) and the bias (B) to only b 1, only the value y 1 is obtained as shown in the following equation (6).

【0055】[0055]

【数6】 (Equation 6)

【0056】そして、この値y1 を1つの非線型関数F
により変換することによりF(y1)=z1 が得られる
こととなる。この値z1 に、不快を示す値を「0」と
し、快感を示す値を「1」として予め決めておく。
Then, this value y 1 is converted into one nonlinear function F
, F (y 1 ) = z 1 is obtained. This value z 1, the value indicating the unpleasant "0" determined in advance a value indicating pleasure as "1".

【0057】例えば、予め、感情を表す値「0」及び
「1」についてそれぞれ被験者1が最も嫌がる「雑音」
と被験者1が最も好む音楽とを選んでおくか、或いは、
この様な音楽又は音を聞かせたときに演算装置5に設け
られているキーボードのキーを被験者1が選択するよう
に設定しておく。
For example, the subject 1 most dislikes the “noise” for the values “0” and “1” representing emotions in advance.
And the music that test subject 1 prefers, or
The subject 1 is set to select a key of a keyboard provided in the arithmetic unit 5 when such music or sound is heard.

【0058】これらの「1」及び「0」を代入し且つ学
習することにより重み付け係数(c 1,2,…c18) とバ
イアスb1 の組を算出することができ、これらを記憶し
ておいて、各センサ出力に上記の式(6)において適用
すれば、現在の被験者1の感情の不快感と快感との割合
を表示装置6に表示することができる。
Substituting these “1” and “0” and learning
The weighting factor (c 1,c2,... c18) And ba
Ias b1Can be calculated, and these are stored.
Applied to each sensor output in the above equation (6)
Then, the ratio of the discomfort and the pleasure of the subject's emotion 1
Can be displayed on the display device 6.

【0059】尚、上記の実施例では感情を3つに分類し
て説明したが、これ以上の多くの感情を考慮することも
可能であり、これらに対応する感情の値も上記のように
限定されるものではない。
Although the above embodiment has been described by classifying emotions into three types, it is possible to consider many more emotions, and the values of the emotions corresponding to these are also limited as described above. It is not something to be done.

【0060】また、上記の説明では感情を例にとって説
明したが、その他、暗算や図形認識、音声認識等の知的
作業内容についても同様に適用することが出来る。
In the above description, emotions have been described as examples, but the present invention can be similarly applied to intellectual work contents such as mental arithmetic, graphic recognition, and voice recognition.

【0061】[0061]

【発明の効果】以上説明したように本発明に係る生体情
報自動識別装置によれば、被験者の身体に取り付けられ
て該被験者の特徴量を検出する複数個のセンサのディジ
タル出力信号をフーリエ変換し所望周波数帯域内の複数
の分割された周波数帯域毎のスペクトルパワーを求め、
ニューラルネットワークにより該スペクトルパワーが該
センサを取り付けた被験者の複数の感情要素又は知的作
業内容要素に対して標準値になるように該ニューラルネ
ットワークの係数及びバイアスを学習して求めて記憶し
ておきその後の各センサの出力信号と各係数及びバイア
スをニューラルネットワークに適用したときの値から該
被験者の感情要素又は知的作業内容要素の各レベルを演
算し判定するように構成したので、次のような自動識別
が可能となる。
As described above, according to the apparatus for automatically identifying biological information according to the present invention, the digital output signals of a plurality of sensors attached to the body of a subject and detecting the characteristic amount of the subject are subjected to Fourier transform. Determine the spectral power for each of a plurality of divided frequency bands in the desired frequency band,
Learning and storing coefficients and biases of the neural network so that the spectral power becomes a standard value for a plurality of emotional elements or intelligent work content elements of the subject to which the sensor is attached by the neural network. Since each level of the subject's emotional element or intellectual work content element is calculated and determined from the output signal of each sensor and the value when each coefficient and bias are applied to the neural network, the following is performed. Automatic identification becomes possible.

【0062】(1)例えば、暗算をしているときに、ど
の程度暗算に集中していたか、またどのような思考形態
をとったのか、どの位思考を休んでいたか等を識別する
ことができる。
(1) For example, when performing mental arithmetic, it is possible to identify how much concentration was made in mental arithmetic, what kind of thinking form was taken, and how much thinking was rested. it can.

【0063】(2)また、快感を得る筈の刺激を受けて
いたときに快感の他にどのような感情がどの程度起こっ
ていたか等を識別し定量化することができる。
(2) It is possible to identify and quantify what kind of emotions have occurred in addition to pleasure when receiving a stimulus that should provide pleasure.

【0064】(3)更に同じ様な快適な刺激を例えば一
週間毎に長期間に渡って与えた時の心の状態を計測した
時に毎回同様な結果が得られたとすれば、その人の情緒
は非常に安定していると言えることとなり、そうでない
ときには何らかの情緒不安定が存在するが、その不安定
さによって情緒の不安定度を分類することができる。
(3) If the same result is obtained every time when the state of mind when the same comfortable stimulus is given for a long period of time, for example, every week, is obtained every time, the emotion of the person Can be said to be very stable, otherwise there is some emotional instability, and the instability can classify the degree of emotional instability.

【0065】(4)同一の作業を繰り返していると、次
第に疲労が蓄積して来る。そのようなときに、精神状態
についての自動識別を行うと、作業時間の経過に連れて
精神状態の内容が変化してくる。つまり、外部的な刺激
に対しての精神的な応答が次第に変化してくるので、こ
のような情報から疲労の蓄積状態をモニターすることが
出来る。言い換えれば、疲労状態を解消するために何ら
かのリラクセーションの処置を行った時に、その処置が
どの程度の緩和効果をもたらしたかを定量的に計測する
ことが可能となる。
(4) If the same work is repeated, fatigue gradually accumulates. In such a case, if the mental state is automatically identified, the content of the mental state changes as the work time elapses. That is, since the mental response to the external stimulus gradually changes, the accumulated state of fatigue can be monitored from such information. In other words, when some kind of relaxation treatment is performed in order to eliminate the fatigue state, it is possible to quantitatively measure the degree of the relaxation effect of the treatment.

【0066】(5)また、同じ感性についての受け止め
方の違いを分類して各人の感性タイプを分類すれば各個
人だけでなく各個人のタイプを判定することも可能とな
るので、各人の才能の分類や更には各人に敵した職業の
選択の一助となる。
(5) In addition, if the difference in how to receive the same sensitivity is classified and the sensitivity type of each person is classified, not only each individual but also the type of each individual can be determined. It helps classify your talents and even help you choose which profession is right for you.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る生体情報自動識別装置の実施例を
示したブロック図である。
FIG. 1 is a block diagram showing an embodiment of a biological information automatic identification device according to the present invention.

【図2】本発明に係る生体情報自動識別装置に用いる演
算装置の処理手順を示したフローチャート図である。
FIG. 2 is a flowchart showing a processing procedure of an arithmetic unit used in the automatic biological information identifying apparatus according to the present invention.

【図3】本発明に係る生体情報自動識別装置における所
定周波数帯域としてのα波帯域の周波数成分を示した波
形図である。
FIG. 3 is a waveform diagram showing frequency components of an α-wave band as a predetermined frequency band in the biological information automatic identification device according to the present invention.

【図4】本発明に係る生体情報自動識別装置における演
算装置内のソフトウェアによるニューラルネットワーク
処理の概念を示したブロック図である。
FIG. 4 is a block diagram showing a concept of neural network processing by software in an arithmetic unit in the automatic biological information identification apparatus according to the present invention.

【図5】本発明に係る生体情報自動識別装置における感
情の識別例を示した棒グラフ図である。
FIG. 5 is a bar graph showing an example of emotion identification in the automatic biological information identification apparatus according to the present invention.

【図6】従来例によって識別されるα波ピークによる被
験者の脳波状態を示したグラフ図である。
FIG. 6 is a graph showing an electroencephalogram state of a subject due to an α-wave peak identified by a conventional example.

【符号の説明】[Explanation of symbols]

1 被験者 21 〜26 センサ 3 プリアンプ 4 メインアンプ 5 演算装置 6 表示装置 図中、同一符号は同一又は相当部分を示す。DESCRIPTION OF REFERENCE NUMERALS 1 test subject 2 1 to 2 6 sensor 3 preamplifier 4 main amplifier 5 arithmetic unit 6 display device

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 被験者の身体に取り付けられて該被験者
の特徴量を検出する複数個のセンサと、各センサの出力
信号を増幅する増幅器と、該増幅器の各出力信号をディ
ジタル信号に変換すると共に各ディジタル信号をフーリ
エ変換し所望周波数帯域内の複数の分割された周波数帯
域毎のスペクトルパワーを求め、更にニューラルネット
ワークにより該スペクトルパワーが該センサを取り付け
た被験者の複数の感情要素又は知的作業内容要素に対し
標準値になるように該ニューラルネットワークの係数
及びバイアスを学習して求めて記憶しておきその後の各
センサの出力信号と各係数及びバイアスを該ニューラル
ネットワークに適用したときの値から該被験者の感情
要素又は知的作業内容要素のレベルを演算する演算装置
と、該演算装置の演算結果を表示する表示装置と、を備
えたことを特徴とする生体情報自動識別装置。
1. A plurality of sensors attached to a body of a subject to detect a characteristic amount of the subject, amplifiers for amplifying output signals of the sensors, and converting each output signal of the amplifier into a digital signal. Fourier transform each digital signal to determine spectral power for each of a plurality of divided frequency bands within a desired frequency band, and the spectral power is further changed by a neural network to a plurality of emotional elements or intellectual work contents of a subject to which the sensor is attached. For the element
Subsequent output signals and each coefficient and the bias of each sensor is stored in search to learn coefficients and bias of the neural network such that the standard value each from the value when applied to the neural network of the subject Each emotion
An automatic biological information identification device, comprising: a calculation device for calculating the level of an element or an intellectual work content element ; and a display device for displaying a calculation result of the calculation device.
【請求項2】 該演算装置が、該特徴量として頭皮上電
位又は筋電位であることを特徴とした請求項1に記載の
生体情報自動識別装置。
2. The biological information automatic identification apparatus according to claim 1, wherein the arithmetic unit is an scalp potential or a myoelectric potential as the feature amount.
【請求項3】 該演算装置が、該スペクトルパワーの代
わりに各センサ出力同士の相互相関係数を用いることを
特徴とした請求項1に記載の生体情報自動識別装置。
3. The biological information automatic identification apparatus according to claim 1, wherein the arithmetic unit uses a cross-correlation coefficient between the outputs of the sensors instead of the spectrum power.
【請求項4】 該演算装置が、該特徴量として頭皮上電
位又は筋電位の代わりに心拍回数、眼球運動及び瞬き頻
度の内の少なくともいずれかを用いることを特徴とした
請求項1に記載の生体情報自動識別装置。
4. The apparatus according to claim 1, wherein the arithmetic unit uses at least one of the number of heartbeats, eye movement and blink frequency instead of the scalp potential or the myoelectric potential as the feature amount. Biological information automatic identification device.
【請求項5】 該演算装置が、該特徴量として頭皮上電
位又は筋電位に加えて心拍回数、眼球運動及び瞬き頻度
の内の少なくともいずれかを用いることを特徴とした請
求項1に記載の生体情報自動識別装置。
5. The apparatus according to claim 1, wherein the arithmetic unit uses at least one of the number of heartbeats, eye movements, and blinking frequency in addition to the scalp potential or the myoelectric potential as the feature amount. Biological information automatic identification device.
【請求項6】 該所望周波数帯域がα帯域及びβ帯域の
内の少なくともいずれかであることを特徴とした請求項
1乃至5のいずれかに記載の生体情報自動識別装置。
6. The apparatus according to claim 1, wherein the desired frequency band is at least one of an α band and a β band.
JP6001567A 1994-01-12 1994-01-12 Biological information automatic identification device Expired - Fee Related JP2593625B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP6001567A JP2593625B2 (en) 1994-01-12 1994-01-12 Biological information automatic identification device
US08/902,648 USRE36450E (en) 1994-01-12 1997-07-30 Method and apparatus for automatically determining somatic state
US08/904,043 US6349231B1 (en) 1994-01-12 1997-07-31 Method and apparatus for will determination and bio-signal control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6001567A JP2593625B2 (en) 1994-01-12 1994-01-12 Biological information automatic identification device

Publications (2)

Publication Number Publication Date
JPH07204168A JPH07204168A (en) 1995-08-08
JP2593625B2 true JP2593625B2 (en) 1997-03-26

Family

ID=11505105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6001567A Expired - Fee Related JP2593625B2 (en) 1994-01-12 1994-01-12 Biological information automatic identification device

Country Status (1)

Country Link
JP (1) JP2593625B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346471A (en) * 2004-06-03 2005-12-15 Canon Inc Information processing method and apparatus

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2850763B2 (en) * 1994-07-22 1999-01-27 日本電気株式会社 Biological internal state transmission device and method therefor
JP2814969B2 (en) * 1995-10-06 1998-10-27 日本電気株式会社 Active site detection device
CA2210703C (en) * 1995-11-17 2001-10-09 Hitachi, Ltd. Optical measurement instrument for living body
JPH11319A (en) 1997-06-13 1999-01-06 Nec Corp In vivo active region estimate device
JP3699996B2 (en) * 2002-02-19 2005-09-28 独立行政法人産業技術総合研究所 Remote controller using biological signals
US7827189B2 (en) 2004-05-12 2010-11-02 Ajikaori Senryaku Kenkyusyo Co., Ltd. Sense database
US8764652B2 (en) * 2007-03-08 2014-07-01 The Nielson Company (US), LLC. Method and system for measuring and ranking an “engagement” response to audiovisual or interactive media, products, or activities using physiological signals
JP5242141B2 (en) * 2007-11-29 2013-07-24 株式会社東芝 Medical safety system
US20100076334A1 (en) 2008-09-19 2010-03-25 Unither Neurosciences, Inc. Alzheimer's cognitive enabler
JP2010257343A (en) * 2009-04-27 2010-11-11 Niigata Univ Intention transmission support system
JP4861538B2 (en) 2010-04-28 2012-01-25 パナソニック株式会社 EEG measurement apparatus, electrical noise estimation method, and computer program for executing electrical noise estimation method
US9526455B2 (en) 2011-07-05 2016-12-27 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US9844344B2 (en) 2011-07-05 2017-12-19 Saudi Arabian Oil Company Systems and method to monitor health of employee when positioned in association with a workstation
US9492120B2 (en) 2011-07-05 2016-11-15 Saudi Arabian Oil Company Workstation for monitoring and improving health and productivity of employees
US9710788B2 (en) 2011-07-05 2017-07-18 Saudi Arabian Oil Company Computer mouse system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
CA2840804C (en) 2011-07-05 2018-05-15 Saudi Arabian Oil Company Floor mat system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
US20130012802A1 (en) * 2011-07-05 2013-01-10 Saudi Arabian Oil Company Systems, Computer Medium and Computer-Implemented Methods For Monitoring and Improving Cognitive and Emotive Health of Employees
US9833142B2 (en) 2011-07-05 2017-12-05 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for coaching employees based upon monitored health conditions using an avatar
US10307104B2 (en) 2011-07-05 2019-06-04 Saudi Arabian Oil Company Chair pad system and associated, computer medium and computer-implemented methods for monitoring and improving health and productivity of employees
JP2015109964A (en) * 2013-11-11 2015-06-18 株式会社電通サイエンスジャム Emotion estimation device, emotion estimation processing system, emotion estimation method, and emotion estimation program
US9722472B2 (en) 2013-12-11 2017-08-01 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for harvesting human energy in the workplace
US10475351B2 (en) 2015-12-04 2019-11-12 Saudi Arabian Oil Company Systems, computer medium and methods for management training systems
US9889311B2 (en) 2015-12-04 2018-02-13 Saudi Arabian Oil Company Systems, protective casings for smartphones, and associated methods to enhance use of an automated external defibrillator (AED) device
US10642955B2 (en) 2015-12-04 2020-05-05 Saudi Arabian Oil Company Devices, methods, and computer medium to provide real time 3D visualization bio-feedback
US10628770B2 (en) 2015-12-14 2020-04-21 Saudi Arabian Oil Company Systems and methods for acquiring and employing resiliency data for leadership development
US10918325B2 (en) 2017-03-23 2021-02-16 Fuji Xerox Co., Ltd. Brain wave measuring device and brain wave measuring system
US10838685B2 (en) 2017-03-23 2020-11-17 Fuji Xerox Co., Ltd. Information processing device and non-transitory computer-readable medium
US10824132B2 (en) 2017-12-07 2020-11-03 Saudi Arabian Oil Company Intelligent personal protective equipment
JP7352914B2 (en) * 2018-06-04 2023-09-29 国立大学法人大阪大学 Recall image estimation device, recollection image estimation method, control program, recording medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5236880A (en) * 1975-09-17 1977-03-22 Tokyo Shibaura Electric Co Device for advantageously extracting living body signal
JPS61137540A (en) * 1984-12-07 1986-06-25 近畿計測器株式会社 Apparatus for fabricating and displaying frequency and amplitude distribution map of brain wave
JPS6486936A (en) * 1987-09-30 1989-03-31 Kitsusei Komutetsuku Kk Method and apparatus for analyzing bio-data
JPH0779809B2 (en) * 1988-06-08 1995-08-30 日本電気株式会社 Evoked potential measuring device
JP3113255B2 (en) * 1990-02-20 2000-11-27 日本電信電話株式会社 Operation device by scalp preparation potential pattern
JPH04319334A (en) * 1991-04-19 1992-11-10 Fujitsu Ltd Biomagnetism imaging system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346471A (en) * 2004-06-03 2005-12-15 Canon Inc Information processing method and apparatus
JP4641389B2 (en) * 2004-06-03 2011-03-02 キヤノン株式会社 Information processing method and information processing apparatus

Also Published As

Publication number Publication date
JPH07204168A (en) 1995-08-08

Similar Documents

Publication Publication Date Title
JP2593625B2 (en) Biological information automatic identification device
JP2540728B2 (en) Brain activity automatic determination device
US7547279B2 (en) System and method for recognizing user's emotional state using short-time monitoring of physiological signals
JP3310498B2 (en) Biological information analyzer and biological information analysis method
JP5322179B2 (en) KANSEI evaluation device, KANSEI evaluation method, and KANSEI evaluation program
JP2008539977A (en) Neurophysiological central auditory processing evaluation system and method
WO2007046504A1 (en) Stethoscope heart sound signal processing method and stethoscope device
WO2005036455A2 (en) Method for displaying spectral trends in complex signals
EP1829025A1 (en) Method and system of indicating a condition of an individual
US20200205712A1 (en) Assessment of risk for major depressive disorder from human electroencephalography using machine learned model
JP2001161652A (en) Device for quantifying brain wave and determining activity of brain
Cosoli et al. Heart rate variability analysis with wearable devices: Influence of artifact correction method on classification accuracy for emotion recognition
JP2017042562A (en) Music hearing experience presence/absence estimation method, music hearing experience presence/absence estimation device and music hearing experience presence/absence estimation program
Zontone et al. Low-complexity classification algorithm to identify drivers’ stress using electrodermal activity (EDA) measurements
KR100792046B1 (en) System and Method for Recovering from Depressed Condition using Neurofeedback of Color-display
CN112155577A (en) Social pressure detection method and device, computer equipment and storage medium
KR20020015547A (en) recording medium for sensitivity treatment
JP2766456B2 (en) Biological information automatic identification device
JP3161990B2 (en) Robot control device
JP3687135B2 (en) Sound vibration evaluation device
Dourou et al. IoT-enabled analysis of subjective sound quality perception based on out-of-lab physiological measurements
USRE36450E (en) Method and apparatus for automatically determining somatic state
JP6859622B2 (en) EEG signal processing system, EEG signal processing method and program
JP6492044B2 (en) Methods to inform users about the state of human keratinous substances
JPH06261873A (en) Method and device for evaluating physiological condition by using brain wave

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19961112

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071219

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071219

Year of fee payment: 11

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees