JP2022045493A - Signal processing apparatus, signal processing method, and signal processing program - Google Patents

Signal processing apparatus, signal processing method, and signal processing program Download PDF

Info

Publication number
JP2022045493A
JP2022045493A JP2020151110A JP2020151110A JP2022045493A JP 2022045493 A JP2022045493 A JP 2022045493A JP 2020151110 A JP2020151110 A JP 2020151110A JP 2020151110 A JP2020151110 A JP 2020151110A JP 2022045493 A JP2022045493 A JP 2022045493A
Authority
JP
Japan
Prior art keywords
signal
signal processing
unit
classification
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020151110A
Other languages
Japanese (ja)
Inventor
伸一 伊藤
Shinichi Ito
稔 福見
Minoru Fukumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokushima NUC
Original Assignee
University of Tokushima NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokushima NUC filed Critical University of Tokushima NUC
Priority to JP2020151110A priority Critical patent/JP2022045493A/en
Publication of JP2022045493A publication Critical patent/JP2022045493A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a signal processing apparatus with high processing accuracy.SOLUTION: An electroencephalograph 2 comprises an electroencephalogram sensor having a plurality of electrodes to be mounted on a human head, an A/D converter for converting an electroencephalogram signal, which is a potential change collected by the electrodes, into a digital signal, or the like. A signal processing apparatus 3 comprises a signal processing unit 33 for processing the measured signal, and comprises a pre-processing unit 31, a signal classification unit 32, and an intention prediction unit (signal processing unit) 33 as functional blocks. The pre-processing unit performs pre-processing, such as normalizing the electroencephalogram signal. The signal classification unit classifies the electroencephalogram signals according to measurement conditions. The intention prediction unit processes the electroencephalogram signals according to the classification result by the signal classification unit to predict the intention of a subject.SELECTED DRAWING: Figure 1

Description

本発明は、計測された信号を処理する技術に関し、例えば、脳波信号を処理して人間の意思を予測する技術に関する。 The present invention relates to a technique for processing a measured signal, for example, a technique for processing an electroencephalogram signal to predict a human intention.

人間は、脳梗塞、事故の重度後遺症、特定の脳異常などにより、体を動かすこと、および言葉でのコミュニケーションが困難になる場合がある。そのような場合、患者は、作業療法士などの専門家とコミュニケーションが取れず、リハビリが効率的に行えなくなる。また、家族ともコミュニケーションを取ることが困難になり、精神的に厳しい状況に陥りやすい。 Humans may have difficulty moving and communicating in words due to stroke, severe sequelae of accidents, certain brain abnormalities, and so on. In such a case, the patient cannot communicate with an occupational therapist or other specialist, and rehabilitation cannot be performed efficiently. In addition, it becomes difficult to communicate with family members, and it is easy to fall into a mentally difficult situation.

上述の課題を克服するため、本願発明者らは、脳波信号を計測して人間の意思を予測する研究を行っている(非特許文献1および2)。この研究では、人間が質問に対するYes/Noの回答を頭の中で答え、計算機が人工知能モデル(学習済みモデル)を用いて脳波信号から返答の違いを意味する特徴を抽出することにより、人間の意思を予測する。学習済みモデルは、Yes/Noの回答がラベリングされた脳波信号を機械学習することにより生成される。この技術を臨床現場に応用すれば、患者は特別な訓練を行うことなく、言葉や体の動きによらずに、意思を伝達することが可能となる。 In order to overcome the above-mentioned problems, the inventors of the present application are conducting research to predict human intention by measuring brain wave signals (Non-Patent Documents 1 and 2). In this study, humans answer Yes / No to questions in their minds, and computers use artificial intelligence models (learned models) to extract features that mean differences in responses from brain wave signals. Predict the intention of. The trained model is generated by machine learning the EEG signals labeled with Yes / No answers. If this technology is applied to clinical practice, patients will be able to communicate their intentions without any special training, regardless of words or body movements.

伊藤伸一、外2名、“An Electroencephalogram Analysis Method to Detect Preference Patterns Using Gray Association Degrees and Support Vector Machines”、Advances in Science, Technology and Engineering Systems Journal、Vol. 3、No. 5、2018年9月、p. 105-108Shinichi Ito, 2 outsiders, “An Electroencephalogram Analysis Method to Detect Preference Patterns Using Gray Association Degrees and Support Vector Machines”, Advances in Science, Technology and Engineering Systems Journal, Vol. 3, No. 5, September 2018, p. . 105-108 伊藤伸一、外3名、“Electroencephalogram Data for Classifying Answers to Questions with Neural Networks and Support Vector Machine”、International Journal of Signal Processing Systems、Vol. 7、No. 4、2019年12月、p. 118-122Shinichi Ito, 3 outsiders, "Electroencephalogram Data for Classifying Answers to Questions with Neural Networks and Support Vector Machine", International Journal of Signal Processing Systems, Vol. 7, No. 4, December 2019, p. 118-122

脳波信号は、瞬き等のノイズの有無や人間の体調変化といった計測条件の影響を受ける。非特許文献1および2では、計測条件の影響を考慮せずに脳波信号を機械学習した学習済みモデルを使用しているため、予測精度に限界があった。 The electroencephalogram signal is affected by measurement conditions such as the presence or absence of noise such as blinking and changes in human physical condition. In Non-Patent Documents 1 and 2, since a trained model in which an electroencephalogram signal is machine-learned without considering the influence of measurement conditions is used, the prediction accuracy is limited.

同様に、他の技術分野においても、予測のための学習済みモデルを生成する際に、計測した信号に含まれるノイズ、外乱、その他の情報の有無を考慮せずに機械学習を行うことが一般的であり、これが精度向上の妨げとなっていた。 Similarly, in other technical fields, it is common to perform machine learning without considering the presence or absence of noise, disturbance, and other information contained in the measured signal when generating a trained model for prediction. This was a target, and this hindered the improvement of accuracy.

本発明は、上記問題を解決するためになされたものであって、処理精度の高い信号処理装置を提供することを課題とする。 The present invention has been made to solve the above problems, and an object of the present invention is to provide a signal processing apparatus having high processing accuracy.

上記課題を解決するために、本発明は以下の態様を含む。
項1.
計測された信号を処理する信号処理部を備えた信号処理装置であって、
前記計測の条件に応じて前記信号を分類する信号分類部をさらに備え、
前記信号処理部は、前記信号分類部による分類結果に応じた処理を行う、信号処理装置。
項2.
前記信号分類部は、機械学習された分類用学習済みモデルを用いて前記信号を分類する、項1に記載の信号処理装置。
項3.
前記信号処理部は、前記分類結果に対応する条件で計測された信号を用いて機械学習された予測用学習済みモデルを用いて、前記分類結果に応じた処理を行う、項1または2に記載の信号処理装置。
項4.
前記信号は、人間から採取される脳波信号である、項1~3のいずれかに記載の信号処理装置。
項5.
前記信号処理部は、前記脳波信号を処理して前記人間の意思を予測する、項4に記載の信号処理装置。
項6.
前記信号処理部は、前記脳波信号を処理して前記人間の個人認証を行う、項4または5に記載の信号処理装置。
項7.
前記信号処理部は、前記脳波信号を処理して前記人間の特定の感情を検出する、項4~6のいずれかに記載の信号処理装置。
項8.
前記信号処理部の処理結果に基づいて入力操作を受け付ける操作受付部をさらに備える、項4~7のいずれかに記載の信号処理装置。
項9.
前記信号処理部は、前記脳波信号を処理して前記人間が想像した自身の動作イメージを判別し、
前記操作受付部は、前記信号処理部によって判別された前記動作イメージの種類に基づいて前記入力操作を受け付ける、項8に記載の信号処理装置。
項10.
前記入力操作は文字入力操作である、項8または9に記載の信号処理装置。
項11.
前記条件は、ノイズの有無を含む、項4~10のいずれかに記載の信号処理装置。
項12.
前記条件は、前記人間の状態を含む、項4~11のいずれかに記載の信号処理装置。
項13.
前記人間の状態は、カフェイン摂取の有無、ニコチン摂取の有無、体調の良否、および、覚醒飲料水摂取の有無の少なくともいずれかである、項12に記載の信号処理装置。
項14.
計測された信号を処理する信号処理ステップを備えた信号処理方法であって、
前記計測の条件に応じて前記信号を分類する信号分類ステップをさらに備え、
前記信号処理ステップでは、前記信号分類ステップにおける分類結果に応じた処理を行う、信号処理方法。
項15.
項1~13のいずれかに記載の信号処理装置の各部としてコンピュータを機能させる信号処理プログラム。
In order to solve the above problems, the present invention includes the following aspects.
Item 1.
A signal processing device equipped with a signal processing unit that processes the measured signal.
Further, a signal classification unit for classifying the signals according to the measurement conditions is provided.
The signal processing unit is a signal processing device that performs processing according to the classification result by the signal classification unit.
Item 2.
Item 2. The signal processing device according to Item 1, wherein the signal classification unit classifies the signal using a machine-learned training model for classification.
Item 3.
Item 1 or 2, wherein the signal processing unit performs processing according to the classification result by using a predictive trained model machine-learned using the signal measured under the conditions corresponding to the classification result. Signal processing equipment.
Item 4.
Item 2. The signal processing device according to any one of Items 1 to 3, wherein the signal is an electroencephalogram signal collected from a human.
Item 5.
Item 4. The signal processing device according to Item 4, wherein the signal processing unit processes the brain wave signal to predict the human intention.
Item 6.
Item 4. The signal processing device according to Item 4 or 5, wherein the signal processing unit processes the brain wave signal to perform personal authentication of the human.
Item 7.
Item 2. The signal processing device according to any one of Items 4 to 6, wherein the signal processing unit processes the brain wave signal to detect a specific human emotion.
Item 8.
Item 6. The signal processing apparatus according to any one of Items 4 to 7, further comprising an operation receiving unit that accepts an input operation based on the processing result of the signal processing unit.
Item 9.
The signal processing unit processes the brain wave signal to determine its own motion image imagined by the human.
Item 8. The signal processing device according to Item 8, wherein the operation receiving unit receives the input operation based on the type of the operation image determined by the signal processing unit.
Item 10.
Item 2. The signal processing device according to Item 8 or 9, wherein the input operation is a character input operation.
Item 11.
Item 2. The signal processing apparatus according to any one of Items 4 to 10, wherein the condition includes the presence or absence of noise.
Item 12.
Item 6. The signal processing apparatus according to any one of Items 4 to 11, wherein the condition includes the human condition.
Item 13.
Item 12. The signal processing device according to Item 12, wherein the human condition is at least one of the presence / absence of caffeine intake, the presence / absence of nicotine intake, the physical condition, and the presence / absence of awakening drinking water intake.
Item 14.
A signal processing method including a signal processing step for processing a measured signal.
Further provided with a signal classification step of classifying the signals according to the measurement conditions,
In the signal processing step, a signal processing method that performs processing according to the classification result in the signal classification step.
Item 15.
A signal processing program that causes a computer to function as each part of the signal processing device according to any one of Items 1 to 13.

本発明によれば、処理精度の高い信号処理装置を提供することができる。 According to the present invention, it is possible to provide a signal processing device having high processing accuracy.

本発明の第1実施形態に係る意思予測システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the intention prediction system which concerns on 1st Embodiment of this invention. 意思予測システムによって、被験者の意思予測を行う処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure which performs the intention prediction of a subject by the intention prediction system. ノイズの有無に基づき信号を分類するための分類用学習済みモデルを生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which generates the trained model for classification for classifying a signal based on the presence or absence of noise. 第1予測用学習済みモデルを生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which generates the trained model for first prediction. 第2予測用学習済みモデルを生成する手順を示すフローチャートである。It is a flowchart which shows the procedure of generating the trained model for the second prediction. カフェイン摂取の有無に基づき信号を分類するための分類用学習済みモデルを生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which generates the trained model for classification for classifying a signal based on the presence or absence of caffeine intake. 被験者に装着される脳波センサの電極位置を示す概略図である。It is a schematic diagram which shows the electrode position of the electroencephalogram sensor attached to a subject. 本発明の第2実施形態に係る個人認証システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the personal authentication system which concerns on 2nd Embodiment of this invention. 個人認証システムによって、被験者の個人認証を行う処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure which performs the personal authentication of a subject by a personal authentication system. 本発明の第3実施形態に係る感情検出システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the emotion detection system which concerns on 3rd Embodiment of this invention. 感情検出システムによって、被験者の感情を検出する処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure which detects the emotion of a subject by an emotion detection system. 第1検出用学習済みモデルを生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which generates the trained model for first detection. 被験者に提示されるタスクの例である。This is an example of a task presented to a subject. アンケートの一例である。This is an example of a questionnaire. 本発明の第4実施形態に係る文字入力システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the character input system which concerns on 4th Embodiment of this invention. 文字入力システムによって、被験者が文字入力を行う処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure which a subject performs a character input by a character input system. 被験者から脳波および回答を取得する手順を時系列的に示す図である。It is a figure which shows the procedure of obtaining an electroencephalogram and an answer from a subject in chronological order.

以下、本発明の実施形態について添付図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

[実施形態1]
以下、本発明の第1実施形態について説明する。本実施形態では、脳波信号を処理して人間の意思を予測する形態について説明する。
[Embodiment 1]
Hereinafter, the first embodiment of the present invention will be described. In this embodiment, a mode of processing an electroencephalogram signal to predict a human intention will be described.

(システム構成)
図1は、本実施形態に係る意思予測システム1の概略構成を示すブロック図である。意思予測システム1は、脳波を計測することにより人間の意思を予測するシステムであり、脳波計2、信号処理装置3および表示装置4を備えている。
(System configuration)
FIG. 1 is a block diagram showing a schematic configuration of the intention prediction system 1 according to the present embodiment. The intention prediction system 1 is a system that predicts a human intention by measuring brain waves, and includes an electroencephalogram meter 2, a signal processing device 3, and a display device 4.

脳波計2は、人間の頭部に装着される複数の電極を有する脳波センサや、電極で採集された電位変化である脳波信号をデジタル信号に変換するA/D変換器などを備えている。脳波信号は、有線、無線通信または記録媒体を介して信号処理装置3に入力される。 The electroencephalograph 2 includes an electroencephalogram sensor having a plurality of electrodes mounted on the human head, an A / D converter that converts an electroencephalogram signal, which is a potential change collected by the electrodes, into a digital signal. The electroencephalogram signal is input to the signal processing device 3 via wired, wireless communication or a recording medium.

信号処理装置3は、例えば汎用のコンピュータで構成することができる。信号処理装置3は、ハードウェア構成として、CPUやGPUなどのプロセッサ(図示省略)、主記憶装置(メモリ、図示省略)および補助記憶装置(図示省略)などを備えている。補助記憶装置には、後述する学習済みモデルや信号処理プログラムなどの各種データが記憶されている。 The signal processing device 3 can be configured by, for example, a general-purpose computer. The signal processing device 3 includes a processor (not shown) such as a CPU and a GPU, a main storage device (memory, not shown), an auxiliary storage device (not shown), and the like as a hardware configuration. Various data such as a trained model and a signal processing program, which will be described later, are stored in the auxiliary storage device.

また、信号処理装置3は、機能ブロックとして、前処理部31と、信号分類部32と、意思予測部(信号処理部)33とを備えている。これらの機能ブロックは、信号処理装置3のプロセッサが、信号処理プログラムをメモリに読み出して実行することによりソフトウェア的に実現することができる。すなわち、信号処理プログラムは、信号処理装置3の前処理部31、信号分類部32および意思予測部33としてコンピュータを機能させ、これにより、信号処理装置3は、本実施形態に係る信号処理方法を実行する。 Further, the signal processing device 3 includes a pre-processing unit 31, a signal classification unit 32, and an intention prediction unit (signal processing unit) 33 as functional blocks. These functional blocks can be realized by software by the processor of the signal processing device 3 reading the signal processing program into the memory and executing it. That is, the signal processing program causes the computer to function as the pre-processing unit 31, the signal classification unit 32, and the intention prediction unit 33 of the signal processing device 3, whereby the signal processing device 3 uses the signal processing method according to the present embodiment. Execute.

信号処理プログラムは、通信ネットワークを介して信号処理装置3にダウンロードしてもよいし、信号処理プログラムのプログラムコードを記録したCD-ROM等のコンピュータ読み取り可能な非一時的な記録媒体を介して、信号処理プログラムを信号処理装置3に供給してもよい。信号処理装置3の機能については、後述する。 The signal processing program may be downloaded to the signal processing device 3 via a communication network, or may be downloaded to a computer-readable non-temporary recording medium such as a CD-ROM on which the program code of the signal processing program is recorded. The signal processing program may be supplied to the signal processing device 3. The function of the signal processing device 3 will be described later.

表示装置4は、信号処理装置3に接続されている。表示装置4は、液晶ディスプレイや有機ELディスプレイなどで構成することができる。 The display device 4 is connected to the signal processing device 3. The display device 4 can be composed of a liquid crystal display, an organic EL display, or the like.

(処理手順)
続いて、信号処理装置3の機能について説明する。図2は、意思予測システム1によって、被験者(人間)の意思予測を行う処理手順を示すフローチャートである。
(Processing procedure)
Subsequently, the function of the signal processing device 3 will be described. FIG. 2 is a flowchart showing a processing procedure for predicting the intention of a subject (human) by the intention prediction system 1.

脳波センサを被験者に装着し、脳波を計測可能な状態において、被験者に質問を提示する(ステップS1)。提示方法は特に限定されず、口頭であってもよいし、画面に表示してもよい。 A brain wave sensor is attached to the subject, and a question is presented to the subject in a state where the brain wave can be measured (step S1). The presentation method is not particularly limited, and may be verbal or may be displayed on the screen.

被験者は、質問に対する回答(YESまたはNO)を頭の中に思い浮かべる。このとき、脳波計2によって脳波を計測する(ステップS2)。計測された脳波信号は信号処理装置3に入力される。 The subject thinks of the answer to the question (YES or NO) in his head. At this time, the electroencephalogram is measured by the electroencephalograph 2 (step S2). The measured electroencephalogram signal is input to the signal processing device 3.

続いて、信号処理装置3の前処理部31が、脳波信号に対し正規化などの前処理を行い、信号分類部32に入力する(ステップS3)。 Subsequently, the preprocessing unit 31 of the signal processing device 3 performs preprocessing such as normalization on the electroencephalogram signal and inputs it to the signal classification unit 32 (step S3).

続いて、信号分類部32が、計測の条件に応じて、脳波信号を分類する(ステップS4、信号分類ステップ)。本実施形態では、前記条件は、瞬きによるノイズの有無であり、信号分類部32は、機械学習された分類用学習済みモデルMCを用いて、脳波信号を、ノイズ有りの脳波信号、および、ノイズ無しの脳波信号に分類する。分類結果および脳波信号は、意思予測部33に入力される。 Subsequently, the signal classification unit 32 classifies the electroencephalogram signal according to the measurement conditions (step S4, signal classification step). In the present embodiment, the condition is the presence or absence of noise due to blinking, and the signal classification unit 32 uses a machine-learned learning model MC for classification to obtain an electroencephalogram signal, an electroencephalogram signal with noise, and noise. Classify as no EEG signal. The classification result and the electroencephalogram signal are input to the intention prediction unit 33.

後述するように、分類用学習済みモデルMCは、あらかじめ被験者を対象に脳波信号を複数回計測し、瞬きの有り/無しの条件を脳波信号にラベリングして学習データセットを生成し、これを人工知能モデルに入力して機械学習を行うことにより生成されたものである。そのため、分類用学習済みモデルMCは、被験者の脳波信号から、瞬きによるノイズの有り/無しの特徴を抽出することが可能である。 As will be described later, the training model MC for classification measures the brain wave signal multiple times for the subject in advance, labels the condition with / without blinking on the brain wave signal, generates a learning data set, and artificially creates the learning data set. It was generated by inputting into an intelligent model and performing machine learning. Therefore, the trained model MC for classification can extract the feature of presence / absence of noise due to blinking from the brain wave signal of the subject.

意思予測部33は、信号分類部32による分類結果に応じて、脳波信号を処理して被験者の意思を予測する。具体的には、脳波信号がノイズ有りの脳波信号である場合(ステップS5においてYES)、意思予測部33は、第1予測用学習済みモデルMP1を用いて被験者の意思を予測する(ステップS6、信号処理ステップ)。一方、脳波信号がノイズ無しの脳波信号である場合(ステップS5においてNO)、意思予測部33は、第2予測用学習済みモデルMP2を用いて被験者の意思を予測する(ステップS7、信号処理ステップ)。 The intention prediction unit 33 processes the brain wave signal according to the classification result by the signal classification unit 32 to predict the intention of the subject. Specifically, when the electroencephalogram signal is an electroencephalogram signal with noise (YES in step S5), the intention prediction unit 33 predicts the intention of the subject using the first prediction trained model MP1 (step S6, Signal processing step). On the other hand, when the electroencephalogram signal is a noise-free electroencephalogram signal (NO in step S5), the intention prediction unit 33 predicts the intention of the subject using the second prediction trained model MP2 (step S7, signal processing step). ).

後述するように、第1予測用学習済みモデルMP1および第2予測用学習済みモデルMP2は、分類結果に対応する条件で計測された脳波信号を用いて機械学習されたものである。より具体的には、第1予測用学習済みモデルMP1は、あらかじめ被験者に質問を提示しながら脳波信号を複数回計測し、瞬きをした時に計測された脳波信号に、被験者が回答した意思(YESまたはNO)をラベリングして学習データセットを作成し、これを人工知能モデルに入力して機械学習を行うことにより生成されたものである。第2予測用学習済みモデルMP2は、あらかじめ被験者に質問を提示しながら脳波信号を複数回計測し、瞬きをしていない時に計測された脳波信号に、被験者が回答した意思(YESまたはNO)をラベリングして学習データセットを作成し、これを人工知能モデルに入力して機械学習を行うことにより生成されたものである。 As will be described later, the first predictive trained model MP1 and the second predictive trained model MP2 are machine-learned using brain wave signals measured under conditions corresponding to the classification results. More specifically, the first predictive trained model MP1 measures the brain wave signal multiple times while presenting a question to the subject in advance, and the subject responds to the brain wave signal measured when blinking (YES). Or NO) is labeled to create a learning data set, which is input to an artificial intelligence model to perform machine learning. The second predictive learned model MP2 measures the brain wave signal multiple times while presenting a question to the subject in advance, and the subject's intention (YES or NO) to answer the brain wave signal measured when not blinking. It is generated by labeling to create a learning data set and inputting it into an artificial intelligence model to perform machine learning.

ステップS6およびS7における予測結果(YESまたはNO)は、表示装置4に表示される(ステップS8)。なお、予測結果の出力方法はこれに限定されず、例えば、音声によって出力してもよい。 The prediction result (YES or NO) in steps S6 and S7 is displayed on the display device 4 (step S8). The method of outputting the prediction result is not limited to this, and may be output by voice, for example.

(学習済みモデルの生成)
本実施形態において、上述の分類用学習済みモデルMC、第1予測用学習済みモデルMP1および第2予測用学習済みモデルMP2は、例えば、CNN(畳み込みニューラルネットワーク、convolutional neural network)およびSVM(サポートベクターマシン、support vector machine)によって構成することができる。
(Generation of trained model)
In the present embodiment, the above-mentioned trained model MC for classification, the trained model MP1 for the first prediction and the trained model MP2 for the second prediction are, for example, CNN (convolutional neural network) and SVM (support vector). It can be configured by a machine (support vector machine).

図3は、分類用学習済みモデルMCを生成する手順を示すフローチャートである。 FIG. 3 is a flowchart showing a procedure for generating a trained model MC for classification.

脳波センサを被験者に装着し、脳波を計測可能な状態において、被験者に質問を提示する(ステップS1)。被験者は、質問に対する回答(YESまたはNO)を頭の中に思い浮かべる。このとき、被験者の脳波を計測するとともに、被験者から回答してもらい、回答の内容および瞬きによるノイズの有無を記録する(ステップS2)。データが機械学習を適度に行えるほど十分に蓄積されていない場合(ステップS13においてNO)、ステップS11およびS12を、質問を変えて繰り返す。 A brain wave sensor is attached to the subject, and a question is presented to the subject in a state where the brain wave can be measured (step S1). The subject thinks of the answer to the question (YES or NO) in his head. At this time, the brain wave of the subject is measured, the subject answers, and the content of the reply and the presence or absence of noise due to blinking are recorded (step S2). If the data is not sufficiently accumulated for machine learning (NO in step S13), steps S11 and S12 are repeated with different questions.

データが十分に蓄積されると(ステップS13においてYES)、脳波信号のデータにノイズの有無をラベリングして学習データセットを生成する(ステップS14)。続いて、学習データセットを用いてCNNを誤差逆伝播法で機械学習する(ステップS15)。さらに、CNNの出力をSVMに入力し、ノイズの有無を教師データとしてハイパープレーンを決定することにより、SVMを機械学習する(ステップS16)。これにより、分類用学習済みモデルMCが生成される(ステップS17)。 When the data is sufficiently accumulated (YES in step S13), the presence or absence of noise is labeled on the EEG signal data to generate a learning data set (step S14). Subsequently, the CNN is machine-learned by the error back-propagation method using the training data set (step S15). Further, the SVM is machine-learned by inputting the output of the CNN to the SVM and determining the hyperplane with the presence or absence of noise as teacher data (step S16). As a result, the trained model MC for classification is generated (step S17).

分類用学習済みモデルMCに未知の脳波信号を入力すると、CNNが脳波信号からノイズの有無を示す特徴を抽出し、SVMが当該特徴に基づいて、脳波信号をノイズ有り脳波信号またはノイズ無し脳波信号に分類する。 When an unknown EEG signal is input to the trained model MC for classification, CNN extracts a feature indicating the presence or absence of noise from the EEG signal, and SVM converts the EEG signal into a noisy EEG signal or a noisy EEG signal based on the feature. Classify into.

図4は、第1予測用学習済みモデルMP1を生成する手順を示すフローチャートである。このフローは、図3に示すフローにおいて、脳波のデータが十分に蓄積された段階(ステップS13においてYES)から開始される。 FIG. 4 is a flowchart showing a procedure for generating the first predicted trained model MP1. This flow is started from the stage in which the electroencephalogram data is sufficiently accumulated (YES in step S13) in the flow shown in FIG.

ステップS21では、脳波のデータからノイズ有りデータのみを抽出する。これは、図3に示すステップS2において記録したノイズの有無を示す情報に基づいて行う。続いて、抽出したノイズ有りデータに、ステップS2において記録した回答をラベリングして、学習データセットを生成する(ステップS22)。続いて、学習データセットを用いてCNNを誤差逆伝播法で機械学習する(ステップS23)。さらに、CNNの出力をSVMに入力し、回答を教師データとしてハイパープレーンを決定することにより、SVMを機械学習する(ステップS24)。これにより、第1予測用学習済みモデルMP1が生成される(ステップS25)。 In step S21, only the noisy data is extracted from the brain wave data. This is done based on the information indicating the presence or absence of noise recorded in step S2 shown in FIG. Subsequently, the answer recorded in step S2 is labeled with the extracted noisy data to generate a learning data set (step S22). Subsequently, the CNN is machine-learned by the error back-propagation method using the training data set (step S23). Further, the SVM is machine-learned by inputting the output of the CNN to the SVM and determining the hyperplane using the answer as the teacher data (step S24). As a result, the trained model MP1 for the first prediction is generated (step S25).

このようにして生成された第1予測用学習済みモデルMP1は、未知の脳波信号が入力されると、被験者の意思を出力するが、特に、ノイズ有りの脳波信号を入力すると、高い精度で被験者の意思を出力することができる。 The trained model MP1 for the first prediction generated in this way outputs the intention of the subject when an unknown brain wave signal is input, but particularly when the brain wave signal with noise is input, the subject has high accuracy. Can output the intention of.

図5は、第2予測用学習済みモデルMP2を生成する手順を示すフローチャートである。このフローは、図3に示すフローにおいて、脳波のデータが十分に蓄積された段階(ステップS13においてYES)から開始される。 FIG. 5 is a flowchart showing a procedure for generating a second predicted trained model MP2. This flow is started from the stage in which the electroencephalogram data is sufficiently accumulated (YES in step S13) in the flow shown in FIG.

ステップS31では、脳波のデータからノイズ無しデータのみを抽出する。これは、図3に示すステップS2において記録したノイズの有無を示す情報に基づいて行う。続いて、抽出したノイズ無しデータに、ステップS2において記録した回答をラベリングして、学習データセットを生成する(ステップS32)。続いて、学習データセットを用いてCNNを誤差逆伝播法で機械学習する(ステップS33)。さらに、CNNの出力をSVMに入力し、回答を教師データとしてハイパープレーンを決定することにより、SVMを機械学習する(ステップS34)。これにより、第2予測用学習済みモデルMP2が生成される(ステップS35)。 In step S31, only noise-free data is extracted from the brain wave data. This is done based on the information indicating the presence or absence of noise recorded in step S2 shown in FIG. Subsequently, the answer recorded in step S2 is labeled with the extracted noise-free data to generate a learning data set (step S32). Subsequently, the CNN is machine-learned by the error back-propagation method using the training data set (step S33). Further, the SVM is machine-learned by inputting the output of the CNN to the SVM and determining the hyperplane using the answer as the teacher data (step S34). As a result, the trained model MP2 for the second prediction is generated (step S35).

このようにして生成された第2予測用学習済みモデルMP2は、未知の脳波信号が入力されると、被験者の意思を出力するが、特に、ノイズ無しの脳波信号を入力すると、高い精度で被験者の意思を出力することができる。 The second predicted trained model MP2 generated in this way outputs the subject's intention when an unknown brain wave signal is input, but especially when a noise-free brain wave signal is input, the subject has high accuracy. Can output the intention of.

なお、分類用学習済みモデルMC、第1予測用学習済みモデルMP1および第2予測用学習済みモデルMP2は、これらのモデルを生成するための脳波信号を取得した被験者以外の人間の意思予測には、原則として使用しない。 The trained model MC for classification, the trained model MP1 for first prediction, and the trained model MP2 for second prediction are used for predicting the intentions of humans other than the subject who acquired the brain wave signals for generating these models. , Do not use in principle.

(総括)
以上のように、本実施形態では、分類用学習済みモデルMCを用いて脳波信号をノイズ有り脳波信号またはノイズ無し脳波信号に分類し、ノイズ有り脳波信号を第1予測用学習済みモデルMP1に入力して被験者の意思を予測し、ノイズ無し脳波信号を第2予測用学習済みモデルMP2に入力して被験者の意思を予測する。第1予測用学習済みモデルMP1は、ノイズ有り脳波信号を機械学習することにより生成されたものであるため、ノイズ有り脳波信号から被験者の意思を高精度に予測することができる。また、第2予測用学習済みモデルMP2は、ノイズ無し脳波信号を機械学習することにより生成されたものであるため、ノイズ無し脳波信号から被験者の意思をより高精度に予測することができる。したがって、ノイズの有り/無しの分類を行わない従来技術に比べ、予測精度を向上させることができる。
(Summary)
As described above, in the present embodiment, the electroencephalogram signal for classification is classified into the electroencephalogram signal with noise or the electroencephalogram signal without noise by using the trained model MC for classification, and the electroencephalogram signal with noise is input to the trained model MP1 for first prediction. Then, the subject's intention is predicted, and the noise-free electroencephalogram signal is input to the second prediction trained model MP2 to predict the subject's intention. Since the first predictive trained model MP1 is generated by machine learning the noisy electroencephalogram signal, the subject's intention can be predicted with high accuracy from the noisy electroencephalogram signal. Further, since the second predicted learning model MP2 is generated by machine learning the noise-free electroencephalogram signal, the subject's intention can be predicted with higher accuracy from the noise-free electroencephalogram signal. Therefore, the prediction accuracy can be improved as compared with the conventional technique in which the presence / absence of noise is not classified.

(付記事項)
上記実施形態では、脳波測定の条件が、瞬きによるノイズの有無であったが、本発明はこれに限定されない。例えば、脳波測定の条件として、カフェイン摂取の有無、ニコチン摂取の有無、体調の良否、および、覚醒飲料水摂取の有無などが挙げられる。
(Additional notes)
In the above embodiment, the condition for measuring the brain wave is the presence or absence of noise due to blinking, but the present invention is not limited to this. For example, the conditions for measuring brain waves include the presence / absence of caffeine intake, the presence / absence of nicotine intake, the condition of physical condition, and the presence / absence of awakening drinking water.

また、上記実施形態では、人間から採取される脳波信号を処理する場合について説明したが、処理対象となる信号は脳波信号に限定されない。例えば、信号が画像信号である場合、測定条件として、撮影環境の明るさ等が挙げられる。信号が音声信号である場合、測定条件として、ハウリングの有無等が挙げられる。 Further, in the above embodiment, the case of processing an electroencephalogram signal collected from a human has been described, but the signal to be processed is not limited to the electroencephalogram signal. For example, when the signal is an image signal, the measurement conditions include the brightness of the shooting environment. When the signal is an audio signal, the measurement conditions include the presence or absence of howling.

また、上記実施形態では、信号分類部32は、脳波信号をノイズ有り脳波信号およびノイズ無し脳波信号の2種類に分類しているが、信号を分類する数は特に限定されない。原則として、信号の分類数は、条件数の2乗に等しくなる。 Further, in the above embodiment, the signal classification unit 32 classifies the electroencephalogram signal into two types, an electroencephalogram signal with noise and an electroencephalogram signal without noise, but the number of the signals to be classified is not particularly limited. In principle, the number of signal classifications is equal to the square of the conditional number.

(変形例)
以下、脳波測定の条件がカフェイン摂取の有無である場合について説明する。まず、学習モデルの生成方法について説明する。図6は、分類用学習済みモデルMCを生成する手順を示すフローチャートである。
(Modification example)
Hereinafter, the case where the condition of the electroencephalogram measurement is the presence or absence of caffeine intake will be described. First, a method of generating a learning model will be described. FIG. 6 is a flowchart showing a procedure for generating a trained model MC for classification.

カフェインを摂取していない被験者に脳波センサを装着し、脳波を計測可能な状態において、被験者にタスク画像を提示する(ステップS41)。タスク画像は、視覚オドボール課題で用いられる2種類の画像(大きい円と小さい円)であり、1セットにつき、標準刺激として大きい円を80回、目標刺激として小さい円を20回ディスプレイに表示し、これを3セット繰り返す。そして、各画像の提示ごとに、脳波を計測する(ステップS42)。脳波信号は、図7に示す国際10-10システムの感知位置の中で、O1およびO2に位置する電極から採取することが好ましい。データが機械学習を適度に行えるほど十分に蓄積されていない場合(ステップS43においてNO)、ステップS41およびS42を繰り返す。 A brain wave sensor is attached to a subject who has not ingested caffeine, and a task image is presented to the subject in a state where the brain wave can be measured (step S41). The task images are two types of images (large circle and small circle) used in the visual odball task. A large circle is displayed 80 times as a standard stimulus and a small circle is displayed 20 times as a target stimulus per set. Repeat this for 3 sets. Then, the brain wave is measured for each presentation of each image (step S42). The electroencephalogram signal is preferably collected from the electrodes located at O1 and O2 in the sensing positions of the international 10-10 system shown in FIG. If the data is not sufficiently accumulated for machine learning (NO in step S43), steps S41 and S42 are repeated.

データが十分に蓄積されると(ステップS43においてYES)、被験者にカフェインを摂取してもらい(ステップS44)、ステップS41およびS42と同様に、タスク画像を提示しながら脳波を計測する(ステップS45およびS46)。ステップS45および26も、データが機械学習を適度に行えるほど十分に蓄積されるまで繰り返す。 When the data is sufficiently accumulated (YES in step S43), the subject is asked to ingest caffeine (step S44), and the brain wave is measured while presenting the task image as in steps S41 and S42 (step S45). And S46). Steps S45 and 26 are also repeated until the data is sufficiently accumulated to allow machine learning to be moderate.

データが十分に蓄積されると(ステップS47においてYES)、脳波信号のデータにカフェイン摂取の有無をラベリングして学習データセットを生成する(ステップS48)。続いて、図3に示すステップS15および16と同じ要領で学習データセットを用いて機械学習を行う(ステップS49)。これにより、カフェイン摂取の有無に基づいて脳波信号を分類するための分類用学習済みモデルMCが生成される(ステップS50)。 When the data is sufficiently accumulated (YES in step S47), the presence or absence of caffeine intake is labeled on the electroencephalogram signal data to generate a learning data set (step S48). Subsequently, machine learning is performed using the training data set in the same manner as in steps S15 and 16 shown in FIG. 3 (step S49). As a result, a trained model MC for classification for classifying brain wave signals based on the presence or absence of caffeine intake is generated (step S50).

一般に、オドボール課題では、事象関連電位P300の頂点潜時は、カフェイン摂取の有無によって変化する。このような特徴を含む脳波を学習することにより、カフェイン摂取の有無を正確に分類する分類用学習済みモデルMCを生成することができる。 In general, in the Odball task, the apex latency of the event-related potential P300 changes depending on the presence or absence of caffeine intake. By learning the brain waves including such characteristics, it is possible to generate a trained model MC for classification that accurately classifies the presence or absence of caffeine intake.

[実施形態2]
以下、本発明の第2実施形態について説明する。本実施形態では、脳波信号を処理して個人認証を行う形態について説明する。上述の第1実施形態におけるものと同様の機能を有する部材については、同一の符号を付し、その説明を省略する。
[Embodiment 2]
Hereinafter, a second embodiment of the present invention will be described. In this embodiment, an embodiment in which an electroencephalogram signal is processed to perform personal authentication will be described. Members having the same functions as those in the above-described first embodiment are designated by the same reference numerals, and the description thereof will be omitted.

(システム構成)
図8は、本実施形態に係る個人認証システム1aの概略構成を示すブロック図である。個人認証システム1aは、脳波を計測することにより人間の個人認証を行うシステムであり、脳波計2、信号処理装置3aおよび表示装置4を備えている。すなわち、個人認証システム1aは、図1に示す意思予測システム1において、信号処理装置3を信号処理装置3aに置き換えた構成である。
(System configuration)
FIG. 8 is a block diagram showing a schematic configuration of the personal authentication system 1a according to the present embodiment. The personal authentication system 1a is a system for personally authenticating a human by measuring an electroencephalogram, and includes an electroencephalogram 2, a signal processing device 3a, and a display device 4. That is, the personal authentication system 1a has a configuration in which the signal processing device 3 is replaced with the signal processing device 3a in the intention prediction system 1 shown in FIG.

信号処理装置3aは、信号処理装置3と同様のハードウェア構成を備えており、機能ブロックとして、前処理部31と、信号分類部32と、個人認証部(信号処理部)33aとを備えている。本実施形態では、信号分類部32は、図6に示すフローチャートに従って生成された分類用学習済みモデルMCを用いて、カフェイン摂取の有無に応じて脳波信号を分類する機能を有している。個人認証部33aは、第1認証用学習済みモデルMI1および第2認証用学習済みモデルMI2を用いて、脳波信号を処理して人間の個人認証を行う機能を有している。 The signal processing device 3a has the same hardware configuration as the signal processing device 3, and includes a preprocessing unit 31, a signal classification unit 32, and a personal authentication unit (signal processing unit) 33a as functional blocks. There is. In the present embodiment, the signal classification unit 32 has a function of classifying brain wave signals according to the presence or absence of caffeine intake by using the learning model MC for classification generated according to the flowchart shown in FIG. The personal authentication unit 33a has a function of processing an electroencephalogram signal to perform personal authentication of a human using the first authentication trained model MI1 and the second authentication trained model MI2.

(処理手順)
続いて、信号処理装置3aの機能について説明する。図9は、個人認証システム1aによって、被験者(人間)の個人認証を行う処理手順を示すフローチャートである。
(Processing procedure)
Subsequently, the function of the signal processing device 3a will be described. FIG. 9 is a flowchart showing a processing procedure for personally authenticating a subject (human) by the personal authentication system 1a.

脳波センサを被験者に装着し、脳波を計測可能な状態において、被験者に分類用タスク画像を提示する(ステップS51)。分類用タスク画像は、図6に示すステップS41において被験者に提示されたタスク画像と同様である。並行して、脳波計2によって脳波を計測し、前処理部31が脳波信号に対し正規化などの前処理を行い、信号分類部32に入力する(ステップS52)。脳波信号を採取する電極は、図7に示すO1およびO2に位置する電極である。 An electroencephalogram sensor is attached to the subject, and a task image for classification is presented to the subject in a state where the electroencephalogram can be measured (step S51). The classification task image is the same as the task image presented to the subject in step S41 shown in FIG. At the same time, the electroencephalogram is measured by the electroencephalogram meter 2, the preprocessing unit 31 performs preprocessing such as normalization on the electroencephalogram signal, and inputs the electroencephalogram signal to the signal classification unit 32 (step S52). The electrodes for collecting the electroencephalogram signal are the electrodes located at O1 and O2 shown in FIG.

続いて、信号分類部32が、計測の条件に応じて、脳波信号を分類する(ステップS53、信号分類ステップ)。本実施形態では、前記条件はカフェイン摂取の有無であり、信号分類部32は、分類用学習済みモデルMCを用いて、脳波信号を、カフェイン摂取している被験者の脳波信号、および、カフェイン摂取していない被験者の脳波信号に分類する。分類結果は個人認証部33aに入力される。 Subsequently, the signal classification unit 32 classifies the electroencephalogram signal according to the measurement conditions (step S53, signal classification step). In the present embodiment, the condition is the presence or absence of caffeine ingestion, and the signal classification unit 32 uses the learned model MC for classification to obtain an electroencephalogram signal, an electroencephalogram signal of a subject ingesting caffeine, and a cafe. Classify as EEG signals of subjects who have not ingested ingestion. The classification result is input to the personal authentication unit 33a.

続いて、被験者に認証用タスク画像を提示しながら(ステップS54)、脳波計2によって脳波を計測し、前処理部31によって前処理を行う(ステップS55)。認証用タスク画像は、特徴的な印象を与える画像(動物など)であり、第1認証用学習済みモデルMI1および第2認証用学習済みモデルMI2を生成する工程で用いられる画像である。ステップS55において前処理された脳波信号は、個人認証部33aに入力される。 Subsequently, while presenting the authentication task image to the subject (step S54), the electroencephalogram is measured by the electroencephalogram meter 2 and preprocessed by the preprocessing unit 31 (step S55). The authentication task image is an image (animal or the like) that gives a characteristic impression, and is an image used in the process of generating the first authentication trained model MI1 and the second authentication trained model MI2. The electroencephalogram signal preprocessed in step S55 is input to the personal authentication unit 33a.

カフェイン摂取していない被験者の脳波信号である場合(ステップS56においてNO)、個人認証部33aは、第1認証用学習済みモデルMI1を用いて被験者の個人認証を行う(ステップS57)。一方、カフェイン摂取している被験者の脳波信号である場合(ステップS56においてYES)、個人認証部33aは、第2認証用学習済みモデルMI2を用いて被験者の個人認証を行う(ステップS58)。 When it is an electroencephalogram signal of a subject who has not ingested caffeine (NO in step S56), the personal authentication unit 33a performs personal authentication of the subject using the learned model MI1 for the first authentication (step S57). On the other hand, in the case of the brain wave signal of the subject ingesting caffeine (YES in step S56), the personal authentication unit 33a performs personal authentication of the subject using the second authentication trained model MI2 (step S58).

ステップS57およびS58における認証結果は、表示装置4に表示される(ステップS59)。 The authentication results in steps S57 and S58 are displayed on the display device 4 (step S59).

第1認証用学習済みモデルMI1および第2認証用学習済みモデルMI2は、分類結果に対応する条件で計測された脳波信号を用いて機械学習されたものである。より具体的には、第1認証用学習済みモデルMI1は、カフェインを摂取していない被験者に認証用タスク画像を提示しながら計測した脳波信号に個人識別情報をラベリングして学習データセットを作成し、これを人工知能モデルに入力して機械学習を行うことにより生成されたものである。第2予測用学習済みモデルMP2は、カフェインを摂取している被験者に認証用タスク画像を提示しながら計測した脳波信号に個人識別情報をラベリングして学習データセットを作成し、これを人工知能モデルに入力して機械学習を行うことにより生成されたものである。 The trained model MI1 for the first authentication and the trained model MI2 for the second authentication are machine-learned using the electroencephalogram signals measured under the conditions corresponding to the classification results. More specifically, the first authentication trained model MI1 creates a learning data set by labeling the brain wave signal measured while presenting the authentication task image to the subject who does not ingest caffeine. However, it was generated by inputting this into an artificial intelligence model and performing machine learning. The second learning model MP2 for prediction creates a learning data set by labeling the brain wave signal measured while presenting the task image for authentication to the subject ingesting caffeine, and creates a learning data set, which is artificial intelligence. It is generated by inputting to the model and performing machine learning.

認証用タスク画像の提示方法は、視覚オドボール課題と同様であることが好ましい。P300の振幅および頂点潜時は個人差が大きいため、認証用タスク画像提示時の脳波画像を用いて機械学習を行うことにより、正確に個人認証可能な予測用学習済みモデルを生成することができる。 It is preferable that the method of presenting the task image for authentication is the same as that of the visual oddball task. Since there are large individual differences in the amplitude and vertex latency of P300, it is possible to generate a predictive trained model that can be accurately personally authenticated by performing machine learning using the electroencephalogram image at the time of presenting the task image for authentication. ..

なお、認証用タスク画像の内容や提示方法によっても、計測される脳波は大きな影響を受ける。そのため、個人認証部33aによる個人認証では、認証用タスク画像の提示間隔、点灯時間、形状、色彩などを一定にする必要があるが、それらの情報が漏洩した場合、認証用タスク画像の内容や提示方法を変更して予測用学習済みモデルを生成することにより、不正認証などのリスクを回避することができる。 The measured brain waves are greatly affected by the content and presentation method of the authentication task image. Therefore, in personal authentication by the personal authentication unit 33a, it is necessary to keep the presentation interval, lighting time, shape, color, etc. of the authentication task image constant, but if such information is leaked, the content of the authentication task image or By changing the presentation method and generating a trained model for prediction, risks such as fraudulent authentication can be avoided.

[実施形態3]
以下、本発明の第3実施形態について説明する。本実施形態では、脳波信号を処理して人間の感情を検出する形態について説明する。上述の第1および第2実施形態におけるものと同様の機能を有する部材については、同一の符号を付し、その説明を省略する。
[Embodiment 3]
Hereinafter, a third embodiment of the present invention will be described. In this embodiment, a mode of processing an electroencephalogram signal to detect human emotions will be described. Members having the same functions as those in the first and second embodiments described above are designated by the same reference numerals, and the description thereof will be omitted.

(システム構成)
図10は、本実施形態に係る感情検出システム1bの概略構成を示すブロック図である。感情検出システム1bは、脳波を計測することにより人間の感情を検出するシステムであり、脳波計2、信号処理装置3bおよび表示装置4を備えている。すなわち、感情検出システム1bは、図1に示す意思予測システム1において、信号処理装置3を信号処理装置3bに置き換えた構成である。
(System configuration)
FIG. 10 is a block diagram showing a schematic configuration of the emotion detection system 1b according to the present embodiment. The emotion detection system 1b is a system that detects human emotions by measuring brain waves, and includes an electroencephalogram meter 2, a signal processing device 3b, and a display device 4. That is, the emotion detection system 1b has a configuration in which the signal processing device 3 is replaced with the signal processing device 3b in the intention prediction system 1 shown in FIG.

信号処理装置3bは、信号処理装置3と同様のハードウェア構成を備えており、機能ブロックとして、前処理部31と、信号分類部32と、感情検出部(信号処理部)33bとを備えている。本実施形態では、信号分類部32は、図6に示すフローチャートに従って生成された分類用学習済みモデルMCを用いて、カフェイン摂取の有無に応じて脳波信号を分類する機能を有している。感情検出部33bは、第1検出用学習済みモデルMT1および第2検出用学習済みモデルMT2を用いて、脳波信号を処理して人間の特定の感情を検出する機能を有している。本実施形態では、感情検出部33bは、特に人間の面倒感情を検出する。 The signal processing device 3b has the same hardware configuration as the signal processing device 3, and includes a preprocessing unit 31, a signal classification unit 32, and an emotion detection unit (signal processing unit) 33b as functional blocks. There is. In the present embodiment, the signal classification unit 32 has a function of classifying brain wave signals according to the presence or absence of caffeine intake by using the learning model MC for classification generated according to the flowchart shown in FIG. The emotion detection unit 33b has a function of processing a brain wave signal to detect a specific human emotion by using the first detection trained model MT1 and the second detection trained model MT2. In the present embodiment, the emotion detection unit 33b detects troublesome emotions of human beings in particular.

(処理手順)
続いて、信号処理装置3bの機能について説明する。図11は、感情検出システム1bによって、被験者(人間)の感情を検出する処理手順を示すフローチャートである。
(Processing procedure)
Subsequently, the function of the signal processing device 3b will be described. FIG. 11 is a flowchart showing a processing procedure for detecting the emotion of a subject (human) by the emotion detection system 1b.

ステップS61~S63は、図9に示すステップS51~S53と同じ要領で行われる。ステップS63において、信号分類部32は、分類用学習済みモデルMCを用いて、脳波信号を、カフェイン摂取している被験者の脳波信号、および、カフェイン摂取していない被験者の脳波信号に分類し、分類結果は感情検出部33bに入力される。 Steps S61 to S63 are performed in the same manner as steps S51 to S53 shown in FIG. In step S63, the signal classification unit 32 classifies the electroencephalogram signal into the electroencephalogram signal of the subject who is ingesting caffeine and the electroencephalogram signal of the subject who is not ingesting caffeine by using the learned model MC for classification. , The classification result is input to the emotion detection unit 33b.

続いて、脳波計2によって脳波を計測し、前処理部31によって前処理を行う(ステップS64)。このとき、脳波信号を採取する電極は、例えば、図7に示すAF3、F7、F3、FC5、T7、T8、FC6、F4、F8およびAF4に位置する電極である。脳波信号は感情検出部33bに入力される。 Subsequently, the electroencephalogram is measured by the electroencephalogram meter 2 and preprocessed by the preprocessing unit 31 (step S64). At this time, the electrodes for collecting the electroencephalogram signal are, for example, the electrodes located at AF3, F7, F3, FC5, T7, T8, FC6, F4, F8 and AF4 shown in FIG. The electroencephalogram signal is input to the emotion detection unit 33b.

カフェイン摂取していない被験者の脳波信号である場合(ステップS65においてNO)、感情検出部33bは、第1検出用学習済みモデルMT1を用いて被験者の面倒感情を検出する(ステップS66)。一方、カフェイン摂取している被験者の脳波信号である場合(ステップS64においてYES)、感情検出部33bは、第2検出用学習済みモデルMT2を用いて被験者の面倒感情を検出する(ステップS67)。 When it is an electroencephalogram signal of a subject who has not ingested caffeine (NO in step S65), the emotion detection unit 33b detects the troublesome emotion of the subject using the first detection trained model MT1 (step S66). On the other hand, in the case of the brain wave signal of the subject ingesting caffeine (YES in step S64), the emotion detection unit 33b detects the troublesome emotion of the subject using the second detection trained model MT2 (step S67). ..

ステップS66およびS67における検出結果は、表示装置4に表示される(ステップS59)。 The detection results in steps S66 and S67 are displayed on the display device 4 (step S59).

(学習済みモデルの生成)
第1検出用学習済みモデルMT1および第2検出用学習済みモデルMT2は、分類結果に対応する条件で計測された脳波信号を用いて機械学習されたものである。図12は、第1検出用学習済みモデルMT1を生成する手順を示すフローチャートである。
(Generation of trained model)
The first detection trained model MT1 and the second detection trained model MT2 are machine-learned using brain wave signals measured under conditions corresponding to the classification results. FIG. 12 is a flowchart showing a procedure for generating the first detection trained model MT1.

カフェインを摂取していない被験者に脳波センサを装着し、脳波を計測可能な状態において、被験者にタスクを提示する(ステップS71)。本実施形態におけるタスクは、容器に入った4種類の物体(うずら豆、大豆、豆菓子、金平糖)を箸で別の容器に移動させるというものである。具体的には、前記4種類の物体のいずれかを制限時間以内に移動させるというタスクが計50回、被験者に与えられ、50回中25回成功すること、かつ、失敗を5回以内に抑えることが課される。 A brain wave sensor is attached to a subject who has not ingested caffeine, and a task is presented to the subject in a state where the brain wave can be measured (step S71). The task in this embodiment is to move four kinds of objects (pinto beans, soybeans, confectionery, and konpeito) in a container to another container with chopsticks. Specifically, the task of moving any of the above four types of objects within the time limit is given to the subject 50 times in total, succeeding 25 times out of 50 times, and suppressing the failure within 5 times. Is imposed.

図13は、被験者に提示されるタスクの例を示している。被験者は、タスクの内容を見て、これを実行するか否かを選択する(ステップS72)。タスクを実行しない場合は、「次の作業へ」ボタンB1を選択し、タスクを実行する場合は、「作業開始」ボタンB2を選択する。 FIG. 13 shows an example of a task presented to a subject. The subject looks at the content of the task and selects whether or not to execute it (step S72). If the task is not executed, the "Next work" button B1 is selected, and if the task is to be executed, the "Start work" button B2 is selected.

さらに被験者は、タスクを実行可否の理由を回答する(ステップS73)。回答を記入するアンケートの一例を図14に示す。「選択」の列は、タスクを実行することを選択した場合の回答欄であり、「非選択」の列は、タスクを実行しないことを選択した場合の回答欄である。 Further, the subject answers the reason why the task can be executed (step S73). FIG. 14 shows an example of a questionnaire for entering an answer. The "selected" column is the answer column when the task is selected to be executed, and the "non-selected" column is the answer column when the task is not executed.

被験者は、タスクを実行することを選択した場合、その理由に当てはまる数字を下記の1~4から選択し、「選択」の列の対応する欄に記入する。
1:時間的に余裕があり、出来る。
2:時間的に少し余裕があり、出来る。
3:時間的に余裕がないが、出来る。
4:時間的に余裕がなく、出来ないかもしれない。
If the subject chooses to perform the task, select a number from 1 to 4 below that applies to the reason and enter it in the corresponding column of the "Selection" column.
1: There is time to spare and you can do it.
2: I have a little time to spare and can do it.
3: I don't have time to spare, but I can.
4: I may not be able to do it because I have no time to spare.

一方、被験者は、タスクを実行しないことを選択した場合、その理由に当てはまる数字を下記の1~4から選択し、「非選択」の列の対応する欄に記入する。
1:出来るが、作業しない。
2:出来るかもしれないが、作業しない。
3:出来ないかもしれないので、作業しない。
4:出来ないので、作業しない。
On the other hand, if the subject chooses not to perform the task, he / she selects a number corresponding to the reason from 1 to 4 below and fills in the corresponding column in the "non-selected" column.
1: I can do it, but I don't work.
2: It may be possible, but I will not work.
3: I may not be able to do it, so I will not work.
4: I can't do it, so I don't work.

数字が大きくなるほど、被験者の面倒感情が強いことを示している。並行して、脳波を計測する(ステップS74)。タスクを実行することを選択した場合(ステップS75においてYES)、被験者はタスクを実行する(ステップS76)。ステップS71~S76は、タスクの内容(対象物、制限時間)をランダムに変えながら50回繰り返す(ステップS77においてYES)。 The larger the number, the stronger the troublesome feelings of the subject. In parallel, the electroencephalogram is measured (step S74). If the subject chooses to perform the task (YES in step S75), the subject performs the task (step S76). Steps S71 to S76 are repeated 50 times while randomly changing the content of the task (object, time limit) (YES in step S77).

その後、計測された脳波信号にアンケート結果をラベリングして学習データセットを生成し(ステップS78)、学習データセットを用いて機械学習する(ステップS79)。これにより、第1検出用学習済みモデルMT1が生成される。 After that, the questionnaire result is labeled on the measured brain wave signal to generate a learning data set (step S78), and machine learning is performed using the learning data set (step S79). As a result, the trained model MT1 for the first detection is generated.

このようにして生成された第1検出用学習済みモデルMT1によって、未知の脳波信号から、被験者の面倒感情を検出することができるが、特に、カフェインを摂取していない被験者の面倒感情を高い精度で検出することができる。 The first detection trained model MT1 generated in this way can detect the troublesome emotions of the subject from the unknown electroencephalogram signal, but the troublesome emotions of the subject who does not ingest caffeine are particularly high. It can be detected with accuracy.

同様に、カフェインを摂取している被験者に対し、上述のステップS71~S78を行うことにより、第2検出用学習済みモデルMT2が生成される。第2検出用学習済みモデルMT2によって、未知の脳波信号から、被験者の面倒感情を検出することができるが、特に、カフェインを摂取している被験者の面倒感情を高い精度で検出することができる。 Similarly, by performing the above-mentioned steps S71 to S78 for a subject ingesting caffeine, a second detection trained model MT2 is generated. The second detection trained model MT2 can detect the troublesome emotions of the subject from an unknown brain wave signal, and in particular, can detect the troublesome emotions of the subject ingesting caffeine with high accuracy. ..

なお、本実施形態に係る感情検出システム1bを、要介助者の動作を補助する電動アシストシステムの制御に適用することで、要介助者の面倒感情の有無を自動で検知して、補助動作を制御することが可能となる。これにより、要介助者の自立を適切に支援することができる。 By applying the emotion detection system 1b according to the present embodiment to the control of the electric assist system that assists the operation of the care-requiring person, the presence or absence of troublesome emotions of the care-requiring person is automatically detected and the assisting operation is performed. It becomes possible to control. This makes it possible to appropriately support the independence of the care recipient.

[実施形態4]
以下、本発明の第4実施形態について説明する。本実施形態では、脳波信号の処理結果に基づいて文字入力操作を行う形態について説明する。上述の第1~第3実施形態におけるものと同様の機能を有する部材については、同一の符号を付し、その説明を省略する。
[Embodiment 4]
Hereinafter, a fourth embodiment of the present invention will be described. In this embodiment, a mode in which a character input operation is performed based on a processing result of an electroencephalogram signal will be described. Members having the same functions as those in the first to third embodiments described above are designated by the same reference numerals, and the description thereof will be omitted.

(システム構成)
図15は、本実施形態に係る文字入力システム1cの概略構成を示すブロック図である。文字入力システム1cは、脳波を計測することにより人間が想像した自身の動作イメージを判別し、動作イメージの種類に基づいて文字入力操作を実現するシステムであり、脳波計2、信号処理装置3cおよび表示装置4を備えている。すなわち、文字入力システム1cは、図1に示す意思予測システム1において、信号処理装置3を信号処理装置3cに置き換えた構成である。
(System configuration)
FIG. 15 is a block diagram showing a schematic configuration of the character input system 1c according to the present embodiment. The character input system 1c is a system that discriminates one's own motion image imagined by a human by measuring brain waves and realizes a character input operation based on the type of motion image, and is a brain wave meter 2, a signal processing device 3c, and a system. The display device 4 is provided. That is, the character input system 1c has a configuration in which the signal processing device 3 is replaced with the signal processing device 3c in the intention prediction system 1 shown in FIG.

信号処理装置3cは、信号処理装置3と同様のハードウェア構成を備えており、機能ブロックとして、前処理部31と、信号分類部32と、イメージ判別部(信号処理部)33cと、操作受付部34とを備えている。本実施形態では、信号分類部32は、図3に示すフローチャートに従って生成された分類用学習済みモデルMCを用いて、ノイズの有無に応じて脳波信号を分類する機能を有している。イメージ判別部33cは、判別用学習済みモデルMDを用いて、脳波信号を処理して人間が想像した自身の動作イメージを判別する機能を有している。操作受付部34は、イメージ判別部33cによって判別された動作イメージの種類に基づいて文字入力操作を受け付ける機能を有している。 The signal processing device 3c has the same hardware configuration as the signal processing device 3, and has a preprocessing unit 31, a signal classification unit 32, an image discrimination unit (signal processing unit) 33c, and an operation reception unit as functional blocks. It is provided with a unit 34. In the present embodiment, the signal classification unit 32 has a function of classifying the electroencephalogram signal according to the presence or absence of noise by using the learned model MC for classification generated according to the flowchart shown in FIG. The image discrimination unit 33c has a function of processing an electroencephalogram signal to discriminate its own motion image imagined by a human using the discriminant learned model MD. The operation receiving unit 34 has a function of receiving a character input operation based on the type of the operation image determined by the image discrimination unit 33c.

(処理手順)
続いて、信号処理装置3cの機能について説明する。図16は、文字入力システム1cによって、被験者(人間)が文字入力を行う処理手順を示すフローチャートである。
(Processing procedure)
Subsequently, the function of the signal processing device 3c will be described. FIG. 16 is a flowchart showing a processing procedure in which a subject (human) inputs characters by the character input system 1c.

脳波センサを被験者に装着し、脳波を計測可能な状態において、被験者は、入力しようとする文字に応じた自身の動作イメージを想像する(ステップS81)。文字と動作イメージとの対応例を表1に示す。 The subject is equipped with an electroencephalogram sensor, and in a state where the electroencephalogram can be measured, the subject imagines his / her own motion image according to the character to be input (step S81). Table 1 shows an example of correspondence between characters and motion images.

Figure 2022045493000002
Figure 2022045493000002

ここで、イメージ1は、「自身の利き手を握るイメージ」であり、イメージ2は、「声を出すイメージ」である。「12」は、瞬きをせずにイメージ1の後にイメージ2を想像することを意味し、「21」は、瞬きをせずにイメージ2の後にイメージ1を想像することを意味する。 Here, the image 1 is an "image of holding one's own dominant hand", and the image 2 is an "image of making a voice". "12" means imagining image 2 after image 1 without blinking, and "21" means imagining image 1 after image 2 without blinking.

例えば、「お」の文字を入力したい場合、まず、左表で「あ行」を選択するために、イメージ1を想像し、いったん瞬きを行い、その後イメージ2を想像する。左表の選択が完了すると、右表の選択に移行するために、瞬きを1回行う。すなわち、瞬きは区切りのジェスチャーを意味する。続いて、右表で「お段」を選択するために、イメージ1およびイメージ2を瞬きせずに連続して想像し、いったん瞬きを行い、その後、イメージ1を想像する。なお、左表の選択を間違えた場合は、瞬きを2回行うことにより、再選択が可能となる。 For example, when you want to input the character "O", first imagine image 1 to select "A line" in the left table, blink once, and then imagine image 2. When the selection in the left table is completed, one blink is performed in order to shift to the selection in the right table. That is, blinking means a delimiter gesture. Then, in order to select "step" in the table on the right, image 1 and image 2 are continuously imagined without blinking, blinking once, and then image 1 is imagined. If you make a mistake in the selection in the table on the left, you can reselect by blinking twice.

被験者が「おはよう」を入力したい場合、以下の順でイメージおよび瞬きを行う。
「お」:(左表)1→瞬き→1(あ行選択)→瞬き→(右表)1→2→瞬き→1
「は」:(左表)2→瞬き→1→2(は行選択)→瞬き→(右表)1→瞬き→1
「よ」:(左表)1→2→瞬き→2(や行選択)→瞬き→(右表)1→2→瞬き→1
「う」:(左表)1→瞬き→1(あ行選択)→瞬き→(右表)2→瞬き→1
If the subject wants to enter "Good morning", perform images and blink in the following order.
"O": (left table) 1 → blink → 1 (select a row) → blink → (right table) 1 → 2 → blink → 1
"Ha": (left table) 2 → blink → 1 → 2 (row selection) → blink → (right table) 1 → blink → 1
"Yo": (left table) 1 → 2 → blink → 2 (or row selection) → blink → (right table) 1 → 2 → blink → 1
"U": (left table) 1 → blink → 1 (select a row) → blink → (right table) 2 → blink → 1

被験者がこのようにイメージおよび瞬きを行っているときに、脳波計2によって脳波を計測し、前処理部31が脳波信号を前処理する(ステップS82)。 While the subject is performing the image and blinking in this way, the electroencephalogram is measured by the electroencephalogram meter 2, and the preprocessing unit 31 preprocesses the electroencephalogram signal (step S82).

続いて、信号分類部32が、計測の条件に応じて、脳波信号を分類する(ステップS83)。本実施形態では、前記条件は、瞬きによるノイズの有無であり、信号分類部32は、機械学習された分類用学習済みモデルMCを用いて、脳波信号を、ノイズ有りの脳波信号、および、ノイズ無しの脳波信号に分類する。分類結果および脳波信号は、イメージ判別部33cに入力される。 Subsequently, the signal classification unit 32 classifies the electroencephalogram signal according to the measurement conditions (step S83). In the present embodiment, the condition is the presence or absence of noise due to blinking, and the signal classification unit 32 uses a machine-learned learning model MC for classification to obtain an electroencephalogram signal, an electroencephalogram signal with noise, and noise. Classify as no EEG signal. The classification result and the electroencephalogram signal are input to the image discrimination unit 33c.

脳波信号がノイズ無しの脳波信号である場合(ステップS84においてNO)、イメージ判別部33cは、判別用学習済みモデルMDを用いて、被験者が想像した自身の動作イメージを判別する(ステップS85)。判別用学習済みモデルMDは、あらかじめ被験者に上述のイメージ1および2を想像させながら計測した脳波信号を機械学習することにより生成されたモデルである。 When the electroencephalogram signal is a noise-free electroencephalogram signal (NO in step S84), the image discrimination unit 33c discriminates its own motion image imagined by the subject using the discriminant learned model MD (step S85). The discriminant trained model MD is a model generated by machine learning the electroencephalogram signals measured while letting the subject imagine the above images 1 and 2 in advance.

一方、脳波信号がノイズ有りの脳波信号である場合(ステップS84においてYES)、イメージ判別部33cは、動作イメージの判別を行わずに、被験者が瞬きをしたと判別する。 On the other hand, when the electroencephalogram signal is an electroencephalogram signal with noise (YES in step S84), the image discrimination unit 33c determines that the subject blinks without discriminating the motion image.

ステップS85およびS86の判別結果は、操作受付部34に入力される。操作受付部34は、イメージ判別部33cが判別した被験者の動作イメージおよび瞬きを、表1のルールに照合することにより、被験者が入力しようとする文字を特定することにより、文字入力操作を受け付ける(ステップS87)。入力された文字は、表示装置4に表示される。 The determination results of steps S85 and S86 are input to the operation reception unit 34. The operation reception unit 34 accepts a character input operation by specifying the character to be input by the subject by collating the motion image and blink of the subject determined by the image discrimination unit 33c with the rules in Table 1 ( Step S87). The entered characters are displayed on the display device 4.

以上により、被験者は、特定の動作イメージの想像および瞬きをすることで、文字の入力操作を行うことができる。 As described above, the subject can perform a character input operation by imagining and blinking a specific motion image.

[付記事項]
なお、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて種々の変更が可能である。例えば、各実施形態に開示された技術的手段を適宜組み合わせて得られる形態も、本発明の技術的範囲に属する。
[Additional notes]
The present invention is not limited to the above embodiment, and various modifications can be made without departing from the spirit of the present invention. For example, an embodiment obtained by appropriately combining the technical means disclosed in each embodiment also belongs to the technical scope of the present invention.

以下、本発明の実施例について説明するが、本発明は下記の実施例に限定されない。 Hereinafter, examples of the present invention will be described, but the present invention is not limited to the following examples.

本実施例では、上記第1実施形態に係る意思予測システム1によって被験者の意思を高精度に予測できることを実証するための実験を行った。被験者は、徳島大学の健康なボランティア9名(平均年齢22.7歳)であった。 In this embodiment, an experiment was conducted to demonstrate that the intention of the subject can be predicted with high accuracy by the intention prediction system 1 according to the first embodiment. The subjects were 9 healthy volunteers from Tokushima University (average age 22.7 years).

(脳波信号の取得)
まず、椅子に座った被験者の頭部に、脳波計2の脳波センサを装着し、脳波を計測しながら複数の質問を被験者に提示した。具体的には、表2に示す30の質問からランダムに選択した25の質問を被験者に提示した。
(Acquisition of brain wave signal)
First, the electroencephalogram sensor of the electroencephalograph 2 was attached to the head of the subject sitting on the chair, and a plurality of questions were presented to the subject while measuring the electroencephalogram. Specifically, 25 questions randomly selected from the 30 questions shown in Table 2 were presented to the subjects.

Figure 2022045493000003
Figure 2022045493000003

30の質問は、明確に答えられる9つの質問(明確)、体調に関する16の質問(体調)、および要求に関する5つの質問(要求)から構成されている。実験の間、図7に示す国際10-10システムの感知位置の中で、AF3、F7、F3、T7、T8、F4、F8およびAF4に位置する電極から採取される脳波信号を信号処理装置3に入力した。 The 30 questions consist of 9 clearly answered questions (clear), 16 questions about physical condition (physical condition), and 5 questions about requirements (requests). During the experiment, the EEG signals collected from the electrodes located at AF3, F7, F3, T7, T8, F4, F8 and AF4 in the sensing positions of the international 10-10 system shown in FIG. 7 are signal processing devices 3. Entered in.

被験者は各質問に対し、YESまたはNOの回答を頭の中で思い浮かべた後、回答を口頭で発した。具体的には、図17に示すように、質問を被験者に提示し、被験者は頭の中で回答を想像する。信号処理装置3は、質問提示から3~5秒後の2秒間の脳波信号を取得する。その後、再度同じ質問を被験者に提示し、被験者は口頭で正解を回答する。これを25の質問について行い、1人の被験者から25の2秒間の脳波信号を取得した。 The subjects answered YES or NO to each question verbally after thinking of a YES or NO answer in their heads. Specifically, as shown in FIG. 17, the question is presented to the subject, and the subject imagines the answer in his / her head. The signal processing device 3 acquires an electroencephalogram signal for 2 seconds 3 to 5 seconds after the question is presented. Then, the same question is presented to the subject again, and the subject answers the correct answer verbally. This was done for 25 questions, and 25 2-second EEG signals were obtained from one subject.

さらに、2秒間の脳波信号の各々から、10のセグメント化したデータを生成した。具体的には、脳波信号の開始位置から1秒間のデータ枠を設定し、データ枠を1/10秒ずつシフトさせながら枠内の波形を抽出することにより、10のデータを生成した。これにより、1人の被験者から合計10×25=250のデータを取得した。 In addition, 10 segmented data were generated from each of the 2 second EEG signals. Specifically, 10 data were generated by setting a data frame for 1 second from the start position of the EEG signal and extracting the waveform in the frame while shifting the data frame by 1/10 second. As a result, a total of 10 × 25 = 250 data was acquired from one subject.

また、被験者が瞬きをしたタイミングも記録した。なお、瞬きが無意識に行われるように、被験者には瞬きに関する注意は行わなかった。 The timing of the subject's blinking was also recorded. The subjects were not careful about blinking so that they would blink unconsciously.

さらに、日時を変えて同様の実験を計4日行い、1人の被験者から約1000(250×4)のデータを取得した。被験者A~Iから取得したデータを、瞬きによるノイズの有無および回答の種別(YESまたはNO)で分類したものを表3に示す。 Furthermore, the same experiment was carried out for a total of 4 days at different dates and times, and about 1000 (250 × 4) data were obtained from one subject. Table 3 shows the data obtained from the subjects A to I classified by the presence or absence of noise due to blinking and the type of response (YES or NO).

Figure 2022045493000004
Figure 2022045493000004

(学習済みモデルの生成)
続いて、取得したデータに正規化などの前処理を行い、分類用学習済みモデルMC、第1予測用学習済みモデルMP1および第2予測用学習済みモデルMP2を生成した。具体的には、瞬きのタイミングを示す情報に基づき、被験者から取得した各データに瞬きの有り/無しの条件をラベリングして学習データセットを生成し、人工知能モデルを機械学習することにより、分類用学習済みモデルMCを作成した。被験者から口頭で取得した回答に基づき、被験者から取得した各データをノイズ有りデータまたはノイズ無しデータに分類した。さらに、ノイズ有りデータに回答をラベリングして学習データセットを生成し、人工知能モデルを機械学習することにより、第1予測用学習済みモデルMP1を生成した。ノイズ無しデータに回答をラベリングして学習データセットを生成し、人工知能モデルを機械学習することにより、第2予測用学習済みモデルMP2を生成した。
(Generation of trained model)
Subsequently, the acquired data was subjected to preprocessing such as normalization to generate a trained model MC for classification, a trained model MP1 for first prediction, and a trained model MP2 for second prediction. Specifically, based on the information indicating the timing of blinking, each data acquired from the subject is labeled with the condition of presence / absence of blinking to generate a learning data set, and the artificial intelligence model is machine-learned to classify. A trained model MC was created. Based on the responses obtained verbally from the subjects, each data obtained from the subjects was classified into noisy data or noisy data. Further, by labeling the answers to the noisy data to generate a training data set and machine learning the artificial intelligence model, the first prediction trained model MP1 was generated. The training data set was generated by labeling the answers to the noise-free data, and the trained model MP2 for the second prediction was generated by machine learning the artificial intelligence model.

人工知能モデルはCNNおよびSVMから構成されており、CNNは、入力層、3つの非表示層および出力層を有するものを使用した。入力層のサイズは、8×128(チャネル数×脳波信号の長さ)であった。3つの非表示層のフィルターサイズは、それぞれ3、3、2であり、3つの非表示層の畳み込み層の数は、それぞれ50、50、20であった。SVMは、線形SVM分類器を使用した。 The artificial intelligence model was composed of CNN and SVM, and the CNN used one having an input layer, three hidden layers and an output layer. The size of the input layer was 8 × 128 (number of channels × length of EEG signal). The filter sizes of the three non-display layers were 3, 3, and 2, respectively, and the number of convolutional layers of the three non-display layers was 50, 50, and 20, respectively. The SVM used a linear SVM classifier.

(検証結果)
検証実験では、図17に示す方法で各被験者から脳波信号および回答を取得し、テストデータセットを生成した。そして、分類用学習済みモデルMCを用いてノイズ有りデータまたはノイズ無しデータに分類し、ノイズ有りデータを第1予測用学習済みモデルMP1に入力し、ノイズ無しデータを第2予測用学習済みモデルMP2に入力することにより、各被験者の意思予測を行い、実際の回答と照合した。被験者A~Iの意思予測の感度および精度を表4に示す。
(inspection result)
In the verification experiment, brain wave signals and responses were obtained from each subject by the method shown in FIG. 17, and a test data set was generated. Then, the training trained model MC for classification is used to classify the data with noise or the data without noise, the data with noise is input to the trained model MP1 for the first prediction, and the data without noise is the trained model MP2 for the second prediction. By inputting to, the intention of each subject was predicted and collated with the actual answer. Table 4 shows the sensitivity and accuracy of the intention prediction of the subjects A to I.

Figure 2022045493000005
Figure 2022045493000005

一方、比較例として、上述と同じ被験者を対象に、瞬きによるノイズを考慮することなく予測用学習済みモデルを生成し、当該予測用学習済みモデルを用いて、各被験者の意思予測を行い、実際の回答と照合した。被験者A~Iの意思予測の感度および精度を表5に示す。 On the other hand, as a comparative example, a trained model for prediction is generated for the same subject as described above without considering the noise due to blinking, and the intention of each subject is predicted using the trained model for prediction. I collated with the answer. Table 5 shows the sensitivity and accuracy of the intention prediction of the subjects A to I.

Figure 2022045493000006
Figure 2022045493000006

このように、本実施例では、比較例に比べて感度および精度が向上した。したがって、本発明の第1実施形態に係る意思予測システム1によって、非常に高い精度で被験者の意思が予測できることが分かった。 As described above, in this embodiment, the sensitivity and accuracy are improved as compared with the comparative example. Therefore, it was found that the intention prediction system 1 according to the first embodiment of the present invention can predict the intention of the subject with extremely high accuracy.

1 意思予測システム
1a 個人認証システム
1b 感情検出システム
1c 文字入力システム
2 脳波計
3 信号処理装置
31 前処理部
32 信号分類部
33 意思予測部(信号処理部)
33a 個人認証部(信号処理部)
33b 感情検出部(信号処理部)
33c イメージ判別部(信号処理部)
34 操作受付部
4 表示装置
MC 分類用学習済みモデル
MP1 第1予測用学習済みモデル
MP2 第2予測用学習済みモデル
MI1 第1認証用学習済みモデル
MI2 第2認証用学習済みモデル
MT1 第1検出用学習済みモデル
MT2 第2検出用学習済みモデル
MD 判別用学習済みモデル
1 Intention prediction system 1a Personal authentication system 1b Emotion detection system 1c Character input system 2 Brain wave meter 3 Signal processing device 31 Preprocessing unit 32 Signal classification unit 33 Intention prediction unit (signal processing unit)
33a Personal authentication unit (signal processing unit)
33b Emotion detection unit (signal processing unit)
33c Image discrimination unit (signal processing unit)
34 Operation reception unit 4 Display device MC Classified trained model MP1 1st predictive trained model MP2 2nd predictive trained model MI1 1st certified trained model MI2 2nd certified trained model MT1 1st detection Trained model MT2 Trained model for second detection Trained model for MD discrimination

Claims (15)

計測された信号を処理する信号処理部を備えた信号処理装置であって、
前記計測の条件に応じて前記信号を分類する信号分類部をさらに備え、
前記信号処理部は、前記信号分類部による分類結果に応じた処理を行う、信号処理装置。
A signal processing device equipped with a signal processing unit that processes the measured signal.
Further, a signal classification unit for classifying the signals according to the measurement conditions is provided.
The signal processing unit is a signal processing device that performs processing according to the classification result by the signal classification unit.
前記信号分類部は、機械学習された分類用学習済みモデルを用いて前記信号を分類する、請求項1に記載の信号処理装置。 The signal processing device according to claim 1, wherein the signal classification unit classifies the signal using a machine-learned training model for classification. 前記信号処理部は、前記分類結果に対応する条件で計測された信号を用いて機械学習された予測用学習済みモデルを用いて、前記分類結果に応じた処理を行う、請求項1または2に記載の信号処理装置。 According to claim 1 or 2, the signal processing unit performs processing according to the classification result by using a predictive trained model machine-learned using the signal measured under the conditions corresponding to the classification result. The signal processing device described. 前記信号は、人間から採取された脳波信号である、請求項1~3のいずれかに記載の信号処理装置。 The signal processing device according to any one of claims 1 to 3, wherein the signal is an electroencephalogram signal collected from a human. 前記信号処理部は、前記脳波信号を処理して前記人間の意思を予測する、請求項4に記載の信号処理装置。 The signal processing device according to claim 4, wherein the signal processing unit processes the brain wave signal to predict the human intention. 前記信号処理部は、前記脳波信号を処理して前記人間の個人認証を行う、請求項4または5に記載の信号処理装置。 The signal processing device according to claim 4 or 5, wherein the signal processing unit processes the brain wave signal to authenticate the person personally. 前記信号処理部は、前記脳波信号を処理して前記人間の特定の感情を検出する、請求項4~6のいずれかに記載の信号処理装置。 The signal processing device according to any one of claims 4 to 6, wherein the signal processing unit processes the brain wave signal to detect a specific human emotion. 前記信号処理部の処理結果に基づいて入力操作を受け付ける操作受付部をさらに備える、請求項4~7のいずれかに記載の信号処理装置。 The signal processing apparatus according to any one of claims 4 to 7, further comprising an operation receiving unit that accepts an input operation based on the processing result of the signal processing unit. 前記信号処理部は、前記脳波信号を処理して前記人間が想像した自身の動作イメージを判別し、
前記操作受付部は、前記信号処理部によって判別された前記動作イメージの種類に基づいて前記入力操作を受け付ける、請求項8に記載の信号処理装置。
The signal processing unit processes the brain wave signal to determine its own motion image imagined by the human.
The signal processing device according to claim 8, wherein the operation receiving unit receives the input operation based on the type of the operation image determined by the signal processing unit.
前記入力操作は文字入力操作である、請求項8または9に記載の信号処理装置。 The signal processing device according to claim 8 or 9, wherein the input operation is a character input operation. 前記条件は、ノイズの有無を含む、請求項4~10のいずれかに記載の信号処理装置。 The signal processing apparatus according to any one of claims 4 to 10, wherein the condition includes the presence or absence of noise. 前記条件は、前記人間の状態を含む、請求項4~11のいずれかに記載の信号処理装置。 The signal processing apparatus according to any one of claims 4 to 11, wherein the condition includes the human condition. 前記人間の状態は、カフェイン摂取の有無、ニコチン摂取の有無、体調の良否、および、覚醒飲料水摂取の有無の少なくともいずれかである、請求項12に記載の信号処理装置。 The signal processing device according to claim 12, wherein the human condition is at least one of the presence / absence of caffeine intake, the presence / absence of nicotine intake, the physical condition, and the presence / absence of awakening drinking water intake. 計測された信号を処理する信号処理ステップを備えた信号処理方法であって、
前記計測の条件に応じて前記信号を分類する信号分類ステップをさらに備え、
前記信号処理ステップでは、前記信号分類ステップにおける分類結果に応じた処理を行う、信号処理方法。
A signal processing method including a signal processing step for processing a measured signal.
Further provided with a signal classification step of classifying the signals according to the measurement conditions,
In the signal processing step, a signal processing method that performs processing according to the classification result in the signal classification step.
請求項1~13のいずれかに記載の信号処理装置の各部としてコンピュータを機能させる信号処理プログラム。 A signal processing program that causes a computer to function as each part of the signal processing device according to any one of claims 1 to 13.
JP2020151110A 2020-09-09 2020-09-09 Signal processing apparatus, signal processing method, and signal processing program Pending JP2022045493A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020151110A JP2022045493A (en) 2020-09-09 2020-09-09 Signal processing apparatus, signal processing method, and signal processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020151110A JP2022045493A (en) 2020-09-09 2020-09-09 Signal processing apparatus, signal processing method, and signal processing program

Publications (1)

Publication Number Publication Date
JP2022045493A true JP2022045493A (en) 2022-03-22

Family

ID=80774370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020151110A Pending JP2022045493A (en) 2020-09-09 2020-09-09 Signal processing apparatus, signal processing method, and signal processing program

Country Status (1)

Country Link
JP (1) JP2022045493A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7389425B1 (en) 2022-10-11 2023-11-30 株式会社JiMED Program, manufacturing method, manufacturing equipment and connection method
JP7428337B1 (en) 2023-06-30 2024-02-06 Vie株式会社 Information processing method, information processing device, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7389425B1 (en) 2022-10-11 2023-11-30 株式会社JiMED Program, manufacturing method, manufacturing equipment and connection method
WO2024079961A1 (en) * 2022-10-11 2024-04-18 株式会社JiMED Program, manufacturing method, manufacturing device, and connection method
JP2024056275A (en) * 2022-10-11 2024-04-23 株式会社JiMED Program, manufacturing method, manufacturing device and connection method
JP7428337B1 (en) 2023-06-30 2024-02-06 Vie株式会社 Information processing method, information processing device, and program

Similar Documents

Publication Publication Date Title
El-Fiqi et al. Convolution neural networks for person identification and verification using steady state visual evoked potential
CN115607156B (en) Multi-mode-based psychological cognitive screening evaluation method, system and storage medium
JP2022045493A (en) Signal processing apparatus, signal processing method, and signal processing program
Lawson I just love the attention: implicit preference for direct eye contact
Kim et al. ALIS: Learning affective causality behind daily activities from a wearable life-log system
Yasser et al. Detection of confusion behavior using a facial expression based on different classification algorithms
Xia et al. Dynamic viewing pattern analysis: towards large-scale screening of children with ASD in remote areas
Qu Time Continuity Voting for Electroencephalography (EEG) Classification
Ranjan et al. Detection of Parkinson's Disease using Machine Learning Algorithms and Handwriting Analysis
Sharma et al. Artificial neural network classification models for stress in reading
CN116301473A (en) User behavior prediction method, device, equipment and medium based on virtual reality
Can Stressed or just running? Differentiation of mental stress and physical activityby using machine learning
Ivanitsky Individual stable patterns of human brain rhythms as a reflection of mental processes
Andreas et al. CNN-based emotional stress classification using smart learning dataset
Verma et al. AttentioNet: Monitoring Student Attention Type in Learning with EEG-Based Measurement System
Abdullah et al. EEG Emotion Detection Using Multi-Model Classification
Shehan et al. Neuroassist ADHD Analyzer: A Smart Application for Recognizing Attention Deficit Hyperactivity Disorder (ADHD) Levels in Children
Bakkialakshmi et al. Effective Prediction System for Affective Computing on Emotional Psychology with Artificial Neural Network
Li Deep learning-based multi-channel bio-electrical signal processing: Algorithms, models, and applications
Panayotova et al. One Approach to using R for Bayesian Analysis of Brain Signals
Sowmyasri et al. An online platform for diagnosis of children with reading disability
Södergård et al. Inferring Students’ Self-Assessed Concentration Levels in Daily Life Using Biosignal Data From Wearables
Patil et al. Prediction of Attention-Deficit and Hyperactivity Disorder in Online Learning
Hjelm Gardner Spot the Pain: Exploring the Application of Skeleton Pose Estimation for Automated Pain Assessment
Khan et al. Mental Stress Detection from EEG Signals Using Comparative Analysis of Random Forest and Recurrent Neural Network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240827