JP2011076177A - Method and device for controlling equipment using brain wave induced by contact of teeth - Google Patents

Method and device for controlling equipment using brain wave induced by contact of teeth Download PDF

Info

Publication number
JP2011076177A
JP2011076177A JP2009224097A JP2009224097A JP2011076177A JP 2011076177 A JP2011076177 A JP 2011076177A JP 2009224097 A JP2009224097 A JP 2009224097A JP 2009224097 A JP2009224097 A JP 2009224097A JP 2011076177 A JP2011076177 A JP 2011076177A
Authority
JP
Japan
Prior art keywords
user
pattern
teeth
channels
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009224097A
Other languages
Japanese (ja)
Inventor
Keikan Sai
圭完 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2009224097A priority Critical patent/JP2011076177A/en
Publication of JP2011076177A publication Critical patent/JP2011076177A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an equipment control device for controlling a control object by highly precisely estimating the movement of teeth on the basis of a brain wave induced by the contact of the teeth obtained by non-invasion from the head of a user without any special training. <P>SOLUTION: The equipment control device is configured to estimate the movement of the teeth of a user from the brain waves of a plurality of channels induced by the movement of the teeth of the user obtained at a plurality of places on the head skin of the user, and to generate a command to control the object equipment according to the result of estimation, and provided with: a band pass filter for extracting the components of a prescribed frequency band from each of the brain waves of the plurality of channels; a featured value calculation part 152 for calculating the pattern of a predetermined featured values from the components of the frequency band of the brain waves; a learned pattern classifier 154 for, when the pattern of the featured value is given from the featured value calculation part 152, obtaining output showing the movement of the teeth of the user according to the featured value; and a command output part 156 for generating a command in response to the output of the pattern classifier 154, and for giving the command to the object equipment. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明はBMI(Brain−Machine Interface)に関し、特に、利用者に過大な負担をかけることなく、非侵襲で、脳からの信号によりリアルタイムで確実に対象物を制御可能な機器制御装置に関する。   The present invention relates to a BMI (Brain-Machine Interface), and more particularly, to a device control apparatus that can control a target object in real time in a non-invasive manner and with a signal from a brain without imposing an excessive burden on a user.

従来、脳波を精度よく測定するための技術として、電極を頭部に埋め込む技術が知られている。例えば特許文献1にはそのための電極構造が開示されている。しかし、このような侵襲的な手法は被験者にとって負担が大きく、特に人間の場合には適用可能な場面がごく限られている。   Conventionally, as a technique for measuring an electroencephalogram with high accuracy, a technique for embedding an electrode in the head is known. For example, Patent Document 1 discloses an electrode structure for this purpose. However, such an invasive technique has a heavy burden on the subject, and the applicable scenes are particularly limited for humans.

それに対し、頭部に電極を埋め込まず、頭皮上から脳の活動に伴う脳内の電気的変化を検出する手法がある。そうした手法は非侵襲的な手法と呼ばれる。非侵襲的な手法は、被験者に大きな負担をかけることがないため、応用範囲が広いという特徴がある。   On the other hand, there is a method for detecting electrical changes in the brain accompanying brain activity from the scalp without embedding electrodes in the head. Such a technique is called a non-invasive technique. The non-invasive technique is characterized by a wide range of application because it does not place a heavy burden on the subject.

中でも、非侵襲で測定した人間の脳波により、機械を制御したり、その人間の心理状態を判定したりするBMIが、近年脚光を浴びており、技術的にも大きな進歩を遂げている。この進歩の背景には、現代のコンピュータ技術の発展による情報処理能力の増大、数理科学に基づく機械学習理論の発達、信号処理技術の発達による特定情報の安定した検出などが大きな役割を果たしている。   In particular, BMI, which controls machines and determines the psychological state of human beings by non-invasively measured human brain waves, has recently attracted attention and has made great technological progress. In the background of this advancement, the increase in information processing ability due to the development of modern computer technology, the development of machine learning theory based on mathematical science, and the stable detection of specific information due to the development of signal processing technology play a major role.

非侵襲のBMIで有望視されている、脳波から観測できる現象として、ERD(Event Related Desynchronization:事象関連脱同期)、及びERS(Event Related Synchronization:事象関連同期)と呼ばれるものがある。ERDとは、ある人物がある動きの準備をしているときに、脳波中のミュー波(8−13Hz)、ベータ波(14−30Hz)等の特定周波数成分が減少することをいう。ERSとは、ある人物がある動きをした後に、特定周波数成分が増加することをいう。   As phenomena promising in non-invasive BMI, there are phenomena called ERD (Event Related Desynchronization) and ERS (Event Related Synchronization). ERD means that specific frequency components such as mu waves (8-13 Hz) and beta waves (14-30 Hz) in an electroencephalogram decrease when a certain person is preparing for a certain movement. ERS means that a specific frequency component increases after a certain person moves.

ERD、ERS等は、運動に関連する脳の活動を反映したものである。脳波は、実際にある運動をするときだけでなく、運動をイメージするときにも、実際に運動するときと同様な活動をすることが知られている。したがって、利用者がある動きをすることを想像したときの脳波を使用して、ロボットアーム、コンピュータのマウスカーソル(ポインタ)、電動車椅子、及びその他の種々の装置を制御することが可能ではないかと考えられる。既にいくつかの実験も行なわれ、ある程度の成功を収めている。このように、運動をイメージしたときの脳波を使用する技術を運動イメージパラダイム(Motor Imaginary Paradigm)と呼ぶことにする。   ERD, ERS, etc. reflect brain activity related to exercise. It is known that an electroencephalogram performs the same activity as when actually exercising not only when actually exercising, but also when imagining exercise. Therefore, it may be possible to control a robot arm, a mouse cursor (pointer) of a computer, an electric wheelchair, and various other devices by using an electroencephalogram when a user imagines a certain movement. Conceivable. Some experiments have already been carried out, and some success has been achieved. In this way, a technique using an electroencephalogram when an image of movement is used is called a movement image paradigm (Motor Image Paradigm).

運動イメージパラダイムでは、利用者の負担を軽減するために、頭皮外に電極を設けて非侵襲で脳波を測定する。この場合、測定されるのは特定の神経細胞の発火の状態ではなく、ある部分の神経細胞のひとまとまりの動きとなる。そして、神経細胞と電極との間に頭蓋骨があるため、電極で測定される信号は多くのノイズを含んでいる。そのため、頭部内に電極を配置する侵襲式の方式と比較して精度が落ちるという問題がある。精度の問題を克服するため、数学的モデルを利用してノイズを減少させる方法が多く利用されている。しかし、運動イメージパラダイムの場合に、利用者が運動を想像するとき、脳波で検出される信号が毎回一定ではなく、変動の幅が大きいという問題がある。このため、利用者は長期間の反復トレーニング(訓練)を通じて、各想像運動をするときに検出される信号がなるべく一定となり、精度を高めるようにする必要がある。しかしこの場合、利用者のトレーニングには長い時間と多くの努力とが必要とされる。   In the motion image paradigm, an electroencephalogram is measured non-invasively by providing an electrode outside the scalp in order to reduce the burden on the user. In this case, what is measured is not the state of firing of a specific nerve cell, but a movement of a certain portion of nerve cells. And since there is a skull between the nerve cell and the electrode, the signal measured by the electrode contains a lot of noise. For this reason, there is a problem that the accuracy is lowered as compared with an invasive method in which electrodes are arranged in the head. In order to overcome the problem of accuracy, many methods of reducing noise using a mathematical model are used. However, in the case of the motion image paradigm, when a user imagines motion, there is a problem that the signal detected by the electroencephalogram is not constant every time and the range of fluctuation is large. For this reason, the user needs to make the signal detected when performing each imaginary motion as constant as possible through repeated training (training) for a long period of time and to improve the accuracy. In this case, however, user training takes a long time and a lot of effort.

特表2009−527303号公報Special table 2009-527303 gazette

従来の運動イメージパラダイムの場合、前述したとおり、ある程度の精度を得るために利用者に長いトレーニング時間と多くの努力とが要求されるため、負担がかかるという問題がある。しかも、このような長いトレーニング時間と多くの努力とが要求されるにもかかわらず、運動を想像するときに一定の信号を出すことができない利用者が大部分である。そのため、従来の運動イメージパラダイムでは、BMIを利用できる利用者は大きく制限されている。   In the case of the conventional exercise image paradigm, as described above, a long training time and a lot of effort are required for the user to obtain a certain degree of accuracy, and there is a problem that a burden is imposed. Moreover, even though such a long training time and a lot of effort are required, most users cannot give a certain signal when imagining exercise. Therefore, in the conventional motion image paradigm, users who can use BMI are greatly limited.

それゆえに本発明の目的は、非侵襲で、利用者に特別なトレーニングをさせることなく、利用者の頭部の電気的変動から得られた信号に基づいて高い精度で制御対象物を制御することが可能な機器制御方法及び機器制御装置を提供することである。   Therefore, an object of the present invention is to control a control object with high accuracy based on a signal obtained from electrical fluctuations of a user's head without being subjected to special training. It is providing the apparatus control method and apparatus control apparatus which can be performed.

本発明の第1の局面に係る機器制御装置は、利用者の頭皮上の複数箇所においてそれぞれ得られた複数チャンネルの電気信号から、利用者の歯の接触状態を推定し、推定された利用者の歯の接触状態にしたがって対象機器を制御するコマンドを生成するための機器制御装置であって、上記複数チャンネルの信号の各々から、所定の周波数帯域の成分を抽出するためのフィルタ手段と、フィルタ手段により抽出された、複数チャンネルの信号の所定の周波数帯域の成分から、予め定める特徴量のパターンを算出するための特徴量算出手段と、特徴量算出手段から特徴量のパターンが与えられると、当該特徴量に応じて、利用者の歯の接触状態を示す出力が得られるように予め学習済のパターン分類手段と、パターン分類手段の出力に応じて予め定められているコマンドを生成して対象機器に与えるためのコマンド生成手段とを含む。   The apparatus control apparatus which concerns on 1st aspect of this invention estimates the contact state of a user's tooth | gear from the electrical signal of the several channel each obtained in several places on a user's scalp, and estimated user A device control device for generating a command for controlling a target device in accordance with the contact state of a tooth, a filter means for extracting a component of a predetermined frequency band from each of the signals of the plurality of channels, and a filter When the feature amount calculation means for calculating a predetermined feature amount pattern from the components of the predetermined frequency band of the signals of the plurality of channels extracted by the means, and the feature amount pattern is given from the feature amount calculation means, In accordance with the feature amount, a pattern classifying unit that has been learned in advance so as to obtain an output indicating the contact state of the user's teeth, and in advance according to the output of the pattern classifying unit And a command generating means for providing the target device generates a command has been fit.

フィルタ手段は、利用者の頭皮上の複数箇所から非侵襲手法により得られた複数チャンネルの信号の各々から、所定の周波数帯域の成分を抽出する。これら、抽出された所定周波数帯域の複数チャンネルの成分から、特徴量算出手段が所定の特徴量を算出し、パターン分類手段に与える。パターン分類手段は予め学習済であり、与えられた特徴量のパターンに応じ、利用者の歯の接触状態を示す出力をコマンド生成手段に与える。コマンド生成手段は、パターン分類手段の出力に応じて予め定められているコマンドを生成し、制御の対象となる機器に与える。   The filter means extracts a component of a predetermined frequency band from each of a plurality of channel signals obtained by a noninvasive technique from a plurality of locations on the user's scalp. From these extracted components of a plurality of channels in a predetermined frequency band, the feature amount calculating means calculates a predetermined feature amount and gives it to the pattern classification means. The pattern classification means has been learned in advance, and provides an output indicating the contact state of the user's teeth to the command generation means in accordance with the given feature amount pattern. The command generation means generates a predetermined command according to the output of the pattern classification means and gives it to the device to be controlled.

非侵襲で頭部から得られた信号を用い、機器を制御することができる。特別なトレーニングが必要とされることもない。その結果、非侵襲で、利用者に過大な負担をかけることなく、利用者の頭部の電気的変動から得られた信号に基づいて高い精度で制御対象物を制御することが可能な機器制御装置を提供することができる。   The device can be controlled using signals obtained from the head non-invasively. No special training is required. As a result, it is non-invasive and can control the control object with high accuracy based on the signal obtained from the electrical fluctuation of the user's head without overloading the user. An apparatus can be provided.

好ましくは、パターン分類手段は、歯の接触状態を、予め定められた複数通りの状態の内の一つとなるように維持したときに利用者から得られた特徴量のパターンによって予め学習済のパターン分類器を含む。   Preferably, the pattern classification means is a pattern that has been learned in advance according to a feature amount pattern obtained from a user when the tooth contact state is maintained to be one of a plurality of predetermined states. Includes a classifier.

パターン分類器を用いることにより、非侵襲手法で得られる空間解像度の低い信号から、利用者の歯の接触状態を精度高く検出できる。   By using the pattern classifier, the contact state of the user's teeth can be detected with high accuracy from a signal with low spatial resolution obtained by a non-invasive technique.

より好ましくは、パターン分類器は、サポートベクターマシン(SVM)を含む。   More preferably, the pattern classifier includes a support vector machine (SVM).

さらに好ましくは、フィルタ手段は、複数チャンネル信号の各々から、0.5Hz以上、500Hz以下の帯域内の任意の帯域成分のみを抽出するバンドパスフィルタを含む。   More preferably, the filter means includes a band-pass filter that extracts only an arbitrary band component within a band of 0.5 Hz or more and 500 Hz or less from each of the plurality of channel signals.

さらに好ましくは、バンドパスフィルタは、複数チャンネル信号の各々から、50Hz以上、250Hz以下の帯域成分のみを抽出するバンドパスフィルタを含む。   More preferably, the bandpass filter includes a bandpass filter that extracts only a band component of 50 Hz or more and 250 Hz or less from each of the plurality of channel signals.

複数チャンネルから得られた信号の0.5Hz以上500Hz以下の帯域内の任意の帯域成分、好ましくは50Hz以上250Hz以下の帯域成分から特徴量を得ることになる。この特徴量を利用することによって歯の接触状態を脳波から高い精度で推定することができる。歯の接触によって発生する脳波は、周辺ノイズに比べて振幅がはるかに大きく、すべての利用者から一定の信号を得ることが可能なため、誰でも特別なトレーニングなしで高い精度を得ることができる。   A feature amount is obtained from an arbitrary band component within a band of 0.5 Hz to 500 Hz, preferably a band component of 50 Hz to 250 Hz, of a signal obtained from a plurality of channels. By using this feature amount, the contact state of the teeth can be estimated from the electroencephalogram with high accuracy. The electroencephalogram generated by tooth contact has a much larger amplitude than the surrounding noise, and a constant signal can be obtained from all users, so anyone can get high accuracy without special training .

複数チャンネルの信号は、利用者の頭皮上の頭部前部、及び両側頭部に配置された電極から得られるものでもよい。   The multi-channel signal may be obtained from electrodes arranged on the front of the head on the user's scalp and on both sides of the head.

利用者が上下の歯の全てを接触させたとき、上下の歯のいずれも接触させないとき、上下の前歯のみ接触させたとき、右側の歯のみを接触させたとき、及び左側の歯のみを接触させたときを、上記したように頭部前部、及び両側頭部から得られた信号から高い精度で分類することができることが確認できた。   When the user touches all of the upper and lower teeth, when not contacting any of the upper and lower teeth, when contacting only the upper and lower front teeth, when contacting only the right tooth, and only contacting the left tooth As described above, it was confirmed that the signals can be classified with high accuracy from the signals obtained from the front part of the head and the heads of both sides as described above.

特徴量算出手段は、複数チャンネルの信号の周波数帯域成分を所定長のフレームに分割するフレーム化手段と、各チャンネルの各フレームから所定の第1の特徴量を抽出するための特徴量抽出手段と、特徴量抽出手段により抽出された第1の特徴量を変換し、脳の活動の異なる状態から得られる特徴量の分散の比が最大となるようにするための特徴量変換手段とを含む。   The feature amount calculating means includes a framing means for dividing the frequency band components of the signals of a plurality of channels into predetermined length frames, and a feature amount extracting means for extracting a predetermined first feature quantity from each frame of each channel. The first feature quantity extracted by the feature quantity extraction means is converted, and the feature quantity conversion means for maximizing the ratio of the variance of the feature quantities obtained from different states of the brain activity.

このように特徴量の分散が最大となるように特徴量を変換することで、利用者の頭部から得られた信号から、利用者の状態を効率よく分類することができる。   Thus, by converting the feature quantity so that the variance of the feature quantity is maximized, the user's state can be efficiently classified from the signal obtained from the user's head.

本発明の第2の局面に係る機器制御方法は、利用者の頭皮上の複数箇所においてそれぞれ得られた複数チャンネルの信号から、利用者の歯の接触状態を推定し、推定された利用者の歯の接触状態にしたがって対象機器を制御するコマンドを生成する機器制御方法であって、利用者の頭皮上の複数箇所に電極を配置し、利用者の脳の活動を検出する複数チャンネルの信号を生成するステップと、複数チャンネルの信号の各々から、所定の周波数帯域の成分を抽出するステップと、抽出するステップにより抽出された、複数チャンネルの信号の所定の周波数帯域の成分から、予め定める特徴量のパターンを算出するステップと、特徴量のパターンが与えられると、当該特徴量に応じて、利用者の歯の接触状態を示す出力が得られるように予め学習済のパターン分類手段に、パターンを算出するステップにおいて得られた特徴量のパターンを与えてその分類結果として利用者の歯の接触状態を示す出力を受けるステップと、パターン分類手段の出力に応じて予め定められているコマンドを生成して対象機器に与えるステップとを含む。   The device control method according to the second aspect of the present invention estimates a contact state of a user's teeth from signals of a plurality of channels respectively obtained at a plurality of locations on the user's scalp, and A device control method for generating a command for controlling a target device according to a contact state of a tooth, wherein electrodes are arranged at a plurality of locations on a user's scalp, and a signal of a plurality of channels for detecting a user's brain activity is received. A step of generating, a step of extracting a component of a predetermined frequency band from each of the signals of the plurality of channels, and a predetermined feature amount from a component of the predetermined frequency band of the signals of the plurality of channels extracted by the extracting step The step of calculating the pattern and the feature amount pattern are given in advance so that an output indicating the contact state of the user's teeth can be obtained according to the feature amount. The pattern classification means is provided with the pattern of the feature quantity obtained in the step of calculating the pattern and receives an output indicating the contact state of the user's teeth as the classification result, and in advance according to the output of the pattern classification means Generating a predetermined command and giving it to the target device.

本発明の一実施の形態に係るロボットコントローラシステムの構成を概略的に示す図である。1 is a diagram schematically showing a configuration of a robot controller system according to an embodiment of the present invention. FIG. 利用者が、上下の歯の全体を接触させたときの、頭部の複数箇所から得られた時系列の電極信号の振幅の特性を示すための図である。It is a figure for demonstrating the characteristic of the amplitude of the time-sequential electrode signal obtained from the several places of the head when a user contacts the whole upper and lower teeth. 利用者が、上下の歯のいずれについても接触をさせていないときの、頭部の複数箇所から得られた時系列の電極信号の振幅の特性を示すための図である。It is a figure for demonstrating the characteristic of the amplitude of the time-sequential electrode signal obtained from the several location of the head when the user is not making contact | abutting on any of the upper and lower teeth. 利用者が、上下の歯のうち、中央部分の歯(前歯)のみを接触させたときの、頭部の複数箇所から得られた時系列の電極信号の振幅の特性を示すための図である。It is a figure for demonstrating the characteristic of the amplitude of the time-sequential electrode signal obtained from several places of the head when a user contacts only the tooth | gear (anterior tooth) of a center part among upper and lower teeth. . 利用者が、上下の歯のうち、右側の歯を接触させたときの、頭部の複数箇所から得られた時系列の電極信号の振幅の特性を示すための図である。It is a figure for showing the characteristic of the amplitude of the time series electrode signal obtained from two or more places of a head when a user makes a right tooth contact among upper and lower teeth. 利用者が、上下の歯のうち、左側の歯を接触させたときの、頭部の複数箇所から得られた時系列の電極信号の振幅の特性を示すための図である。It is a figure for showing the characteristic of the amplitude of the time-sequential electrode signal obtained from two or more places of a head when a user makes a left tooth contact among upper and lower teeth. 図1に示すロボットコントローラ24のハードウェアブロック図である。It is a hardware block diagram of the robot controller 24 shown in FIG. 図7に示すPC68のハードウェアブロック図である。It is a hardware block diagram of PC68 shown in FIG. 図8に示すCPU120により実行される、BMI実現のためのプログラムのメインルーチンの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the main routine of the program for BMI implementation | achievement performed by CPU120 shown in FIG. 図9のステップ152で実行される特徴量抽出処理を実現するプログラムルーチンの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the program routine which implement | achieves the feature-value extraction process performed by step 152 of FIG. 図9のステップ154で使用されるパターン分類器の学習を行うためのプログラムの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the program for performing the learning of the pattern classifier used by step 154 of FIG.

以下、本発明をいかにして実現するかについて、実施の形態を例にして説明する。以下の説明では、同一の部品には同一の名称及び参照符号を付してある。それらの機能も互いに同一である。したがってそれらについての詳細な説明は繰返さない。   Hereinafter, how to implement the present invention will be described with reference to an embodiment. In the following description, the same parts are denoted by the same names and reference numerals. Their functions are also the same. Therefore, detailed description thereof will not be repeated.

図1を参照して、この実施の形態に係るロボットコントローラシステムは、制御対象となる、無線操縦可能な、サッカーを行なうロボット26と、ロボット26を制御しようとする利用者20の頭部に装着され、利用者20の頭部の複数箇所における電気的変化を電気信号に変換し、複数チャネルの時系列信号として出力する頭部電極カバー22と、頭部電極カバー22からの複数チャンネルの時系列信号を受け、これら時系列信号から得られる脳波に基づき、利用者20の心理状態を判定してその心理状態に基づくフィードバックを利用者20に対して行なうとともに、頭部電極カバー22からの複数チャンネルの時系列信号に基づき、ロボット26の制御に関する利用者20の意図を判定し、判定結果にしたがってロボット26を制御するためのコマンドを生成して無線によりロボット26に送信する処理を行なうロボットコントローラ24とを含む。   Referring to FIG. 1, the robot controller system according to this embodiment is mounted on the head of a user 26 who wants to control a robot 26 that can be controlled and that can be wirelessly controlled and that can be controlled by radio. The head electrode cover 22 that converts electrical changes at a plurality of locations on the head of the user 20 into electrical signals and outputs them as a time-series signal of a plurality of channels, and a time series of a plurality of channels from the head electrode cover 22 Based on the brain wave obtained from these time series signals, the psychological state of the user 20 is determined, feedback based on the psychological state is performed to the user 20, and a plurality of channels from the head electrode cover 22 are provided. Based on the time series signal, the intention of the user 20 regarding the control of the robot 26 is determined, and the robot 26 is controlled according to the determination result. Wirelessly and generates a command for including a robot controller 24 for performing a process of transmitting to the robot 26.

本実施の形態では、ロボットコントローラ24は、利用者20から得られる複数チャンネルの時系列信号のうち、0−50Hzの帯域の成分(EEG:脳波。本実施の形態では、これを「第1脳波信号」と呼ぶ。)に基づいてフィードバック制御を行ない、50Hz−250Hzの帯域の成分(これもEEG(脳波)であるが、本実施の形態ではこれを「第2脳波信号」と呼ぶ。)を用いる。脳波を測定するための頭部電極カバー22を利用して第2脳波信号を得て、それに基づいてロボット26を制御する点に本実施の形態の一つの特徴がある。本実施の形態では特に、利用者20が自分の歯に対してどのような操作を行なうかを頭部電極カバー22からの脳波信号の変化から判定し、判定結果にしたがったコマンドを生成する。   In the present embodiment, the robot controller 24 uses a component in the 0-50 Hz band (EEG: electroencephalogram. Among the time-series signals of a plurality of channels obtained from the user 20, this is referred to as “first electroencephalogram”. Feedback control is performed on the basis of the frequency of the component (which is also an EEG (electroencephalogram), which is also referred to as a “second electroencephalogram signal” in the present embodiment). Use. One feature of the present embodiment is that the second electroencephalogram signal is obtained using the head electrode cover 22 for measuring the electroencephalogram, and the robot 26 is controlled based on the second electroencephalogram signal. In this embodiment, in particular, what operation the user 20 performs on his / her teeth is determined from the change in the electroencephalogram signal from the head electrode cover 22, and a command is generated according to the determination result.

図2(1)を参照して、利用者が上下の歯の全体を互いに接触させたときには、電極により測定される脳波信号には以下のような特徴がある。ここでは、図2(2)に示す前頭葉A、左側頭葉B、及び右側頭葉Cから得られた脳波信号と、利用者による歯の動きとの関連を示す。すなわち、この場合、前頭葉Aから得られる脳波信号(図2(3A))の振幅は小さく、左右の側頭葉B及びCから得られる脳波信号(図2(3B)及び(3C))の振幅は大きい。   Referring to FIG. 2 (1), when the user brings the entire upper and lower teeth into contact with each other, the electroencephalogram signal measured by the electrode has the following characteristics. Here, the relationship between the electroencephalogram signals obtained from the frontal lobe A, the left temporal lobe B, and the right temporal lobe C shown in FIG. That is, in this case, the amplitude of the electroencephalogram signal obtained from the frontal lobe A (FIG. 2 (3A)) is small, and the amplitude of the electroencephalogram signals obtained from the left and right temporal lobes B and C (FIG. 2 (3B) and (3C)). Is big.

図3(1)を参照して、利用者が上下の歯の全てを互いに接触させていないときには、図3(3A)−(3C)に示すように、前頭葉A、左右の側頭葉B及びCから得られる脳波信号はいずれも小さな振幅しか持たない。   Referring to FIG. 3 (1), when the user does not contact all the upper and lower teeth with each other, as shown in FIGS. 3 (3A)-(3C), frontal lobe A, left and right temporal lobes B, and The electroencephalogram signals obtained from C all have a small amplitude.

図4(1)を参照して、利用者が上下の前歯42を接触させ、それ以外の歯は接触させていない状態では、図4(3A)に示すように前頭葉から得られる脳波信号は大きな振幅を示す。それに対し、図4(3B)及び(3C)に示すように、左右の側頭葉B及びCから得られる脳波信号の振幅は小さい。   Referring to FIG. 4 (1), when the user contacts the upper and lower front teeth 42 and the other teeth are not in contact, the electroencephalogram signal obtained from the frontal lobe is large as shown in FIG. 4 (3A). Indicates the amplitude. On the other hand, as shown in FIGS. 4 (3B) and (3C), the amplitudes of the electroencephalogram signals obtained from the left and right temporal lobes B and C are small.

図5(1)を参照して、利用者が右側の奥歯44を接触させ、それ以外の歯は接触させていない状態では、図5(3B)に示すように右側頭葉Bから得られる脳波信号は大きな振幅を示す。それに対し、図5(3A)及び(3C)に示すように、前頭葉A及び左側頭葉Cから得られる脳波信号の振幅は小さい。   Referring to FIG. 5 (1), in a state where the user contacts the right back tooth 44 and the other teeth are not in contact, the electroencephalogram obtained from the right temporal lobe B as shown in FIG. 5 (3B). The signal shows a large amplitude. On the other hand, as shown in FIGS. 5 (3A) and (3C), the amplitudes of the electroencephalogram signals obtained from the frontal lobe A and the left temporal lobe C are small.

図6(1)を参照して、利用者が左側の奥歯46を接触させ、それ以外の歯は接触させていない状態では、図6(3C)に示すように左側頭葉Cから得られる脳波信号は大きな振幅を示す。それに対し、図6(3A)及び(3B)に示すように、前頭葉A及び右側頭葉Bから得られる脳波信号の振幅は小さい。   Referring to FIG. 6 (1), when the user contacts the left back tooth 46 and the other teeth are not in contact, the electroencephalogram obtained from the left temporal lobe C as shown in FIG. 6 (3C). The signal shows a large amplitude. On the other hand, as shown in FIGS. 6 (3A) and (3B), the amplitudes of the electroencephalogram signals obtained from the frontal lobe A and the right temporal lobe B are small.

以上は一般的な傾向であり、実際にはこれらの振幅の相違を見分けるのは簡単なことではない。本実施の形態では、予め利用者にロボット26を制御することを想像させ、そのときに得られる脳波信号に制御のコマンドに相当するラベルを付すことにより学習データを準備する。この学習データを用いてSVMの学習を行なう。実際の動作時には、このSVMをパターン分類器として用い、利用者の歯の動きから利用者によるロボット26の制御コマンドを推定する。   The above is a general tendency, and in reality, it is not easy to distinguish these amplitude differences. In the present embodiment, learning data is prepared by causing a user to imagine controlling the robot 26 in advance and attaching a label corresponding to a control command to an electroencephalogram signal obtained at that time. SVM learning is performed using this learning data. In actual operation, this SVM is used as a pattern classifier, and a control command of the robot 26 by the user is estimated from the movement of the user's teeth.

従来、歯の動きを頬に装着した電極で測定された筋電信号から判定する例はあったが、歯の動きを本実施の形態のように頭皮上から測定する脳波から推定した例はなかった。   Conventionally, there has been an example in which tooth movement is determined from an electromyographic signal measured with an electrode attached to the cheek, but there is no example in which tooth movement is estimated from an electroencephalogram measured from above the scalp as in this embodiment. It was.

図7を参照して、ロボットコントローラ24は、頭部電極カバー22の複数の電極60からの複数チャンネルの時系列信号を受け、それぞれ別チャンネルのデジタル信号に変換するためのA/D変換器62と、A/D変換器62から出力される複数チャンネルのデジタル信号の各々について、0−50Hzの周波数帯域の成分のみを通過させるためのバンドパスフィルタ(BPF)64と、A/D変換器62から出力される複数チャンネルのデジタル信号の各々について、50−250Hzの周波数帯域の成分のみを通過させるためのBPF66と、BPF64から複数チャンネルのデジタルの第1脳波信号を、BPF66から複数チャンネルのデジタルの第2脳波信号を、それぞれ受け、第1脳波信号を利用して利用者の心理的又は肉体的状態(感情、疲労度等)を検出し、ロボットによるサッカーゲームにふさわしいフィードバックを利用者に対して行なうための信号処理、及び第2脳波信号を利用して、利用者20によるロボット26の制御の意図を判定し、判定結果をロボット26を制御するコマンドとして出力する信号処理を行なうためのPC(パーソナル・コンピュータ)PC68とを含む。   Referring to FIG. 7, a robot controller 24 receives an A / D converter 62 for receiving time-series signals of a plurality of channels from a plurality of electrodes 60 of the head electrode cover 22 and converting them into digital signals of different channels. A band pass filter (BPF) 64 for passing only the components in the frequency band of 0-50 Hz for each of the digital signals of a plurality of channels output from the A / D converter 62, and the A / D converter 62 BPF 66 for passing only the components in the frequency band of 50 to 250 Hz, the digital first electroencephalogram signal of a plurality of channels from BPF 64, and the digital signals of the plurality of channels from BPF 66 Receiving the second EEG signal, and using the first EEG signal, the user's psychological or physical By detecting the state (emotion, fatigue level, etc.) and performing signal processing for performing feedback suitable for the soccer game by the robot to the user and the second brain wave signal, the user 20 controls the robot 26. PC (personal computer) PC68 for performing the signal processing which determines an intention and outputs a determination result as a command which controls the robot 26 is included.

ロボットコントローラ24はさらに、PC68が第1脳波信号を処理して出力するフィードバック信号にしたがい、利用者20に対してその状況に応じたフィードバック処理を行なうためのフィードバック装置70と、PC68が第2脳波信号を処理して得られたコマンドを受け、ロボット26に対して無線通信によりコマンドを送信するための無線通信装置72とを含む。   The robot controller 24 further includes a feedback device 70 for performing feedback processing according to the situation for the user 20 according to the feedback signal that the PC 68 processes and outputs the first brain wave signal, and the PC 68 includes the second brain wave. A wireless communication device 72 for receiving a command obtained by processing the signal and transmitting the command to the robot 26 by wireless communication.

図8を参照して、PC68は、一般的な構成のPCと同様の構成を持ち、CPU(中央演算処理装置)120と、CPU120に接続されたバス134と、いずれもバス134に接続され、所定の範囲のアドレスを指定することによりCPU120がアクセス可能な電気的に読出及び書込可能なROM(Read−Only Memory)122、データの随時書込及び読出が可能なRAM(Random Access Memory)124、A/D変換器62からの複数チャンネルの時系列信号を受けるI/Oインタフェイス126、図7に示す無線通信装置72が接続されるI/Oインタフェイス128、CPU120により制御され、サッカーゲームのための効果音などを利用者20へのフィードバックとして出力するサウンドボード130、及び着脱可能な半導体メモリ116が装着されるメモリポート132とを含む。   Referring to FIG. 8, PC 68 has a configuration similar to that of a general configuration PC. CPU (Central Processing Unit) 120 and bus 134 connected to CPU 120 are both connected to bus 134. An electrically readable / writable ROM (Read-Only Memory) 122 accessible by the CPU 120 by designating a predetermined range of addresses, and a RAM (Random Access Memory) 124 capable of writing and reading data at any time. A soccer game controlled by an I / O interface 126 that receives a time-series signal of a plurality of channels from the A / D converter 62, an I / O interface 128 to which the wireless communication device 72 shown in FIG. A sound box that outputs sound effects for the user 20 as feedback to the user 20 De 130 and a removable semiconductor memory 116, includes a memory port 132 to be mounted.

ここでは示さないが、PC68はさらに、ローカルエリアネットワーク(LAN)への接続を提供するネットワークアダプタボードを含んでもよい。PC68をロボットコントローラ24として機能させるためのコンピュータプログラムは、例えば半導体メモリ116に記憶されて流通し、半導体メモリ116がメモリポート132に装着されたときに、CPU120の制御によりROM122にコピーされる。図示しないネットワークアダプタボードを通じ、ネットワーク上の他のコンピュータからPC68に転送され、ROM122に書き込まれてもよい。プログラムは実行の際にRAM124にロードされる。   Although not shown here, the PC 68 may further include a network adapter board that provides a connection to a local area network (LAN). A computer program for causing the PC 68 to function as the robot controller 24 is stored and distributed, for example, in the semiconductor memory 116, and is copied to the ROM 122 under the control of the CPU 120 when the semiconductor memory 116 is attached to the memory port 132. It may be transferred from another computer on the network to the PC 68 through a network adapter board (not shown) and written in the ROM 122. The program is loaded into the RAM 124 at the time of execution.

このプログラムは、PC68にこの実施の形態に係るロボットコントローラ24として機能させる複数の命令を含む。この機能の実現のために必要な基本的機能のいくつかはPC68上で動作するオペレーティングシステム(OS)もしくはサードパーティのプログラム、またはPC68にインストールされる各種ツールキットのモジュールにより提供される。従って、このプログラムはこの実施の形態のシステムおよび方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能またはコンピュータ用の一群の関数の集合からなる「ツールセット」内から適切なプログラムである「ツール」を呼出すことにより、上記したロボットコントローラ24としての機能を実現する命令のみを含んでいればよい。PC68の動作は周知であるので、ここではその詳細は繰返さない。   This program includes a plurality of instructions that cause the PC 68 to function as the robot controller 24 according to this embodiment. Some of the basic functions necessary for realizing this function are provided by an operating system (OS) or a third-party program running on the PC 68 or modules of various tool kits installed on the PC 68. Therefore, this program does not necessarily include all functions necessary for realizing the system and method of this embodiment. This program is an appropriate program "tool" from within a "tool set" consisting of a set of functions or a set of functions for a computer in a controlled manner to obtain the desired result. It is only necessary to include a command for realizing the function as the robot controller 24 described above by calling. Since the operation of PC 68 is well known, details thereof will not be repeated here.

図9を参照して、PC68をロボットコントローラ24のうち、利用者20の意図にしたがってロボット26を制御する機能を実現するプログラムは、BPF66から出力される50−250Hzの帯域の複数チャンネルの時系列信号を、互いに重なりのない所定長のフレーム長でフレーム化するステップ150と、ステップ150に続き、脳波信号の各チャンネルの各フレームからそれぞれ予め定められた特徴量を抽出するステップ152と、ステップ152に続き、特徴量を入力として、予め学習済のSVMからなるパターン分類器により、利用者20により意図された、ロボット26の制御のためのコマンドを生成し出力するステップ154と、ステップ154に続き、生成されたコマンドを無線通信装置72を介してロボット26に対して無線送信するステップ156とを含む。ステップ156の後、制御はステップ150に戻り、以上に述べた一連の処理を繰返す。   Referring to FIG. 9, a program for realizing the function of controlling the robot 26 in accordance with the intention of the user 20 among the robot controller 24 of the PC 68 is a time series of a plurality of channels having a frequency band of 50 to 250 Hz output from the BPF 66. Step 150 for framing the signal with a predetermined frame length that does not overlap with each other, Step 152 for extracting a predetermined feature amount from each frame of each channel of the electroencephalogram signal following Step 150, and Step 152 Subsequently to Step 154, which generates and outputs a command for controlling the robot 26 intended by the user 20 by using a pattern classifier composed of SVM that has been learned in advance, using the feature amount as an input. The generated command is sent to the robot 26 via the wireless communication device 72. And and a step 156 to wirelessly transmit. After step 156, control returns to step 150, and the series of processes described above is repeated.

既に述べたように、頭部電極カバー22から得られる時系列信号において、脳の各部から得られる信号の空間解像度は非常に低い。したがって、精度の高い判定を行なうためには、得られた信号から、判定に有効な成分を抽出し、特徴量の次元を削減する必要がある。ステップ152では、もとの時系列信号から得られた生の特徴量からなる行列に、後述するCSSD(Common Spatial Subspace Decomposition)(CSP(Common Spatial Pattern)とも呼ばれる。)という手法を用いて得られたマッピング行列を乗算することにより、判定に最も有効と考えられる一組の特徴量に変換し、同時に特徴量の次元を削減する。このマッピング行列は、予め、SVMの学習時に同時に算出される。その方法については後述する。   As already described, in the time-series signal obtained from the head electrode cover 22, the spatial resolution of the signal obtained from each part of the brain is very low. Therefore, in order to make a highly accurate determination, it is necessary to extract a component effective for the determination from the obtained signal and reduce the dimension of the feature amount. In step 152, a matrix consisting of raw feature values obtained from the original time-series signal is obtained by using a technique called CSSD (Common Spatial Decomposition) (also referred to as CSP (Common Spatial Pattern)) described later. By multiplying the mapping matrix, it is converted into a set of feature quantities that are considered to be most effective for determination, and at the same time the dimension of the feature quantities is reduced. This mapping matrix is calculated in advance during SVM learning. The method will be described later.

図10を参照して、ステップ152の特徴量抽出処理を実現するためのプログラムルーチンは、各チャンネルの時系列信号の各フレームから、特徴量として各信号の振幅を算出するステップ170と、ステップ170で各チャンネルの各フレームに対して得られた生の特徴量から各チャンネルについて得られた特徴量行列に対し、予め算出されていたマッピング行列を乗ずることにより、パターン分類器への入力となる特徴量を算出してこのルーチンを終了するステップ172とを含む。   Referring to FIG. 10, the program routine for realizing the feature amount extraction process in step 152 includes steps 170 and 170 for calculating the amplitude of each signal as a feature amount from each frame of the time-series signal of each channel. The feature that is input to the pattern classifier is obtained by multiplying the feature matrix obtained for each channel from the raw feature obtained for each frame of each channel by the mapping matrix calculated in advance. And a step 172 of calculating the quantity and terminating this routine.

既に述べたように、パターン分類器は予め学習データを用いて学習しておく必要がある。本実施の形態ではこの学習時に、特徴量のマッピング行列も算出する。以下、学習処理について説明する。学習は、被験者(利用者)に対し、図2−図6に示すような状態に歯を維持するように求め、その間の頭部電極カバー22からの出力に対して、図2−図6のいずれかに応じたラベルを付して学習データとする。   As already described, the pattern classifier needs to learn in advance using learning data. In the present embodiment, a feature value mapping matrix is also calculated during the learning. Hereinafter, the learning process will be described. Learning requires the subject (user) to maintain the teeth in the state as shown in FIG. 2 to FIG. 6, and the output from the head electrode cover 22 during that time is shown in FIG. A label according to either one is attached and used as learning data.

図11を参照して、学習処理のプログラムは、被験者に対してどのような歯の形を取らせたかについてのラベルを入力するステップ200と、ステップ200に続き、被験者が指定された歯の形を維持している間に頭部電極カバー22から得られた所定時間長の時系列信号を、チャンネルごとに、実際の処理時と同じフレーム長でかつ互いに重なりのないフレームにフレーム化するステップ202と、ステップ202で得られた各チャンネルの各フレームから所定の特徴量(振幅)を算出するステップ206と、ステップ206で各チャンネルの信号に対して得られた特徴量を、各チャンネル及び各フレームごとに蓄積するステップ206と、学習データの収集のための処理が終了したか否かを判定し、判定結果に応じて制御の流れを分岐させるステップ208とを含む。ステップ208では、学習データの収集のための処理が終了していないときには、制御はステップ200に戻る。   Referring to FIG. 11, the learning processing program inputs a label about what tooth shape the subject has taken, and following step 200, the tooth shape specified by the subject is entered. Step 202 is a step of framing a time-series signal having a predetermined time length obtained from the head electrode cover 22 while maintaining the above into a frame having the same frame length as that at the time of actual processing and not overlapping each other for each channel. A step 206 for calculating a predetermined feature amount (amplitude) from each frame of each channel obtained in step 202; and a feature amount obtained for the signal of each channel in step 206, for each channel and each frame. It is determined whether or not the step 206 for storing each time and the process for collecting learning data have been completed, and the flow of control is branched according to the determination result. And a step 208 that. In step 208, when the process for collecting learning data is not completed, the control returns to step 200.

このプログラムはさらに、ステップ208において、学習データの収集のための処理が終了したと判定されたときに実行され、ステップ200−208の処理により収集されたデータに基づき、CSSDによるマッピング行列の算出を行なうステップ210と、ステップ210に続き、ステップ200−208までの処理で蓄積された学習用データを、各行にチャンネルが、各列に各フレームから得られたサンプルが、それぞれ配置された行列形式に変換し、この行列に対してステップ210で得られた変換行列を乗算することにより、特徴量の次元数を削減するステップ212と、ステップ212で得られた特徴量を入力とし、ステップ200で入力されたラベルを正解データとしてSVMからなるパターン分類器の学習を行なって処理を終了するステップ214とを含む。   This program is further executed when it is determined in step 208 that the process for collecting learning data has been completed, and the mapping matrix is calculated by CSSD based on the data collected by the process of steps 200-208. Step 210 to be performed, and subsequent to step 210, the learning data accumulated in the processes up to steps 200 to 208 are arranged in a matrix format in which channels are arranged in each row and samples obtained from each frame are arranged in each column. By converting and multiplying this matrix by the transformation matrix obtained in step 210, the feature quantity obtained in step 212 and the step 212 for reducing the number of dimensions of the feature quantity are input and input in step 200. Learning the pattern classifier consisting of SVM with the correct label as correct data Ryosuru and a step 214.

−CSSDによる特徴量の次元数の削減−
ここでは、各データ群を最適に分離するため、空間フィルタリングを用いて生の特徴量の次元を削減する。このフィルタリング技法は、前述のようにCSSDまたはCSPと呼ばれ、端的に言うと、2つのタスクの脳波を最適に分離できる軸を抽出する処理をいう。この手法は本質的に並列的であり、スカラー積しか使用しないため、計算コストが小さくリアルタイム処理に最適である。
-Reducing the number of feature dimensions by CSSD-
Here, in order to optimally separate each data group, the dimension of the raw feature amount is reduced using spatial filtering. As described above, this filtering technique is called CSSD or CSP, and in short, refers to a process of extracting an axis that can optimally separate the brain waves of two tasks. Since this method is essentially parallel and uses only scalar products, the calculation cost is low and it is optimal for real-time processing.

学習時の1回分のデータ収集処理で得られたEEG信号の測定サンプルをN行T列の行列Eで表す。Nはチャンネル数(電極数)、Tは1チャンネルあたりのサンプル数である。ここでは1フレームから得られた平均振幅が1サンプルである。   A measurement sample of the EEG signal obtained by one data collection process at the time of learning is represented by a matrix E of N rows and T columns. N is the number of channels (number of electrodes), and T is the number of samples per channel. Here, the average amplitude obtained from one frame is one sample.

例えば左側の歯を接触させたときに得られたサンプルEと右側の歯を接触させたときに得られたサンプルEとについて、EEGの空間共分散を正規化したものが、次の式から得られる。 For example, for the sample El obtained when the left tooth is brought into contact with the sample Er obtained when the right tooth is brought into contact, the spatial covariance of the EEG is normalized as follows: Obtained from.

Figure 2011076177
ただし、行列の右肩の「T」記号は行列の転置を表し、「trace(E)」は行列Eの対角成分の和を表す。E及びEはそれぞれいずれも同じ条件で、歯の接触条件のみを変えて測定されるので、サンプル行列E及びEはは以下のように表すことができる。
Figure 2011076177
However, the “T” symbol on the right shoulder of the matrix represents the transpose of the matrix, and “trace (E)” represents the sum of the diagonal components of the matrix E. Since E l and E r are both measured under the same conditions and changing only the tooth contact conditions, the sample matrices E l and E r can be expressed as follows.

Figure 2011076177
ただしSは左側の歯を接触させることに特有の信号源を表し、Cは対応する空間パターンを表す。Sは右側の歯を接触させることに特有の信号源を表し、Cは対応する空間パターンを表す。Sはいずれにも共通の信号源を表し、Cは対応する空間パターンを表す。
Figure 2011076177
Where S l represents a signal source specific to contacting the left tooth and C l represents the corresponding spatial pattern. S r represents a signal source specific to contacting the right tooth, and C r represents the corresponding spatial pattern. S c represents a common signal source, and C c represents a corresponding spatial pattern.

CSSDの目的は、信号源成分S及びSを抽出するために必要な空間フィルタ(マッピング行列)W及びWを得ることである。すなわち、

Figure 2011076177
となる。Wは左側の歯を接触させることに対応する空間フィルタであり、Wは右側の歯を接触させることに対応する空間フィルタである。この空間フィルタW及びWはトレーニングデータを用いた学習時にCSSDにより算出される。 The purpose of CSSD is to obtain the spatial filters (mapping matrices) W l and W r necessary to extract the signal source components S l and S r . That is,
Figure 2011076177
It becomes. W l is a spatial filter corresponding to contacting the left tooth, and W r is a spatial filter corresponding to contacting the right tooth. The spatial filters W l and W r are calculated by CSSD during learning using training data.

 ̄Cl及び ̄Cr(「 ̄」は直後の文字の直上に記載すべきものである。)をそれぞれ左側及び右側の歯を接触させているときの平均正規化共分散とする。   Let  ̄Cl and  ̄Cr (“ ̄” should be written immediately above the character immediately after) be the average normalized covariance when the left and right teeth are in contact, respectively.

Figure 2011076177
ただしN及びNはそれぞれ、学習時における、左側及び右側の歯を接触させた状態に対応する学習データの収集試行回数を示し、C(i)及びC(i)はそれぞれ、i回目の学習データの収集試行で得られた、左側及び右側の歯を接触させた状態のときの正規化共分散を示す。
Figure 2011076177
N 1 and N r indicate the number of learning data collection attempts corresponding to the state in which the left and right teeth are in contact with each other during learning, and C l (i) and C r (i) are respectively i The normalized covariance obtained when the left and right teeth are in contact with each other, obtained in the second learning data collection trial, is shown.

及びCの和をCとするとCは以下のように分解できる。

Figure 2011076177
ただしUは固有ベクトルからなる行列であり、λは固有値からなる対角行列である。以下の説明では、固有値は降順にソートされているものとする。 If the sum of C 1 and C r is C, C can be decomposed as follows.
Figure 2011076177
However, U c is a matrix composed of eigenvectors, and λ c is a diagonal matrix composed of eigenvalues. In the following description, it is assumed that the eigenvalues are sorted in descending order.

すると、白色化変換は以下のように定式化される。   Then, the whitening conversion is formulated as follows.

Figure 2011076177
この結果、 ̄C及び ̄Cは次のように変形できる。
Figure 2011076177
As a result, ¯C l and C r can be modified as follows.

Figure 2011076177
及びSはそれぞれ、以下のように分解できる。
Figure 2011076177
Each of S l and S r can be decomposed as follows.

Figure 2011076177
ここで、S及びSは共通の固有ベクトル行列Uを持ち、対角固有値行列λ及びλは以下の関係を満たす。
Figure 2011076177
Here, S l and S r have a common eigenvector matrix U, and the diagonal eigenvalue matrices λ l and λ r satisfy the following relationship.

Figure 2011076177
ただしIは単位行列である。行列λ内の最大の固有値は、行列λ内に、対応する最小の固有値をもち、その逆も成立する。行列U内において、その最初の固有ベクトルをU(1行N列)とし、最後の固有ベクトルをU(1行N列)とする。ベクトルU及びUは2種類の歯の接触条件を識別するための最適化された固有ベクトルとなる。このとき、左側及び右側の歯を接触させた状態にそれぞれ対応する空間フィルタW及びWは、それぞれ以下のようになる。
Figure 2011076177
Where I is a unit matrix. The largest eigenvalue in matrix λ l has the corresponding smallest eigenvalue in matrix λ r and vice versa. In the matrix U, the first eigenvector is U l (1 row N columns), and the last eigenvector is U r (1 row N columns). The vectors U l and U r are optimized eigenvectors for identifying the contact conditions of the two types of teeth. At this time, the spatial filters W l and W r respectively corresponding to the state in which the left and right teeth are in contact are as follows.

Figure 2011076177
学習データの収集時のサンプル行列Eは、次のように分解(マッピング)される。
Figure 2011076177
The sample matrix E at the time of learning data collection is decomposed (mapped) as follows.

Figure 2011076177
ただしW=[W;W]であり、EはN行T列の行列である。
Figure 2011076177
However, W = [W 1 ; W r ], and E is a matrix of N rows and T columns.

2つの信号群の分散を最大にするような信号群Z(p=1…2m)が最大固有値λ及びλに対応する信号群である。これら信号は、行列Wの計算によると、マッピング後の行列Zの最初のm行及び最後のm行である。 The signal group Z p (p = 1... 2 m) that maximizes the variance of the two signal groups is the signal group corresponding to the maximum eigenvalues λ l and λ r . According to the calculation of the matrix W, these signals are the first m rows and the last m rows of the matrix Z after mapping.

信号群Zを選択した後、正規化分散を計算する。次に、以下の式により特徴量fを算出し、対数をとって正規分布にしたがうようにした上で線形パターン分類器に与える。 After selecting the signal group Z p, we calculate the normalized variance. Then, it calculates the feature amount f p by the following equation, giving a linear pattern classifier on you to follow the normal distribution with the logarithm.

Figure 2011076177
CSSDは、2つの信号群の分類にしか利用できない。複数の信号群を分類するために、2つの信号群の各々に対するCSSD特徴量を加算して得られた合計CSSD特徴量を用いる。パターン分類器への入力としてもこの合計CSSD特徴量を用いる。
Figure 2011076177
CSSD can only be used to classify two signal groups. In order to classify a plurality of signal groups, a total CSSD feature value obtained by adding the CSSD feature values for each of the two signal groups is used. This total CSSD feature quantity is also used as an input to the pattern classifier.

[動作]
上記実施の形態に係るロボットコントローラ24は以下のように動作する。ロボットコントローラ24の動作には2つのフェーズがある。第1フェーズはマッピング行列Wの算出及びパターン分類器の学習であり、第2フェーズは、このパターン分類器を用いて、利用者20による歯の接触の状態を判定し、その状態に応じたコマンドを出力する動作フェーズである。
[Operation]
The robot controller 24 according to the above embodiment operates as follows. The operation of the robot controller 24 has two phases. The first phase is the calculation of the mapping matrix W and the learning of the pattern classifier. The second phase uses this pattern classifier to determine the state of contact of the teeth by the user 20, and commands according to the state Is an operation phase for outputting.

−学習フェーズ−
学習は以下のようにして行なわれる。被験者(利用者20)は頭部に頭部電極カバー22を装着し、頭部電極カバー22の各電極60はロボットコントローラ24のA/D変換器62の入力に接続される。
-Learning phase-
Learning is performed as follows. The subject (user 20) wears the head electrode cover 22 on the head, and each electrode 60 of the head electrode cover 22 is connected to an input of the A / D converter 62 of the robot controller 24.

学習の指導者が、図2−図6の状態のうちのいずれかを選択し、歯の状態をその状態とするように被験者に指示する。被験者がその状態をとると、実験者はどの状態かを示すラベルを入力する(図11のステップ200)。さらに、所定時間、複数の電極60からの信号のおのおのを読むことを繰返し、それら複数のチャンネルの信号を所定長のフレームでフレーム化する(ステップ202)。各チャンネルの各フレームに対して特徴量を算出する(ステップ204)。具体的には、各フレームにおける信号の平均振幅を算出する。   The learning instructor selects one of the states shown in FIGS. 2 to 6 and instructs the subject to set the tooth state to that state. When the subject takes the state, the experimenter inputs a label indicating the state (step 200 in FIG. 11). Further, reading each of the signals from the plurality of electrodes 60 is repeated for a predetermined time, and the signals of the plurality of channels are framed into frames of a predetermined length (step 202). A feature amount is calculated for each frame of each channel (step 204). Specifically, the average amplitude of the signal in each frame is calculated.

続いて、各チャンネルの各フレームについて、ステップ206で算出された特徴量を記憶媒体に記憶する(ステップ206)。   Subsequently, for each frame of each channel, the feature amount calculated in step 206 is stored in a storage medium (step 206).

以上の処理を、十分な学習用デーが得られるまで繰返す。十分な学習データが得られたが、ステップ210で、上記したCSSD(CSP)によるマッピング行列の算出を行ない、記憶媒体に記憶する。さらにステップ212で、このマッピング行列を用い、ステップ206で得られた特徴量を、各チャンネルについて上記したCSSD特徴量に変換する。こうして得られたCSSD特徴量を、学習用データとしてステップ200で入力されたラベルとともに蓄積し、学習データとする。   The above processing is repeated until sufficient learning data is obtained. Although sufficient learning data has been obtained, in step 210, the above-described CSSD (CSP) is used to calculate the mapping matrix and store it in the storage medium. Further, in step 212, using this mapping matrix, the feature amount obtained in step 206 is converted into the CSSD feature amount described above for each channel. The CSSD feature value obtained in this way is accumulated as learning data together with the label input in step 200 to obtain learning data.

最後に、パターン分類器(本実施の形態ではSVM)に対し、ステップ212で得られた学習データによる学習を行ない、学習が終了したら処理を終了する(ステップ214)。以上で学習処理は終了である。   Finally, learning is performed on the pattern classifier (SVM in the present embodiment) using the learning data obtained in step 212, and the process ends when the learning is completed (step 214). This completes the learning process.

−動作フェーズ−
動作フェーズでは、学習フェーズでの被験者と同じ利用者20が頭部電極カバー22を頭部に装着する。各電極60はA/D変換器62に接続される。無線通信装置72と目的のロボット26との間の無線通信による接続が確立され、フィードバック装置70などの初期化が終了するとロボット26によるゲームが実行可能となる。
-Operation phase-
In the operation phase, the same user 20 as the subject in the learning phase wears the head electrode cover 22 on the head. Each electrode 60 is connected to an A / D converter 62. When the wireless communication connection between the wireless communication device 72 and the target robot 26 is established and the initialization of the feedback device 70 and the like is completed, the game by the robot 26 can be executed.

ゲームが開始されると、利用者20はロボット26に対して行ないたい指示に対応付けられた接触状態となるように歯の状態を変化させる。このとき、各電極60からは時系列信号がA/D変換器62に与えられる。A/D変換器62はそれら複数チャンネルの時系列信号をデジタル信号に変換し、BPF64及びA/D変換器62に与える。BPF64はこれら信号のうち、0−50Hzの帯域成分のみを通過させ第1脳波信号としてPC68に与える。BPF66は、入力される信号のうち50−250Hzの帯域成分のみを通過させPC68に第2脳波信号として与える。   When the game is started, the user 20 changes the state of the teeth so as to be in a contact state associated with an instruction to be performed on the robot 26. At this time, a time series signal is given from each electrode 60 to the A / D converter 62. The A / D converter 62 converts the time series signals of the plurality of channels into digital signals and supplies them to the BPF 64 and the A / D converter 62. Of these signals, the BPF 64 passes only the 0-50 Hz band component and gives it to the PC 68 as the first electroencephalogram signal. The BPF 66 passes only the 50-250 Hz band component of the input signal and gives it to the PC 68 as the second electroencephalogram signal.

PC68は、第1脳波信号としてBPF64から与えられる信号に基づき、利用者20の心理状態(感情、疲労度等)を識別し、予めプログラムされた態様で利用者20に対しフィードバックを与える。例えば得点が入ったにもかかわらず利用者20が冷静なときにはその興奮を高めるような刺激を与えたり、相手に得点が入り、利用者20が非常に興奮しているときには逆に冷静にするような音楽をヘッドホン114による再生したりする。PC68によるフィードバック装置70の制御については、本発明と直接の関係がないので、その詳細な説明はここでは行なわない。   The PC 68 identifies the psychological state (emotion, fatigue level, etc.) of the user 20 based on the signal given from the BPF 64 as the first electroencephalogram signal, and gives feedback to the user 20 in a preprogrammed manner. For example, when the user 20 is calm even if the score is entered, a stimulus is given to increase the excitement, or when the score is given to the other party and the user 20 is very excited, the user 20 is calmed. Or playing music using headphones 114. Since the control of the feedback device 70 by the PC 68 is not directly related to the present invention, a detailed description thereof will not be given here.

一方、PC68は、BPF66から与えられる第2脳波信号を用い、以下のようにしてロボット26を制御するためのコマンドを生成する。PC68は、BPF66から与えられる、頭部電極カバー22から得られた複数チャンネルの第2脳波信号の各々に対し、所定長のフレームに分割し(図9のステップ150)、各チャンネルのフレームごとに特徴量を算出する(ステップ152)。具体的には、PC68は、各チャンネルのフレームごとに、その平均振幅を特徴量として算出し(図10のステップ170)、次に、学習時に得られているマッピング行列を用い、この特徴量の次元を削減したCSSD特徴量を算出する(ステップ172)。   On the other hand, the PC 68 generates a command for controlling the robot 26 using the second electroencephalogram signal given from the BPF 66 as follows. The PC 68 divides each of the plurality of channels of the second electroencephalogram signals obtained from the head electrode cover 22 provided from the BPF 66 into frames of a predetermined length (step 150 in FIG. 9), and for each frame of each channel. A feature amount is calculated (step 152). Specifically, the PC 68 calculates the average amplitude as a feature amount for each frame of each channel (step 170 in FIG. 10), and then uses the mapping matrix obtained at the time of learning to calculate the feature amount. The CSSD feature quantity with reduced dimensions is calculated (step 172).

このCSSD特徴量を学習済のパターン分類器に与える(図9のステップ154)。パターン分類器からは、利用者20の歯の状態が図2−図6に示すもののうちのどれであるかを示す値が出力される。PC68は、予め各状態に対して割当てられていたコマンドを選択し、無線通信装置72を介してロボット26に送信する。   This CSSD feature quantity is given to the learned pattern classifier (step 154 in FIG. 9). From the pattern classifier, a value indicating which of the teeth of the user 20 is shown in FIGS. 2 to 6 is output. The PC 68 selects a command previously assigned to each state, and transmits it to the robot 26 via the wireless communication device 72.

ロボット26は、このコマンドに対応した処理を行ない、サッカーゲームを続行する。 以上のようにこの実施の形態によれば、頭部に装着した電極から利用者の心理状態と疲労度のような情報を得ることも可能で、同時に利用者の歯の接触状態、すなわち利用者の意図を推定することもできる。歯の状態を知る目的で筋電図を得るための電極を頬に装着したりする必要はない。しかも、上記したようにCSSDを用いた機械学習により利用者の歯の接触状態を推定すると、その精度が非常に高くなることが分かった。従来、第2脳波信号成分は脳波の測定のためには邪魔な成分と考えられ、測定信号から排除されていた。そうした信号成分を用い、利用者の意図を精度高く推定することができるため、特に脳波の測定が行なわれるような場面において、この発明を効率よく適用することができる。ただし、必ず脳波の測定とともに本発明を実施する必要はなく、脳波を利用した処理を行なわなくてもよいことはもちろんである。   The robot 26 performs processing corresponding to this command and continues the soccer game. As described above, according to this embodiment, it is also possible to obtain information such as the user's psychological state and fatigue level from the electrode worn on the head, and at the same time, the contact state of the user's teeth, that is, the user It is also possible to estimate the intention. It is not necessary to wear an electrode for obtaining an electromyogram on the cheek for the purpose of knowing the state of the teeth. Moreover, it has been found that when the contact state of the user's teeth is estimated by machine learning using CSSD as described above, the accuracy becomes very high. Conventionally, the second electroencephalogram signal component is considered to be a disturbing component for the measurement of the electroencephalogram and is excluded from the measurement signal. Since such a signal component can be used to estimate the user's intention with high accuracy, the present invention can be efficiently applied particularly in a scene where an electroencephalogram is measured. However, it is not always necessary to implement the present invention together with the measurement of the electroencephalogram, and it is needless to say that the processing using the electroencephalogram need not be performed.

上記実施の形態は、利用者20の頭部から得られた複数チャンネルの電気信号から、利用者20によるロボットの制御の意図を推定した。しかし本発明はそのような実施の形態にのみ限定的に適用可能なわけではない。手を使用せずに制御対象のものに対して何らかのコマンドを伝達することが求められているような状況では常に本発明を有効に適用することができる。例えば、電動車椅子の制御、ゲームのコントロール、コンピュータにおけるマウスカーソル及び何らかのアクション発生のための制御などにも適用することができることは明らかである。   In the above embodiment, the intention of the user 20 to control the robot is estimated from the electrical signals of a plurality of channels obtained from the user's 20 head. However, the present invention is not limited to such an embodiment. The present invention can always be effectively applied in a situation where it is required to transmit some command to an object to be controlled without using a hand. For example, it is obvious that the present invention can also be applied to control of an electric wheelchair, control of a game, mouse cursor in a computer, and control for generating some action.

さらに本発明は、何らかの事情により両手を使用して対象を制御する作業ができない場合にも適用することができる。例えば複雑な機械の整備を行なう場合、仮想現実の技術を使用して、整備士に作業マニュアルなどを提示する応用がありえる。機械の整備を実行しているときには、両手を機械から離すことができない場合もある。そうした状態で例えばマニュアルを次ページに進めたいという状況が発生したときに、本発明を利用可能なことは当業者であれば明らかである。他にも、消防士、警察官、兵士など、両手に何らかの器具を保持しながら他人と通信・通話をしたり、両手に持った装置とは別の装置を操作する必要が生じたりする場合にも、本願発明を適用可能である。   Furthermore, the present invention can also be applied to a case where an operation for controlling an object cannot be performed using both hands for some reason. For example, when performing maintenance of a complicated machine, there may be an application in which a work manual is presented to a mechanic using virtual reality technology. When performing machine maintenance, you may not be able to move your hands away from the machine. It will be apparent to those skilled in the art that the present invention can be used when, for example, a situation arises in which it is desired to advance the manual to the next page. In addition, when a firefighter, police officer, soldier, etc. holds a device in both hands and communicates or talks with another person, or it is necessary to operate a device other than the device held in both hands Also, the present invention can be applied.

上記実施の形態では、歯の接触状態に伴う脳波信号を頭部電極カバー22の出力から得て、利用者20の意図を推定している。しかし本発明はそのような実施の形態には限定されず、利用者20の頭部において複数の状態を取りえるような器官についても同様に適用することができる。例えば目の片方をつぶる、瞬きを繰返す、など、目の複数通りの状態に対しても同様の原理で利用者20の意図を推定することが可能と考えられる。   In the above embodiment, an electroencephalogram signal associated with the contact state of the teeth is obtained from the output of the head electrode cover 22, and the intention of the user 20 is estimated. However, the present invention is not limited to such an embodiment, and can be similarly applied to an organ that can take a plurality of states in the head of the user 20. For example, it is considered that the intention of the user 20 can be estimated based on the same principle with respect to a plurality of states of the eye such as crushing one of the eyes or repeating blinking.

上記実施の形態ではまた、パターン分類器としてSVMを使用した。しかし本発明はSVMを利用したものには限定されない。例えば人工神経回路網(ニューラル・ネットワーク)、カルマンフィルタ、隠れマルコフモデル、及び線形分離器等を用いてもよい。   In the above embodiment, SVM is also used as the pattern classifier. However, the present invention is not limited to the one using SVM. For example, an artificial neural network (neural network), a Kalman filter, a hidden Markov model, a linear separator, or the like may be used.

なお、上記実施の形態では50Hz以上250Hz以下の脳波成分から歯の接触状態を推定したが、これは最も精度高く推定できる周波数範囲に過ぎず、50Hz以下又は250Hz以上、例えば0.5Hz以上で500Hz以下の任意の帯域の脳波成分からでも歯の接触状態を推定することは可能である。   In the above embodiment, the tooth contact state is estimated from the brain wave component of 50 Hz to 250 Hz, but this is only the frequency range that can be estimated with the highest accuracy, and is 50 Hz or less or 250 Hz or more, for example, 0.5 Hz or more and 500 Hz. It is possible to estimate the contact state of teeth from the following electroencephalogram components in any band.

上記実施の形態では、CSSD法によって求めた空間フィルタを使用して特徴量を抽出し、歯の接触状態を推定したが、本発明はそのような実施の形態には限定されない。電極から測定された脳波信号を特定周波数帯域でフィルタリングし、これを特徴量として利用して直接に人工神経回路網又はSVMのような分離器を利用して歯の接触状態を推定することもできる。   In the above embodiment, the feature amount is extracted using the spatial filter obtained by the CSSD method and the tooth contact state is estimated. However, the present invention is not limited to such an embodiment. It is also possible to filter the electroencephalogram signal measured from the electrodes in a specific frequency band, and use this as a feature value to directly estimate the contact state of the teeth using a separator such as an artificial neural network or SVM. .

さらに上記実施の形態では、空間フィルタの係数を求めるためにCSSD法を利用したが、本発明はそのような実施の形態には限定されず、2つのタスクの脳波を最適に分離できる軸を抽出することが可能であればどのような方法を用いてもよい。   Further, in the above embodiment, the CSSD method is used to obtain the coefficient of the spatial filter. However, the present invention is not limited to such an embodiment, and an axis that can optimally separate the brain waves of two tasks is extracted. Any method may be used as long as it is possible.

また、複数チャンネルで測定された脳波信号を周波数領域に変換した後に、各チャンネルのパワーを比較して歯の接触状態を推定する方法を採用することもできる。   Further, after converting the electroencephalogram signals measured in a plurality of channels into the frequency domain, it is possible to employ a method of comparing the power of each channel and estimating the contact state of the teeth.

今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。   The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each claim of the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are included. Including.

20 利用者
22 頭部電極カバー
24 ロボットコントローラ
26 ロボット
60 電極
62 A/D変換器
64,66 BPF
68 PC
72 無線通信装置
120 CPU
20 User 22 Head electrode cover 24 Robot controller 26 Robot 60 Electrode 62 A / D converter 64, 66 BPF
68 PC
72 Wireless communication device 120 CPU

Claims (8)

利用者の頭皮上の複数箇所においてそれぞれ得られた、利用者の脳の活動を検出する複数チャンネルの脳波信号から利用者の歯の動きを推定し、推定された歯の動きにしたがって対象機器を制御するコマンドを生成するための機器制御装置であって、
上記複数チャンネルの信号の各々から、利用者の歯の動きにより誘発された所定の周波数帯域の成分を抽出するためのフィルタ手段と、
前記フィルタ手段により抽出された、前記複数チャンネルの信号の周波数帯域の成分から、予め定める特徴量のパターンを算出するための特徴量算出手段と、
前記特徴量算出手段から特徴量のパターンが与えられると、当該特徴量に応じて前記利用者の歯の動きを示す出力が得られるように予め学習済のパターン分類手段と、
前記パターン分類手段の出力に応じて予め定められているコマンドを生成して前記対象機器に与えるためのコマンド生成手段とを含む、機器制御装置。
Estimate the user's tooth movement from multiple channels of EEG signals that detect the user's brain activity obtained at multiple locations on the user's scalp, and select the target device according to the estimated tooth movement. A device control device for generating a command to be controlled,
Filter means for extracting a component of a predetermined frequency band induced by the movement of the user's teeth from each of the signals of the plurality of channels;
Feature quantity calculation means for calculating a predetermined feature quantity pattern from the frequency band components of the signals of the plurality of channels extracted by the filter means;
Given a feature amount pattern from the feature amount calculation means, a pattern classification means that has been learned in advance so as to obtain an output indicating the movement of the user's teeth according to the feature amount;
A device control device including command generation means for generating a predetermined command according to an output of the pattern classification means and giving the command to the target device.
前記パターン分類手段は、
歯の接触状態を、予め定められた複数通りのうちの一つとなるように維持したときに前記利用者から得られた前記特徴量のパターンによって予め学習済のパターン分類器を含む、請求項1に記載の機器制御装置。
The pattern classification means includes
A pattern classifier that has been learned in advance according to the pattern of the feature amount obtained from the user when the contact state of the teeth is maintained to be one of a plurality of predetermined ones. The apparatus control apparatus as described in.
前記パターン分類器は、サポートベクターマシン(SVM)を含む、請求項2に記載の機器制御装置。 The apparatus control apparatus according to claim 2, wherein the pattern classifier includes a support vector machine (SVM). 前記フィルタ手段は、前記複数チャンネル信号の各々から、0.5Hz以上、500Hz以下の帯域内の任意の帯域成分を抽出するバンドパスフィルタを含む、請求項1−請求項3のいずれかに記載の機器制御装置。 The said filter means contains the band pass filter which extracts the arbitrary band components in the band of 0.5 Hz or more and 500 Hz or less from each of the said multiple channel signal. Equipment control device. 前記バンドパスフィルタは、前記複数チャンネル信号の各々から、50Hz以上、250Hz以下の帯域成分のみを抽出するバンドパスフィルタを含む、請求項4に記載の機器制御装置。 The device control apparatus according to claim 4, wherein the band-pass filter includes a band-pass filter that extracts only a band component of 50 Hz or more and 250 Hz or less from each of the plurality of channel signals. 前記複数チャンネルの信号は、前記利用者の頭皮上の前部、及び両即頭部に配置された電極から得られる、請求項1−請求項5のいずれかに記載の機器制御装置。 The apparatus control device according to claim 1, wherein the signals of the plurality of channels are obtained from an electrode disposed on a front part of the user's scalp and both immediate heads. 前記特徴量算出手段は、
前記複数チャンネルの信号の周波数帯域成分を所定長のフレームに分割するためのフレーム化手段と、
前記各チャンネルの各フレームから所定の第1の特徴量を抽出するための特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記第1の特徴量を変換し、脳の活動の異なる状態から得られる特徴量の分散の比が最大となるようにするための特徴量変換手段とを含む、請求項1−請求項6のいずれかに記載の機器制御装置。
The feature amount calculating means includes:
Framing means for dividing the frequency band components of the signals of the plurality of channels into frames of a predetermined length;
Feature quantity extraction means for extracting a predetermined first feature quantity from each frame of each channel;
And a feature value conversion means for converting the first feature value extracted by the feature value extraction means so that a ratio of variance of feature values obtained from different states of brain activity is maximized. The apparatus control apparatus in any one of Claims 1-6.
利用者の頭皮上の複数箇所においてそれぞれ得られた、利用者の脳の活動を検出する複数チャンネルの脳波信号から利用者の歯の動きを推定し、推定された歯の動きにしたがって対象機器を制御するコマンドを生成する機器制御方法であって、
前記利用者の頭皮上の前記複数箇所に電極を配置し、前記利用者の脳の活動を検出する複数チャンネルの信号を生成するステップと、
前記複数チャンネルの信号の各々から、利用者の歯の動きにより誘発された所定の周波数帯域の成分を抽出するステップと、
前記抽出するステップにより抽出された、前記複数チャンネルの信号の周波数帯域の成分から、予め定める特徴量のパターンを算出するステップと、
特徴量のパターンが与えられると、当該特徴量に応じて前記利用者の歯の動きを示す出力が得られるように予め学習済のパターン分類手段に、前記パターンを算出するステップにおいて得られた前記特徴量のパターンを与えてその分類結果の出力を受けるステップと、
前記パターン分類手段の出力に応じて予め定められているコマンドを生成して前記対象機器に与えるステップとを含む、機器制御方法。
Estimate the user's tooth movement from multiple channels of EEG signals that detect the user's brain activity obtained at multiple locations on the user's scalp, and select the target device according to the estimated tooth movement. A device control method for generating a command to be controlled,
Arranging electrodes at the plurality of locations on the user's scalp to generate a plurality of channels of signals for detecting the activity of the user's brain;
Extracting a component of a predetermined frequency band induced by the movement of the user's teeth from each of the signals of the plurality of channels;
Calculating a predetermined feature amount pattern from the frequency band components of the signals of the plurality of channels extracted by the extracting step;
Given a pattern of feature amounts, the pattern classification means that has been learned in advance so as to obtain an output indicating the movement of the user's teeth according to the feature amount, the pattern obtained in the step of calculating the pattern Providing a pattern of feature values and receiving the output of the classification results;
And a step of generating a predetermined command according to the output of the pattern classification means and giving the command to the target device.
JP2009224097A 2009-09-29 2009-09-29 Method and device for controlling equipment using brain wave induced by contact of teeth Pending JP2011076177A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009224097A JP2011076177A (en) 2009-09-29 2009-09-29 Method and device for controlling equipment using brain wave induced by contact of teeth

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009224097A JP2011076177A (en) 2009-09-29 2009-09-29 Method and device for controlling equipment using brain wave induced by contact of teeth

Publications (1)

Publication Number Publication Date
JP2011076177A true JP2011076177A (en) 2011-04-14

Family

ID=44020130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009224097A Pending JP2011076177A (en) 2009-09-29 2009-09-29 Method and device for controlling equipment using brain wave induced by contact of teeth

Country Status (1)

Country Link
JP (1) JP2011076177A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117957A (en) * 2011-11-30 2013-06-13 Honeywell Internatl Inc Thinkable hands-free control over multiple-freedom-degree system
CN103885445A (en) * 2014-03-20 2014-06-25 浙江大学 Brain-controlling animal robot system and brain-controlling method of animal robot
JP2016067922A (en) * 2014-09-25 2016-05-09 エスエヌユー アールアンドディービー ファウンデーション Brain-machine interface device and method
JP2017202183A (en) * 2016-05-12 2017-11-16 株式会社国際電気通信基礎技術研究所 Electroencephalogram pattern classification device, electroencephalogram pattern classification method, electroencephalogram pattern classification program, and neuro-feedback system
WO2019073603A1 (en) * 2017-10-13 2019-04-18 マクセル株式会社 Display device, brain wave interface device, heads-up display system, projector system, and method for display of visual stimulus signal
JP2019147214A (en) * 2018-02-27 2019-09-05 株式会社国際電気通信基礎技術研究所 Control device, control system, control program, and control method
CN111420215A (en) * 2020-04-22 2020-07-17 厦门萤火相连教育科技有限公司 Method for exercising personal concentration ability through brain wave acquisition equipment
CN112036229A (en) * 2020-06-24 2020-12-04 宿州小马电子商务有限公司 Intelligent bassinet electroencephalogram signal channel configuration method with demand sensing function
CN115328228A (en) * 2022-10-13 2022-11-11 新乡市合力鑫电源有限公司 High-frequency switching power supply
CN116994070A (en) * 2023-09-25 2023-11-03 四川大学 Tooth image processing method and device based on measurable subspace dynamic classifier

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117957A (en) * 2011-11-30 2013-06-13 Honeywell Internatl Inc Thinkable hands-free control over multiple-freedom-degree system
CN103885445A (en) * 2014-03-20 2014-06-25 浙江大学 Brain-controlling animal robot system and brain-controlling method of animal robot
CN103885445B (en) * 2014-03-20 2016-05-11 浙江大学 The brain control method of a kind of brain control animal robot system and animal robot
JP2016067922A (en) * 2014-09-25 2016-05-09 エスエヌユー アールアンドディービー ファウンデーション Brain-machine interface device and method
JP2017202183A (en) * 2016-05-12 2017-11-16 株式会社国際電気通信基礎技術研究所 Electroencephalogram pattern classification device, electroencephalogram pattern classification method, electroencephalogram pattern classification program, and neuro-feedback system
WO2019073603A1 (en) * 2017-10-13 2019-04-18 マクセル株式会社 Display device, brain wave interface device, heads-up display system, projector system, and method for display of visual stimulus signal
JP2019147214A (en) * 2018-02-27 2019-09-05 株式会社国際電気通信基礎技術研究所 Control device, control system, control program, and control method
CN111420215A (en) * 2020-04-22 2020-07-17 厦门萤火相连教育科技有限公司 Method for exercising personal concentration ability through brain wave acquisition equipment
CN112036229A (en) * 2020-06-24 2020-12-04 宿州小马电子商务有限公司 Intelligent bassinet electroencephalogram signal channel configuration method with demand sensing function
CN112036229B (en) * 2020-06-24 2024-04-19 宿州小马电子商务有限公司 Intelligent bassinet electroencephalogram signal channel configuration method with demand sensing function
CN115328228A (en) * 2022-10-13 2022-11-11 新乡市合力鑫电源有限公司 High-frequency switching power supply
CN116994070A (en) * 2023-09-25 2023-11-03 四川大学 Tooth image processing method and device based on measurable subspace dynamic classifier
CN116994070B (en) * 2023-09-25 2023-12-01 四川大学 Tooth image processing method and device based on measurable subspace dynamic classifier

Similar Documents

Publication Publication Date Title
JP2011076177A (en) Method and device for controlling equipment using brain wave induced by contact of teeth
CN112353407B (en) Evaluation system and method based on active training of neurological rehabilitation
Mullen et al. Real-time modeling and 3D visualization of source dynamics and connectivity using wearable EEG
US20070179396A1 (en) Method and System for Detecting and Classifying Facial Muscle Movements
McFarland et al. BCI meeting 2005-workshop on BCI signal processing: feature extraction and translation
US6546378B1 (en) Signal interpretation engine
JP6759496B2 (en) EEG pattern classification device, EEG pattern classification method, EEG pattern classification program and neurofeedback system
Hung et al. Recognition of motor imagery electroencephalography using independent component analysis and machine classifiers
Bascil et al. Spectral feature extraction of EEG signals and pattern recognition during mental tasks of 2-D cursor movements for BCI using SVM and ANN
CN106345034A (en) Device based on brain electricity acquisition terminal for cognitive emotion regulation
Hsu Application of quantum-behaved particle swarm optimization to motor imagery EEG classification
Lin et al. Development of a wearable motor-imagery-based brain–computer interface
Yamawaki et al. An enhanced time-frequency-spatial approach for motor imagery classification
Birch et al. Brain-computer interface research at the Neil Squire Foundation
Ahmed Wheelchair movement control VIA human eye blinks
CN104571505B (en) A kind of brain-machine interface method that limbs Imaginary Movement is combined based on sequentiality
JP2012146116A (en) Device and method for identifying speech content
AU2013100576A4 (en) Human Identification with Electroencephalogram (EEG) for the Future Network Security
CN114298089A (en) Multi-mode strength training assisting method and system
Feng et al. Feature extraction algorithm based on csp and wavelet packet for motor imagery eeg signals
CN116312951B (en) Exercise function assessment method and system based on multi-modal coupling analysis
US20200345287A1 (en) Mental fitness assessment systems and methods using physiologic signal inputs
Ahmed et al. Effective hybrid method for the detection and rejection of electrooculogram (EOG) and power line noise artefacts from electroencephalogram (EEG) mixtures
CN115407872B (en) Evaluation method, device and storage medium for intelligent man-machine cooperative system
Zhao et al. Temporal and Spatial Features of Single‐Trial EEG for Brain‐Computer Interface