JP2021089544A - 情報処理システム及びプログラム - Google Patents
情報処理システム及びプログラム Download PDFInfo
- Publication number
- JP2021089544A JP2021089544A JP2019219153A JP2019219153A JP2021089544A JP 2021089544 A JP2021089544 A JP 2021089544A JP 2019219153 A JP2019219153 A JP 2019219153A JP 2019219153 A JP2019219153 A JP 2019219153A JP 2021089544 A JP2021089544 A JP 2021089544A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- content
- brain wave
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 40
- 210000004556 brain Anatomy 0.000 claims abstract description 167
- 230000008921 facial expression Effects 0.000 claims description 7
- 238000005259 measurement Methods 0.000 description 59
- 210000001508 eye Anatomy 0.000 description 55
- 238000010801 machine learning Methods 0.000 description 49
- 238000010586 diagram Methods 0.000 description 32
- 210000003205 muscle Anatomy 0.000 description 28
- 230000006870 function Effects 0.000 description 27
- 238000000034 method Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 26
- 230000003595 spectral effect Effects 0.000 description 26
- 230000004397 blinking Effects 0.000 description 24
- 230000008859 change Effects 0.000 description 16
- 210000003296 saliva Anatomy 0.000 description 16
- 210000000613 ear canal Anatomy 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 238000002474 experimental method Methods 0.000 description 12
- 239000004065 semiconductor Substances 0.000 description 12
- 210000003128 head Anatomy 0.000 description 11
- 238000012360 testing method Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 239000000523 sample Substances 0.000 description 8
- 230000009747 swallowing Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 210000001061 forehead Anatomy 0.000 description 6
- 241000167880 Hirundinidae Species 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 210000000624 ear auricle Anatomy 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000012212 insulator Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000017531 blood circulation Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 3
- 210000001097 facial muscle Anatomy 0.000 description 3
- 229940028444 muse Drugs 0.000 description 3
- GMVPRGQOIOIIMI-DWKJAMRDSA-N prostaglandin E1 Chemical compound CCCCC[C@H](O)\C=C\[C@H]1[C@H](O)CC(=O)[C@@H]1CCCCCCC(O)=O GMVPRGQOIOIIMI-DWKJAMRDSA-N 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 210000000883 ear external Anatomy 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 229910052744 lithium Inorganic materials 0.000 description 2
- 210000003784 masticatory muscle Anatomy 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000018984 mastication Effects 0.000 description 1
- 238000010077 mastication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0004—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
- A61B5/0006—ECG or EEG signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6813—Specially adapted to be attached to a specific body part
- A61B5/6814—Head
- A61B5/6815—Ear
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/026—Measuring blood flow
- A61B5/0261—Measuring blood flow using optical means, e.g. infrared light
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/242—Detecting biomagnetic fields, e.g. magnetic fields produced by bioelectric currents
- A61B5/245—Detecting biomagnetic fields, e.g. magnetic fields produced by bioelectric currents specially adapted for magnetoencephalographic [MEG] signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/372—Analysis of electroencephalograms
- A61B5/374—Detecting the frequency distribution of signals, e.g. detecting delta, theta, alpha, beta or gamma waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
- A61B5/7207—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Abstract
Description
請求項2に記載の発明は、前記生体情報は、ユーザの頭部に接触する電極で測定される、請求項1に記載の情報処理システムである。
請求項3に記載の発明は、前記生体情報は耳部に接触する電極で測定される、請求項2に記載の情報処理システムである。
請求項4に記載の発明は、前記プロセッサは、前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値より低い間、前記生体情報の特徴に応じて特定される操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システムである。
請求項5に記載の発明は、前記プロセッサは、前記生体情報の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第2の閾値より低い場合、前記プロセッサは、ユーザの音声による指示を前記機器の操作に使用する、請求項4に記載の情報処理システムである。
請求項6に記載の発明は、前記プロセッサは、前記脳波の特徴と、前記生体情報の特徴と、ユーザが実際に行った操作の結果とを教師データとして学習された学習済みモデルを使用し、前記機器を操作する指示を決定する、請求項1に記載の情報処理システムである。
請求項7に記載の発明は、前記学習済みモデルは、ユーザ別に生成される、請求項6に記載の情報処理システムである。
請求項8に記載の発明は、ユーザが実際に行った前記操作の結果には、ユーザの音声による指示が使用される、請求項6に記載の情報処理システムである。
請求項9に記載の発明は、前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値より低い場合、又は、前記生体情報の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第2の閾値より低い場合、前記プロセッサは、ユーザの音声による指示を前記機器の操作に使用する、請求項6に記載の情報処理システムである。
請求項10に記載の発明は、前記生体情報の特徴は、ユーザによる意図的な身体の動きに由来する、請求項1〜9のうちいずれか1項に記載の情報処理システムである。
請求項11に記載の発明は、前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値を超えた場合、前記プロセッサは、当該脳波の特徴に応じて定まる操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システムである。
請求項12に記載の発明は、前記脳波の特徴と前記生体情報の特徴が共起する確率が予め定めた第3の閾値を超えた状態で、当該生体情報に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第4の閾値を超えた場合、前記プロセッサは、当該脳波の特徴に応じて定まる操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システムである。
請求項13に記載の発明は、前記脳波の特徴は、非接触に測定される、請求項1に記載の情報処理システムである。
請求項14に記載の発明は、前記生体情報の特徴は、ユーザの表情に関する情報である、請求項13に記載の情報処理システムである。
請求項15に記載の発明は、前記生体情報の特徴は、ユーザの視線の方向に関する情報である、請求項13に記載の情報処理システムである。
請求項16に記載の発明は、請求項1に記載の情報処理システムは、ユーザが装着して使用するデバイスである。
請求項17に記載の発明は、請求項1に記載の情報処理システムは、ユーザが装着するデバイスと通信可能に接続されたコンピュータである。
請求項18に記載の発明は、コンピュータに、ユーザの脳波の特徴と、当該脳波を検出しているときに検出される、当該脳波とは異なる生体情報の特徴を検出する機能と、前記脳波の特徴と前記生体情報の特徴の組み合わせに応じて操作を決定する機能とを実行させるプログラムである。
請求項2記載の発明によれば、電気信号として測定可能な生体情報を用いて操作の精度を高めることができる。
請求項3記載の発明によれば、測定に用いる機器の装着についてユーザの抵抗感を低減できる。
請求項4記載の発明によれば、脳波だけを用いる場合に比して、機器の操作の精度を向上できる。
請求項5記載の発明によれば、生体情報の特徴の精度が低い場合にも、機器の操作の精度を向上できる。
請求項6記載の発明によれば、学習を繰り返すことで、機器の操作の精度を向上できる。
請求項7記載の発明によれば、汎用的な学習済みモデルを用いる場合に比して、機器の操作の精度を向上できる。
請求項8記載の発明によれば、操作の対象である機器から操作の結果を収集できない場合にも、機器の操作の精度を向上できる。
請求項9記載の発明によれば、一致率が低い間は、ユーザの音声の指示を優先し、操作信号の精度の低下を回避できる。
請求項10記載の発明によれば、意図的に身体の動きを組み合わせることで機器の操作の精度を向上できる。
請求項11記載の発明によれば、一致率が高くなった後は脳波だけで操作できる。
請求項12記載の発明によれば、一致率が高くなった後は脳波だけで操作できる。
請求項13記載の発明によれば、非接触に脳波が測定される場合にも、機器の操作の精度を向上できる。
請求項14記載の発明によれば、音声を用いなくても、機器の操作の精度を向上できる。
請求項15記載の発明によれば、音声を用いなくても、機器の操作の精度を向上できる。
請求項16記載の発明によれば、通信状況が悪い場所でも使用できる。
請求項17記載の発明によれば、装置構成の制約を少なくできる。
請求項18記載の発明によれば、脳波だけを用いる場合に比して、機器の操作の精度を向上できる。
<実施の形態1>
<システム構成>
図1は、実施の形態1で使用する脳波操作システム1の概略構成を示す図である。
図1に示す脳波操作システム1は、外耳孔を塞ぐように装着されるイヤホン10と、イヤホン10と無線で接続される情報端末20と、ユーザが操作の対象とする機器(以下「操作対象機器」という)30とで構成されている。
本実施の形態におけるイヤホン10と情報端末20は、情報処理システムの一例である。
本実施の形態で使用するイヤホン10は、ワイヤレス型のデバイスである。このため、イヤホン10は、無線通信により、情報端末20と接続される。
本実施の形態では、イヤホン10と情報端末20との無線接続にブルートゥース(登録商標)を使用する。なお、無線接続には、WiFi(登録商標)その他の通信規格を用いることも可能である。もっとも、イヤホン10と情報端末20をケーブルで接続することも可能である。
図1の場合、ユーザが念じた「電源オン」に対応する操作信号を操作対象機器30に送信している。操作対象機器30への操作信号の送信には、赤外線の使用の他、LPWA(=Low Power Wide Area)等の既存の通信方式の使用も可能である。LPWAは、IoT通信に使用される通信方式の一例である。
図1の場合、操作対象機器30は、ユーザの念じた「電源オン」に対応する操作信号を情報端末20から受信する。
脳波を用いるインタフェースの普及を考える場合、脳波を計測していることが明らかなデバイスの装着は、ユーザの支持を受けられない可能性がある。例えばヘルメット型のデバイスは、デザイン性の観点からも、身体への負担の観点からもユーザの支持を得られない可能性がある。
以上の理由に鑑み、本実施の形態では、脳波を測定するデバイスとしてイヤホン10を使用する。イヤホン10は、いわゆるオーディオ機器として普及しているため、その装着に対する心理的な抵抗は少ないと考えられる。
この他、イヤホン10には、不図示のスピーカが内蔵されるため、ユーザに対する情報の伝達にも都合がよい。
加えて、イヤホン10が装着される耳部は、ユーザの口にも近く、ユーザの発する声の検出にも好都合である。
図2は、実施の形態1で使用するイヤホン10の外観構成の一例を説明する図である。
イヤホン10は、外耳孔に挿入されるイヤホンチップ11R及び11Lと、イヤホンチップ11R及び11Lが取り付けられるイヤホン本体12R及び12Lと、耳介と側頭との隙間に装着されるイヤーフック13R及び13Lと、イヤホン本体12R及び12Lを接続するケーブル14と、電源ボタンやボリュームボタンが配置されたコントローラ15とで構成されている。
図中のRはユーザの右耳側に位置することを示し、Lはユーザの左耳側に位置することを示す。
本実施の形態における電極11R1と電極11R2は、いずれも導電性ゴムで構成される。皮膚に現れる電気信号を測定するためである。なお、電極11R1と電極11R2とは、絶縁体により電気的に分離されている。
なお、電極11R2は、接地電極(以下「GND端子」ともいう)である。
後述するように、本実施の形態の場合、脳波と脳波以外の生体情報を含む電位変動は、電極11R1と電極11L1で測定された電気信号の差分信号として測定される。
以下では、脳波と脳波以外の生体情報を含む電位変動を総称する場合、「脳波等の生体情報」という。
アーチファクトに含まれる成分は、生体に由来する成分、電極等の測定系に由来する成分、外部の機会や環境に由来する成分に分類される。これら3つの成分のうち生体に由来する成分以外は、イヤホン10で測定される雑音として測定することが可能である。雑音は、電極11R1と電極11L1を電気的に短絡した状態における電気信号として測定することが可能である。
一方、イヤホン本体12Lには、バッテリが内蔵されている。
図3には、イヤホン10のうちイヤホン本体12R及び12Lの内部構成が表されている。
本実施の形態の場合、イヤホン本体12Rは、デジタル脳波計121と、マイク122と、スピーカ123と、6軸センサ124と、ブルートゥースモジュール125と、半導体メモリ126と、MPU(=Micro Processing Unit)127を有している。
マイク122は、ユーザが発する音声で振動する振動板と、振動板の振動を電気信号に変換するボイスコイルと、電気信号を増幅するアンプとを含んでいる。なお、アンプから出力される電気信号のアナログ電位をデジタル値に変換するアナログ/デジタル変換回路が別途用意される。
6軸センサ124は、3軸の加速度センサと3軸のジャイロセンサで構成される。6軸センサ124は、ユーザの姿勢の検知に用いられる。
ブルートゥースモジュール125は、情報端末20(図1参照)との間でデータを送受信するために用いられる。本実施の形態の場合、ブルートゥースモジュール125は、デジタル脳波計121が出力するデジタル信号やマイク122で取得されたオーディオデータの情報端末20への送信に用いられる他、情報端末20からのオーディオデータの受信にも用いられる。
本実施の形態の場合、フラッシュメモリは、デジタル脳波計121の出力であるデジタル信号の記憶、マイク122で取得されたオーディオデータの記憶、情報端末20から受信されたオーディオデータの記憶等に用いられる。
一方、イヤホン本体12Lには、リチウムバッテリ128が内蔵されている。
図4は、実施の形態1で使用する情報端末20の内部構成の一例を示す図である。
なお、図4では、情報端末20を構成するデバイスのうち、脳波等の生体情報から操作対象機器30(図1参照)を操作する操作信号の生成に関連するデバイスを抜き出して表している。
図4に示す情報端末20は、ブルートゥースモジュール201と、MPU202と、半導体メモリ203と、ワイヤレスIoTモジュール204とを有している。
MPU202は、イヤホン10(図1参照)より受信されたデジタル信号から脳波の情報(以下「脳波情報」という)と脳波以外の生体情報とを取得し、操作対象機器30(図1参照)に対する操作の内容を推定する機能を実行する。ここでの機能はアプリケーションプログラムの実行を通じて実現される。
図4に示すMPU202は、イヤホン10より受信されたデジタル信号から脳波情報の特徴を取得する脳波情報取得部221と、イヤホン10より受信されたデジタル信号から脳波以外の生体情報の特徴を取得する生体情報取得部222と、脳波情報の特徴と脳波以外の生体情報の特徴との組み合わせに応じて操作対象機器30に対する指示の内容を推定する操作内容推定部223として機能する。
本実施の形態において、ユーザがある操作を念じながら、意図的に動かした頭部の筋肉の動きに起因する電位変動を取得するのは、以下の理由による。
また、特定の操作を念じること自体は容易でも、操作の内容に応じた特定の脳波を意図的に発生させることは必ずしも容易ではない。しかも、その脳波を高い再現性で出力できるようになるには、訓練が必要とされる。さらに、任意のユーザが共通の脳波を再現することの困難性も指摘されている。
一方で、ユーザが特定の筋肉を意図的に動かすことは、特定の脳波を出力することに比して格段に容易である。すなわち、特定の生体情報の特徴を出現させることは、ユーザにとってハードルが低いと考えられる。
そこで、本実施の形態では、ユーザが意図的に動かすことが可能な頭部の筋肉の動きに起因して出現する電気信号を生体情報の特徴として取得し、取得された特徴により脳波情報の特徴を補完することを考える。
このため、ユーザが特定の操作を念じている間に出現する脳波情報の特徴と並行に、脳波以外の生体情報の特徴を取得することも可能である。
本実施の形態における操作内容推定部223は、脳波情報の特徴と脳波以外の生体情報の特徴のそれぞれについて用意されている対応関係テーブルの参照により各特徴に対応する操作の内容を推定し、予め定めた規則に基づいて特定した操作の内容を操作信号としてワイヤレスIoTモジュール204に出力する。
予め定めた規則に基づいて操作の内容を特定する方法には、幾つかの方法がある。
例えば脳波情報の特徴から操作の内容を推定できた場合、推定された操作の内容を脳波以外の生体情報の特徴から推定される操作の内容に優先する方法がある。
また、操作信号を操作対象機器30(図1参照)に出力する前に、脳波情報の特徴から推定された操作の内容の正誤をユーザに確認する方法もある。
図6は、実施の形態1で使用する対応関係テーブル231及び232の例を説明する図である。(A)は脳波情報の特徴用の対応関係テーブル231を示し、(B)は脳波以外の生体情報の特徴用の対応関係テーブル232を示す。
対応関係テーブル231には、管理番号と、脳波情報の特徴と、対応する操作の内容とが記憶されている。
図6の場合、特徴AAには電源オンが対応付けられ、特徴ABには電源オフが対応付けられている。なお、操作の内容には、操作の対象である操作対象機器30を特定する情報も含まれる。
図6の場合、特徴#102には電源オンが対応付けられ、特徴#103には電源オフが対応付けられている。例えば唾液を1回飲み込む場合に出現する特徴を電源オンに対応付け、唾液を2回飲み込む場合に出現する特徴を電源オフに対応付ける。ここでの操作の内容にも、操作の対象である操作対象機器30を特定する情報が含まれる。
本実施の形態の場合、対応関係テーブル232に記憶される対応関係は予め与えられているが、ユーザが新たな対応関係を登録することも可能である。
なお、半導体メモリ203は、対応関係テーブル231及び232以外にも、BIOSが記憶されたROMと、ワークエリアとして用いられるRAMと、フラッシュメモリも含む。
図4の説明に戻る。
本実施の形態の場合、ワイヤレスIoTモジュール204は、LPWA等の通信規格に基づいて操作信号を送信する。
以下では、情報端末20(図1参照)が、MPU202(図4参照)によるプログラムの実行を通じて実現する処理動作の一例を説明する。
処理動作1では、脳波情報の特徴に基づく操作の実行前にユーザに操作の内容を確認しない場合について説明する。
図7は、脳波情報を含むデジタル信号を受信した情報端末20が実行する処理動作の一例を説明するフローチャートである。なお、図中のSはステップを意味する。
本実施の形態では、脳波情報を含むデジタル情報はイヤホン10(図1参照)から情報端末20に送信されている。また、操作対象機器30(図1参照)の操作を念じるユーザは、特定の操作を念じるのと並行して、同操作に対応する特定の顎の動きを実行する。
続いて、MPU202は、脳波情報の特徴が対応関係テーブル231(図6参照)にあるか否かを判定する(ステップ2)。
ステップ2で肯定結果が得られた場合、MPU202は、脳波情報の特徴に対応する操作の内容を送信する(ステップ3)。
ステップ4で肯定結果が得られた場合、MPU202は、生体情報の特徴に対応する操作の内容を送信する(ステップ5)。
一方、ステップ4で否定結果が得られた場合、MPU202は、そのまま処理を終了する。この場合、ユーザは、操作対象機器30の動作に変化がないことを通じ、操作に失敗したことに気づく。
なお、ステップ4で否定結果が得られた場合には、操作の内容を特定できなかったことをユーザに通知してもよい。ユーザへの通知には、例えば情報端末20(図1参照)の表示画面へのメッセージの表示やイヤホン10に設けられたスピーカ123(図3参照)からのメッセージの出力を用いる。
一方で、脳波による操作への慣れにより、意図的に特定の脳波で再現できるようになると、ユーザは、意図的に顎等の筋肉を動かさなくても、操作対象機器30を操作することが可能になる。
処理動作1は、脳波情報取得部221(図4参照)で取得された脳波情報の特徴が対応関係テーブル231(図6参照)で見つかった場合には、見つかった特徴と念じた操作の内容との一致を仮定している。
しかし、脳波による操作に不慣れなユーザの場合、念じた操作の内容と出現する脳波情報の特徴とが一致するとは限らない。このため、操作対象機器30が意図せぬ動作を実行する可能性がある。
図8は、脳波情報を含むデジタル信号を受信した情報端末20(図1参照)が実行する処理動作の他の一例を説明するフローチャートである。図8には、図7との対応部分に対応する符号を付して示す。
続いて、MPU202は、脳波情報の特徴が対応関係テーブル231にあるか否かを判定する(ステップ2)。
ステップ2で肯定結果が得られた場合、MPU202は、脳波情報の特徴に対応する操作の内容の正誤をユーザに問い合わせる(ステップ11)。ここでの問い合わせには、情報端末20の不図示の表示画面へのメッセージの表示やイヤホン10に設けられたスピーカ123(図3参照)からのメッセージの出力を用いる。例えば「電源オンでいいですか?」等をユーザに問い合わせる。
もっとも、いわゆるスマートスピーカのように音声による回答も可能である。ユーザによる「はい」又は「いいえ」の回答は、イヤホン10に設けられたマイク122(図3参照)で取得された後、オーディオデータとして情報端末20に送信される。MPU202は、受信された音声による回答を解析し、脳波情報の特徴に対応付けられている操作の内容を使用するか否かを判定する。
ステップ12で否定結果が得られた場合、又は、前述したステップ2で否定結果が得られた場合、MPU202は、脳波以外の生体情報の特徴が対応関係テーブル232にあるか否かを判定する(ステップ4)。ここでの生体情報の特徴は、ステップ1で取得された特徴である。
ステップ4で肯定結果が得られた場合、MPU202は、生体情報の特徴に対応する操作の内容を送信する(ステップ5)。
一方、ステップ4で否定結果が得られた場合、MPU202は、そのまま処理を終了する。
この処理動作2は、ユーザによる脳波情報の特徴の再現性が低い期間でも操作の精度の向上が期待される。
なお、本実施の形態では、対応関係テーブル231を用いているが、後述する実施の形態で説明するように、入力された特徴に対応する操作の内容を出力する関係を記憶した学習済みモデルを使用することも可能である。
以下では、イヤホン10(図2参照)により、ユーザの脳波情報の取得が可能であることを、第三者による実験の結果や出願人による実験の結果を通じて説明する。
図9は、イヤホン10を装着した状態で、脳波の測定が可能な脳波センサ付きヘッドセット40の測定点を説明する図である。
今回の実験では、脳波センサ付きヘッドセット40として、市場で入手が可能なNeuroSky社のMindWaveを使用した。
前述したように、イヤホン10は外耳孔を脳波の測定点として使用するのに対し、NeuroSky社のMindWaveは、額40Aを脳波の測定点とする。
図9に示す額40Aは、脳波の測定に使用する電極配置の国際標準として推奨されている10−20法で定める21個の配置のうちのFp1に相当する。
なお、この論文は、USデューク大学のPh.DシニアサイエンティストDimiter Dimitrovと、イタリアミラノ工科大学Ph.Dイタリア国立研究評議会(CNR)のMarta Parazziniにより査読掲載されている。
図10は、論文に掲載されている脳波の計測点を示す図である。
図10に示すB-AlertとEnobioは、ヨーロッパと米国で医療認定を得ているEEGシステムの名称である。また、MuseとMindWaveは、消費者向けのEEGシステムの名称である。
また、論文の結論の項には、MindWaveのFp1で測定されるパワースペクトルは、医療認定されているEEGシステムであるB-Alert及びEnobioと再現テストの結果も含めてほぼ同じであり、α波のピークも捉えられたことが記載されている。なお、MindWaveで測定される脳波には、瞬きと開眼中の動きがノイズとして乗ることも記載されている。ちなみに、Museの信頼性が低い理由として、アーチファクトの影響の可能性が指摘されている。
以下では、被験者に、イヤホン10(図9参照)とMindWaveの両方を装着し、脳波を測定する実験を行った結果について説明する。
図9に示したように、イヤホン10は外耳孔を測定点とし、MindWaveは額40Aを測定点とする。
なお、実際の被験者は83名であったが、25名の測定の結果には開眼時のアーチファクトの影響が過大であったため除外した。
メディテーション上昇テストでは、被験者に対し、閉眼状態で30秒間の瞑想をお願いした。このテストは、閉眼時のα波の出力評価に相当する。換言すると、リラックス状態におけるα波の増加比率を捉えることを目的とする。
α波の出力の評価は、30秒間の開眼状態の後に30秒間の閉眼状態を2セット繰り返し、閉眼状態におけるα波の上昇を確認するのが一般的である。
ただし、今回の実験では、一度に多くのデータを収集するためにセットの回数を増やして行った。
図11は、α波の出力評価を説明する図である。図11に示すように、脳波の生データは、主にδ波、θ波、α波、β波、γ波に分類が可能である。
脳波は、人の動作による再現性が小さく、臨床データによる取得性能の再現性の評価が難しいとされるが、その中でも、α波は、開眼と閉眼の差で出現され易いとされている。
いずれの波も、開眼状態においては一様に出現し易い一方、α波以外の波は閉眼状態において一様に減衰するといわれる。すなわち、α波は、閉眼状態においても比較的影響を受けることなく出現するといわれる。
実験では、α波強度比Tαを、全周波数帯のスペクトル強度の和(すなわちΣSn)に対するα波帯のスペクトル強度Sαの比(=Sα/ΣSn)として定義し、開眼状態から閉眼状態への変化でα波強度比Tαが増加したか否かを確認した。
α波強度比Tαの増加が確認されれば、脳波の測定の証拠になる。
図12は、MindWaveによる測定結果を説明する図である。(A)は瞬き無しで開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果であり、(B)は瞬き有りで開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果である。
図13は、実施の形態で使用するイヤホン10(図2参照)による測定結果を説明する図である。(A)は瞬き無しで開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果であり、(B)は瞬き有りで更に顎の動きを加えて開眼状態と閉眼状態の切り替えを2セット行った場合の測定結果である。
一方、瞬きがある場合、MindWaveによる測定結果には、瞬きの影響を受けたアーチファクトが顕著に出現した。その理由は、MindWaveが測定に用いる額が目に近く、開眼時における瞬きが大きなアーチファクトとして検出され易いためと考えられる。このことは、前述したElena Ratti等の論文でも指摘されている。
なお、瞬きに伴い検出されるアーチファクトには、瞼の動きに伴い発生する生体由来の電位の変動だけでなく、瞼を動かそうとする脳波由来の電位の変動が含まれている。
ただし、唾液を飲み込む顎の動きに起因するアーチファクトは、開眼状態か閉眼状態かを問わず、検出されることが確認された。唾液を飲み込む顎の動きに起因するアーチファクトは、主に、θ波帯に出現した。
一方で、唾液の飲み込みに伴い出現するアーチファクトのスペクトル強度は、MindWaveで検知された瞬きに対応するアーチファクトのスペクトル強度に比して格段に小さい。このため、MindWaveの場合のように、α波の増加への影響は認められなかった。
前述の説明において、ユーザが特定の操作を念じながら行う意図的な筋肉の動きとして、唾液を飲み込む顎の動作を例示したのは、図13に示すアーチファクトの出現が理由となっている。
図14は、MindWaveによる測定結果を説明する図である。(A)は開眼状態で瞬き有りから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(B)は開眼状態で瞬き無しから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(C)はα波の増加が出現しない場合である。
図15は、実施の形態で使用するイヤホン10(図2参照)による測定結果を説明する図である。(A)は開眼状態で瞬き有りから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(B)は開眼状態で瞬き無しから閉眼状態に変化したときの周波数帯別のスペクトル強度の割合の変化を示し、(C)はα波の増加が出現しない場合である。
MindWaveのスペクトル強度の分布(図14参照)とイヤホン10のスペクトル強度の分布(図15参照)は、δ波〜θ波の低周波帯で異なっているが、α波以上ではほぼ同じであった。
因みに、イヤホン10だけでα波の増加が確認された被験者は7名であった。換言すると、イヤホン10では、α波の増加が計53名で確認された。すなわち、イヤホン10では、約9割強の被験者でα波の増加が確認された。
なお、MindWaveとイヤホン10の両方でα波の増加が確認されなかった被験者は5名であった。図14及び図15の(C)に示す波形は、この5名の被験者の測定結果を表している。
図16では、図14及び図15の場合とは異なり、横軸に実周波数を用いている。前述したElena Ratti等の論文では、横軸に実周波数を用いてα波の増加を説明している。図中の○印で示す部分が増加部分である。
図16に示すように、いずれの測定方法でも、周波数が高くなるのに従ってスペクトル強度の割合が低下する傾向が表れている。この傾向は、Elena Ratti等の論文と同様である。
このように、本実施の形態で使用する外耳孔で脳波を測定するイヤホン10は、MindWaveと同等の測定能力を有していることが確かめられた。
前述の実施の形態1の場合、対応関係テーブル231及び232(図6参照)に記憶されている特徴と操作の内容との対応関係が事前に定められている。
このため、イヤホン10を装着したユーザが、脳波情報の特徴を正しく発生できない限り、操作対象機器30(図1参照)を意図した通りに操作することは無理である。また、標準化された対応関係が全てのユーザに該当するとは限らない。
そこで、本実施の形態では、機械学習によって対応関係を更新する仕組みの一例を説明する。
図17に示す脳波操作システム1Aは、耳部に装着されるイヤホン10と、イヤホン10と無線で接続される情報端末20Aと、ユーザが操作の対象とする操作対象機器30Aと、機械学習装置50とで構成されている。
なお、操作対象機器30Aと機械学習装置50とは、IoTネットワーク経由で接続されている。機械学習装置50は、情報端末20Aや操作対象機器30Aと同じ空間内に存在する必要はない。機械学習装置50は、例えばインターネット上に存在してもよい。
また、本実施の形態における操作対象機器30Aには、受け付けた操作信号のログ(以下「受付ログ」という)を機械学習装置50に送信する機能が設けられている。操作対象機器30Aは、操作信号を受け付ける度に受付ログを送信してもよいし、機械学習装置50が要求した場合に限り受付ログを送信してもよい。
本実施の形態における機械学習装置50は、脳波情報の特徴と受付ログとを照合し、脳波情報と操作の内容との関係を機械的に学習する。機械学習装置50は、情報端末20から操作信号が送信された時刻に関連する受付ログを抽出し、脳波情報の特徴とユーザが意図した操作の結果との関係を学習する。
まず、正解となる操作の内容を特定する必要がある。例えば操作信号が送信された時刻の直後に操作対象機器30Aが受け付けた操作の動作が予め定めた時間以上継続する場合、操作対象機器30Aで実行された動作はユーザが意図した動作であるとみなす。もっとも、電源オフの状態の操作対象機器30Aに対し、情報端末20Aから電源オフの操作信号が送信された場合には、誤った操作の可能性が高い。その場合には、電源オフの操作信号の受け付けに続いて電源オンの操作信号を操作対象機器30Aが受け付けるはずである。従って、例えば操作信号が送信された時刻の直後に操作対象機器30Aが正反対の操作信号を受け付けた場合には、直後に受け付けた操作信号の動作をユーザの意図した動作の真値とみなす。
いずれにしても、機械学習装置50は、特定された操作の内容と対応する脳波情報の特徴との組を教師データに用い、いわゆる教師データ有り学習を実行する。ここでの学習には、ディープラーニングの手法を使用する。なお、中間層にはLSTN(=Long Short-Term Memory)ブロックを導入してもよい。また、中間層に畳込み層やプーリング層を追加してもよい。
機械学習装置50は、脳波情報の特徴と操作の内容との対応関係を機械学習し、機械学習の成果を対応関係テーブル又は学習済みモデルとして情報端末20Aに送信する。
図18の場合も、情報端末20Aを構成するデバイスのうち、脳波等の生体情報から操作対象機器30A(図17参照)を操作する操作信号を生成する機能に関連するデバイスを抜き出して表している。
図18に示す情報端末20Aの場合、操作内容推定部223Aには、操作信号の推定に使用した脳波情報の特徴を機械学習装置50(図17参照)に送信する機能が追加されている。
図18では、機械学習装置50から受信された脳波情報の特徴用の対応関係テーブル231Aが半導体メモリ203に記憶されている。勿論、対応関係テーブル231Aに代えて学習済みモデルが半導体メモリ203に記憶されてもよい。
その結果、例えばユーザを特定せずに機械学習を行う場合には、脳波の測定が可能なイヤホン10を装着した不特定多数のユーザによる脳波での操作の精度が向上される。
また特定のユーザに特定して機械学習を行う場合には、特定のユーザに特化した対応関係テーブル231Aや学習済みモデルにより、脳波での操作の精度の向上が実現される。
前述の実施の形態2においては、操作対象機器30A(図17参照)がIoTネットワーク経由で機械学習装置50(図17参照)と接続されていたが、本実施の形態では、操作対象機器30AがIoTネットワーク等を経由して機械学習装置50(図17参照)に接続されていない場合について説明する。
図19は、実施の形態3で使用する脳波操作システム1Bの概略構成を示す図である。図19には、図17との対応部分に対応する符号を付して示している。
図19に示す脳波操作システム1Bは、耳部に装着されるイヤホン10と、イヤホン10と無線で接続される情報端末20Bと、ユーザが操作の対象とする操作対象機器30と、機械学習装置50Aとで構成されている。
もっとも、音声の内容の解析は、機械学習装置50Aに設けてもよい。また、音声の内容の解析には、インターネット上のサーバ等を通じて提供される音声認識サービスを活用してもよい。
図19では、ユーザが頭の中で念じている「電源オン」を、ユーザが声にも出している。ユーザが声に出した操作の内容で操作対象機器30が操作される点は、一見すると、スマートスピーカによる操作と同じに見えるが、本実施の形態の場合、ユーザの音声は、脳波情報の特徴に応じて推定される操作の内容に対する正解として与えられる。
図20の場合も、情報端末20Bを構成するデバイスのうち、脳波等の生体情報から操作対象機器30を操作する操作信号を生成する機能に関連するデバイスを抜き出して表している。
図20に示す情報端末20Bには、ブルートゥースモジュール201を通じて受信されるオーディオデータから操作の内容を取得する音声情報取得部224が追加されている。
もっとも、機械学習装置50Aや外部の音声認識サービスを活用する場合、音声情報取得部224は、取得されたオーディオデータを機械学習装置50Aや外部の音声認識サービスに送信する。
本実施の形態における脳波操作システム1Bの場合、ユーザの音声による指示の内容を脳波による操作の正解として活用できるので、受付ログを用いて操作の内容の正解を推定する場合に比して計算負荷が少なく済む。
また、本実施の形態の場合、操作の内容の正解が音声を通じて与えられるので、教師データの精度が向上し、その分、機械学習の精度の向上が期待される。
図21は、実施の形態4で使用する脳波操作システム1Cの概略構成を示す図である。図21には、図19との対応部分に対応する符号を付して示している。
本実施の形態の場合、情報端末20Cの内部で機械学習の処理を実行する。
図22は、実施の形態4で使用する情報端末20Cの内部構成の一例を示す図である。図22には、図20との対応部分に対応する符号を付して示している。
また、本実施の形態の場合、脳波に基づく操作の履歴や正誤等を記録するテーブル233及び234が半導体メモリ203に追加される。テーブル233は、脳波情報の特徴用であり、テーブル234は、脳波以外の生体情報用である。
本実施の形態における機械学習部225は、テーブル233に記録されている情報を教師データに用いて機械学習を実行し、脳波情報の特徴用の対応関係テーブル231Aを更新する。同じく、機械学習部225は、テーブル234に記録されている情報を教師データに用いて機械学習を実行し、脳波以外の生体情報の特徴用の対応関係テーブル232Aを更新する。
なお、本実施の形態における操作内容推定部223Cは、脳波情報の特徴や脳波以外の生体情報の特徴によって推定された操作の内容の精度が低い場合、音声により指示された操作の内容を操作対象機器30に送信する。
テーブル233には、脳波による操作が行われた日時と、脳波情報の特徴と、推定された操作の内容と、ユーザの意図として与えられた音声の内容と、特徴に対応付けられている操作の内容の正誤とが記憶されている。
図23の場合、「20XX/10/15 12:45:52」に脳波情報の特徴から推定された操作の内容は、音声の内容と同じであることが記録されている。このため、正誤の欄には「正」が記録されている。
一方、「20XX/10/15 12:46:10」に脳波情報の特徴から推定された操作の内容は、音声の内容と異なることが記録されている。このため、正誤の欄には「誤」が記録されている。
脳波以外の生体情報の特徴により推定された操作の内容は、「20XX/10/15 12:45:52」と「20XX/10/15 12:46:10」のいずれの場合も、音声の内容と同じである。このため、正誤の欄には「正」が記録されている。
本実施の形態における機械学習部225(図22参照)は、テーブル233の履歴を教師データに使用して機械学習を継続し、脳波情報の特徴用の対応関係テーブル231Aを更新する。また、機械学習部225は、テーブル234の履歴を教師データに使用して機械学習を継続し、脳波以外の生体情報の特徴用の対応関係テーブル232Aを更新する。
なお、対応関係テーブル231Aの代わりに学習済みモデルが記憶される場合には、機械学習による更新後の学習済みモデルで半導体メモリ203内の学習済みモデルが更新される。
図24は、脳波情報を含むデジタル信号を受信した情報端末20Cが実行する処理動作の一例を説明するフローチャートである。図中のSはステップを意味する。
イヤホン10(図21参照)から脳波情報を含むデジタル信号を受信したMPU202Cは、受信したデジタル信号から脳波情報の特徴と、脳波以外の生体情報の特徴と、音声による操作の内容を取得する(ステップ21)。
なお、一致率の計算は、期間を定めて計算してもよい。例えば一致率が低かった過去のサンプルが多く含まれる場合には、直近の一致率が高くても、脳波による操作に切り替えられない可能性があるためである。従って、一致率の計算については、計算に使用するサンプルが出現した期間に制限を加えてもよい。
なお、サンプル数が少ない場合には、過去の一致率の高さが、今回の脳波情報の特徴から推定される操作の内容の精度を保証する根拠にはならない。そこで、サンプル数が予め定めた値に満たない場合には、強制的に否定結果を出力する設定にしてもよい。
ステップ23で肯定結果が得られた場合、MPU202Cは、脳波情報の特徴に対応する操作の内容を送信する(ステップ24)。この状態は、脳波による操作対象機器30(図21参照)が高い精度で行える状態を意味する。
前述の実施の形態1の場合、脳波以外の生体情報の特徴から推定される操作の内容に誤りはないものとして扱ったが、本実施の形態では、取得された生体情報の特徴から推定される操作の内容に誤りが含まれる場合も想定している。例えば唾液を飲み込む顎の動きが弱い場合や特徴の取得が難しい筋肉の動きが操作に用いられる場合も想定している。
一致率の計算に用いる期間についても、脳波情報の特徴の場合と同様、サンプルが属する期間を定めてもよい。
続いて、MPU202Cは、計算された一致率と閾値2を比較する(ステップ26)。ここでの閾値2には、例えば95%を使用する。もっとも、脳波以外の生体情報の特徴は、ユーザが意図的に動かすことが可能な筋肉の動きに起因しているので、閾値2をステップ23で用いる閾値1より高く設定することが可能である。勿論、ここでの数値は一例であり、ユーザが変更することも可能である。なお、閾値2は、第2の閾値の一例である。
一方、ステップ26で否定結果が得られた場合、MPU202Cは、音声による操作の内容を送信する(ステップ28)。
本実施の形態における脳波操作システム1Cの場合も、ユーザの音声による指示の内容を脳波による操作の正解として活用できるので、教師データの精度が向上し、機械学習の精度の向上が期待される。
また、本実施の形態の場合には、イヤホン10(図21参照)を装着しているユーザのアカウントに紐づけて脳波情報の特徴と操作の内容との対応関係を学習できるので、対応関係テーブル231A及び232Aの内容がユーザに合わせた内容に変更される。結果的に、ユーザの脳波による操作の精度が向上する。
図25は、実施の形態5で使用する脳波操作システム1Dの概略構成を示す図である。図25には、図21との対応部分に対応する符号を付して示している。
本実施の形態の場合も、情報端末20Dの内部で機械学習の処理を実行する点で実施の形態4と同じである。
ただし、本実施の形態が操作の内容の推定に用いる処理の内容が、実施の形態4と異なる。
図26に示す情報端末20Dの場合、半導体メモリ203にテーブル235を記憶する点と、操作内容推定部223Dで実行される処理の内容が異なる。
図27は、脳波による操作の履歴や正誤等を記録するテーブル235の例を説明する図である。
テーブル235では、脳波情報の特徴と脳波以外の生体情報の特徴とが1つの時刻に対応付けて管理される点で実施の形態4と相違する。
図27には、「20XX/10/15 12:45:52」と「20XX/10/15 12:46:10」の履歴が表されている。
本実施の形態における操作内容推定部223Dは、このテーブル235を活用し、操作対象機器30に送信する操作の内容を決定する。
図28は、脳波情報を含むデジタル信号を受信した情報端末20Dが実行する処理動作の一例を説明するフローチャートである。図中のSはステップを意味する。
本実施の形態の場合、MPU202Dは、脳波情報の特徴と脳波以外の生体情報の特徴が共起する確率を計算する(ステップ31)。本実施の形態の場合、脳波情報のある特徴が出現した場合に、脳波以外の生体情報の特定の特徴が同時に出現する確率を計算する。
なお、確率の計算は、期間を定めて計算してもよい。脳波による操作に不慣れな期間のサンプルが多く含まれる場合には、直近の一致率が高くても、脳波による操作に切り替えられない可能性があるためである。従って、確率の計算については、計算に使用するサンプルが出現した期間に制限を加えてもよい。
次に、MPU202Dは、計算された確率が閾値3より大きいか否かを判定する(ステップ32)。ここでの閾値3は、例えば95%に設定する。もっとも、この数値は一例である。また、閾値3は、ユーザが変更することも可能である。なお、閾値3は、第3の閾値の一例である。
一方、ステップ32で肯定結果が得られた場合、MPU202Dは、脳波以外の生体情報の特徴から特定される操作と実際に実行された操作との一致率を計算する(ステップ34)。
ステップ32で肯定結果が得られる場合とは、脳波情報の特徴と脳波以外の生体情報の特徴との間にほぼ一対一の関係が成立している状態をいう。換言すると、ある特定の操作を念じながら、特定の筋肉を動かす度に、同じ特徴を有する脳波情報が出現する状態をいう。
ただし、本実施の形態では、意図的な筋肉の動きとして、他の筋肉の動きを用いる操作も想定して以下の処理を実行する。
ここでの一致率も、新たに取得された脳波情報の特定の特徴に限って計算してもよいし、過去の全てのサンプルを対象に計算してもよい。
なお、確率の計算は、期間を定めて計算してもよい。脳波による操作に不慣れな期間のサンプルが多く含まれる場合には、直近の一致率が高くても、脳波による操作に切り替えられない可能性があるためである。従って、確率の計算については、計算に使用するサンプルが出現した期間に制限を加えてもよい。
ステップ35で否定結果が得られた場合、MPU202Dは、操作対象機器30に対して音声の内容を送信する(ステップ33)。
一方、ステップ35で肯定結果が得られた場合、MPU202Dは、操作対象機器30(図25参照)に対し、脳波情報の特徴に対応付けられている内容を送信する(ステップ36)。ステップ35で肯定結果が得られる場合は、脳波情報の特徴がユーザの意図を正確に反映している信憑性が高いためである。
本実施の形態の場合、ステップ36の後、MPU202Dは、脳波情報の特徴のみを用いる操作モードに設定を変更する(ステップ37)。これにより、次回以降は、脳波だけによる操作が実行される状態になる。
さらに、本実施の形態では、機械学習部225(図26参照)を使用して脳波情報に出現する特徴と操作の内容との対応関係の精度も向上させている。
このため、本実施の形態の脳波操作システム1Dの場合にも、ユーザによる脳波による操作の精度の向上が実現される。
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は前述した実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
また、前述の実施の形態では、イヤホン10(図1参照)で測定が可能な電位変動の一例として脳波について説明したが、筋電、心拍、心電、脈拍、脈波等も含まれる。
図29は、片耳に装着するタイプのイヤホン10Aの外観例を説明する図である。図29には、図2との対応部分に対応する符号を付して示している。図29に示すイヤホン10Aの場合、イヤホンチップ11Rが絶縁リングにより先端側と本体側とに電気的に分離され、先端側に電極11R1が配置され、本体側に電極11L1が配置されている。なお、GND端子としての電極11R2は不図示の絶縁体により電極11L1と電気的に分離されている。
この構成の場合、イヤホン本体12R内にリチウムバッテリ128(図3参照)も格納される。
また、前述の実施の形態では、情報端末20(図1参照)等に脳波情報等の特徴に応じて操作の内容を推定する機能を設けているが、脳波情報等の特徴に応じて操作の内容を推定する機能の一部又は全てをインターネット上のサーバで実行してもよい。この場合、サーバが、情報処理システムの一例となる。
例えば脳波等に起因する電位変動を測定する電極は耳介を覆うヘッドホンに配置してもよい。ヘッドホンの場合、電極は、イヤパッドのうち頭部と接触する部分に設けられる。この際、電極は、頭髪が少なく、皮膚と直に接触が可能な位置に配置される。
また、耳介に接触する物品には、イヤリング等のアクセサリや眼鏡型のデバイスでもよい。これらは、ウェアラブルデバイスの一例である。
図30は、脳波の測定に使用する電極を配置したイヤリング60の一例を説明する図である。図30に示すイヤリング60は、装飾が取り付けられる耳の表面側で耳朶に接触する電極11R1と、耳の裏面側で耳朶に接触する電極11L1と、U字部分のいずれかの位置で耳朶に接触する電極11R2を有している。これらの電極は不図示の絶縁体により電気的に分離されている。また、動作に必要な電力を供給するバッテリやブルートゥースその他の通信モジュールは、装飾の内部、U字部分、電極11L1が配置される皿形状の部材を軸方向に移動させるネジの軸内等に内蔵される。
この他、脳波の測定に使用する電極は、スマートグラスやヘッドマウントディスプレイと呼ばれる情報を表示するヘッドセットへの組み合わせも可能である。また、ユーザの周囲の環境を理解し、環境に同化させた画像を表示する機能を備えるヘッドセットへの搭載も可能である。
図32に示すヘッドセット80では、頭部に装着されるリング状の部材のうち耳部に接触する部位に、電極11R1、電極11R2、電極11L1が配置されている。図32に示すヘッドセット80の場合、電極11R1と電極11R2は右耳側に配置され、電極11L1は左耳側に配置される。
図33は、視線を追跡する機能を生体情報の特徴とする例を説明する図である。(A)は視線の方向が左方向の場合を示し、(B)は視線の方向が右方向の場合を示し、(C)は視線の方向が上方向の場合を示し、(D)は視線の方向が下方向の場合を示す。これらの視線の方向に、異なる操作の内容を割り当てる。
例えばヘッドセット80(図32参照)の場合、頭部に装着されるリング型の部材のいずれかの位置に電極を設けてもよい。
図34は、近赤外光を用いて脳の活動に起因する血流量の変化を測定するヘッドセット90の一例を示す図である。ヘッドセット90は、頭部に装着されるリング状の本体を有している。この本体の内側には、頭皮に近赤外光を照射するプローブ91と、反射光を受光する検出プローブ92で構成される測定部が1又は複数配置されている。なお、MPU93は、プローブ91による近赤外光の照射を制御し、検出プローブ92から出力される信号を処理して、ユーザの脳波の特徴を検出する。
図35は、脳磁計100の一例を説明する図である。図35に示す脳磁計100は、頭部に装着されるキャップ101に複数のTMRセンサ102を配列した構造を有している。なお、TMRセンサ102の出力は、不図示のMPUに入力され、脳磁図が生成される。この場合、脳磁図における磁場の分布がユーザの脳波の特徴として用いられる。
図36は、ユーザの表情を脳波以外の生体情報の特徴の取得に使用する脳波操作システム1Eの例を示す図である。図36には、図1との対応部分に対応する符号を付して示している。
図36に示す脳波操作システム1Eには、ユーザの顔を撮像するカメラ111が設けられており、カメラ111で撮像された画像が情報端末20Eに送信される。このシステム構成における情報端末20Eは、生体情報取得部222(図4参照)において、ユーザの画像から表情の特徴を取得する。
また、前述した各実施の形態におけるプロセッサの動作は、1つのプロセッサが単独で実行してもよいが、物理的に離れた位置に存在する複数のプロセッサが協働して実行してもよい。また、プロセッサにおける各動作の実行の順序は、前述した各実施の形態に記載した順序のみに限定されるものでなく、個別に変更してもよい。
Claims (18)
- ユーザの脳波の特徴と、当該脳波を検出しているときに検出される、当該脳波とは異なる生体情報の特徴との組み合わせに応じて機器を操作する指示を決定するプロセッサを有する、情報処理システム。
- 前記生体情報は、ユーザの頭部に接触する電極で測定される、請求項1に記載の情報処理システム。
- 前記生体情報は耳部に接触する電極で測定される、請求項2に記載の情報処理システム。
- 前記プロセッサは、前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値より低い間、前記生体情報の特徴に応じて特定される操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システム。
- 前記プロセッサは、前記生体情報の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第2の閾値より低い場合、前記プロセッサは、ユーザの音声による指示を前記機器の操作に使用する、請求項4に記載の情報処理システム。
- 前記プロセッサは、前記脳波の特徴と、前記生体情報の特徴と、ユーザが実際に行った操作の結果とを教師データとして学習された学習済みモデルを使用し、前記機器を操作する指示を決定する、請求項1に記載の情報処理システム。
- 前記学習済みモデルは、ユーザ別に生成される、請求項6に記載の情報処理システム。
- ユーザが実際に行った前記操作の結果には、ユーザの音声による指示が使用される、請求項6に記載の情報処理システム。
- 前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値より低い場合、又は、前記生体情報の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第2の閾値より低い場合、前記プロセッサは、ユーザの音声による指示を前記機器の操作に使用する、請求項6に記載の情報処理システム。
- 前記生体情報の特徴は、ユーザによる意図的な身体の動きに由来する、請求項1〜9のうちいずれか1項に記載の情報処理システム。
- 前記脳波の特徴に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第1の閾値を超えた場合、前記プロセッサは、当該脳波の特徴に応じて定まる操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システム。
- 前記脳波の特徴と前記生体情報の特徴が共起する確率が予め定めた第3の閾値を超えた状態で、当該生体情報に応じて定まる操作の内容と実際に実行された操作の結果との一致率が第4の閾値を超えた場合、前記プロセッサは、当該脳波の特徴に応じて定まる操作の内容を前記機器の操作に使用する、請求項1に記載の情報処理システム。
- 前記脳波の特徴は、非接触に測定される、請求項1に記載の情報処理システム。
- 前記生体情報の特徴は、ユーザの表情に関する情報である、請求項13に記載の情報処理システム。
- 前記生体情報の特徴は、ユーザの視線の方向に関する情報である、請求項13に記載の情報処理システム。
- 請求項1に記載の情報処理システムは、ユーザが装着して使用するデバイスである。
- 請求項1に記載の情報処理システムは、ユーザが装着するデバイスと通信可能に接続されたコンピュータである。
- コンピュータに、
ユーザの脳波の特徴と、当該脳波を検出しているときに検出される、当該脳波とは異なる生体情報の特徴を検出する機能と、
前記脳波の特徴と前記生体情報の特徴の組み合わせに応じて操作を決定する機能と
を実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019219153A JP7320261B2 (ja) | 2019-12-03 | 2019-12-03 | 情報処理システム、方法、及びプログラム |
US16/891,596 US11402907B2 (en) | 2019-12-03 | 2020-06-03 | Information processing system and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019219153A JP7320261B2 (ja) | 2019-12-03 | 2019-12-03 | 情報処理システム、方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021089544A true JP2021089544A (ja) | 2021-06-10 |
JP7320261B2 JP7320261B2 (ja) | 2023-08-03 |
Family
ID=76091006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019219153A Active JP7320261B2 (ja) | 2019-12-03 | 2019-12-03 | 情報処理システム、方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11402907B2 (ja) |
JP (1) | JP7320261B2 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005018167A (ja) * | 2003-06-23 | 2005-01-20 | Softopia Japan Foundation | 生体反応利用機器制御装置及び機器の制御方法 |
JP2005202653A (ja) * | 2004-01-15 | 2005-07-28 | Canon Inc | 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム |
JP2011136158A (ja) * | 2009-12-01 | 2011-07-14 | Panasonic Corp | 電界検知型脳波計 |
JP2017021737A (ja) * | 2015-07-15 | 2017-01-26 | Kddi株式会社 | 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム |
US20180107274A1 (en) * | 2016-01-21 | 2018-04-19 | Boe Technology Group Co., Ltd. | Display control device, control method thereof, and display control system |
WO2018179346A1 (ja) * | 2017-03-31 | 2018-10-04 | 本田技研工業株式会社 | 操作システム、サーバ、操作システムにおける制御方法およびプログラム |
JP2019082776A (ja) * | 2017-10-30 | 2019-05-30 | 富士通株式会社 | 操作支援方法、操作支援プログラム及び頭部装着型表示装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101314570B1 (ko) | 2011-10-12 | 2013-10-07 | 서울대학교산학협력단 | 정밀한 제어를 위한 뇌-기계 인터페이스 장치 및 방법 |
US9477993B2 (en) * | 2012-10-14 | 2016-10-25 | Ari M Frank | Training a predictor of emotional response based on explicit voting on content and eye tracking to verify attention |
WO2015122846A1 (en) * | 2014-02-14 | 2015-08-20 | National University Of Singapore | System, device and methods for brainwave-based technologies |
EP3556429B1 (en) * | 2015-06-02 | 2021-10-13 | Battelle Memorial Institute | Non-invasive motor impairment rehabilitation system |
US11717686B2 (en) * | 2017-12-04 | 2023-08-08 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to facilitate learning and performance |
-
2019
- 2019-12-03 JP JP2019219153A patent/JP7320261B2/ja active Active
-
2020
- 2020-06-03 US US16/891,596 patent/US11402907B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005018167A (ja) * | 2003-06-23 | 2005-01-20 | Softopia Japan Foundation | 生体反応利用機器制御装置及び機器の制御方法 |
JP2005202653A (ja) * | 2004-01-15 | 2005-07-28 | Canon Inc | 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム |
JP2011136158A (ja) * | 2009-12-01 | 2011-07-14 | Panasonic Corp | 電界検知型脳波計 |
JP2017021737A (ja) * | 2015-07-15 | 2017-01-26 | Kddi株式会社 | 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム |
US20180107274A1 (en) * | 2016-01-21 | 2018-04-19 | Boe Technology Group Co., Ltd. | Display control device, control method thereof, and display control system |
WO2018179346A1 (ja) * | 2017-03-31 | 2018-10-04 | 本田技研工業株式会社 | 操作システム、サーバ、操作システムにおける制御方法およびプログラム |
JP2019082776A (ja) * | 2017-10-30 | 2019-05-30 | 富士通株式会社 | 操作支援方法、操作支援プログラム及び頭部装着型表示装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7320261B2 (ja) | 2023-08-03 |
US11402907B2 (en) | 2022-08-02 |
US20210165489A1 (en) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2743026C2 (ru) | Система наблюдения сердечной активности с использованием датчиков электрического потенциала | |
US11856355B2 (en) | Information processing system and non-transitory computer readable medium storing program | |
KR20180055743A (ko) | 전자 장치 및 그 제어 방법 | |
US20220141601A1 (en) | Portable system for gathering and processing data from eeg, eog, and/or imaging sensors | |
US20210240433A1 (en) | Information processing apparatus and non-transitory computer readable medium | |
US20220361787A1 (en) | Ear-worn device based measurement of reaction or reflex speed | |
KR20210065536A (ko) | 뇌파 신호를 이용한 우울증 자가 진단 시스템 | |
KR20160108967A (ko) | 생체신호 측정장치 및 이를 이용한 생체신호 측정방법 | |
Bleichner et al. | Building an ear-EEG system by hacking a commercial neck speaker and a commercial EEG amplifier to record brain activity beyond the lab | |
JP2022059140A (ja) | 情報処理装置及びプログラム | |
KR101791038B1 (ko) | 귀 착용형 뇌파 검사 장비를 이용한 뇌파 측정 장치 및 방법 | |
CN115334969A (zh) | 带无线耳塞的心脏监测系统 | |
JP2022059147A (ja) | 生体情報測定システム | |
JP7320261B2 (ja) | 情報処理システム、方法、及びプログラム | |
US20220394396A1 (en) | Control of parameters of hearing instrument based on ear canal deformation and concha emg signals | |
WO2019225244A1 (ja) | 生体信号取得用電極、生体信号取得用電極対及び生体信号測定システム | |
US20230390608A1 (en) | Systems and methods including ear-worn devices for vestibular rehabilitation exercises | |
Ramesh et al. | Brain computer interface based assistive device | |
Chiu et al. | Mobile switch control using auditory and haptic steady state response in Ear-EEG | |
Ramesh et al. | Brain Computer Interface device for speech impediments | |
TWM530129U (zh) | 穿戴式心電檢測裝置 | |
JP2021124922A (ja) | 情報処理装置及びプログラム | |
US20240000315A1 (en) | Passive safety monitoring with ear-wearable devices | |
US20220157434A1 (en) | Ear-wearable device systems and methods for monitoring emotional state | |
US20220386048A1 (en) | Methods and systems for assessing insertion position of hearing instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210318 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20210416 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210318 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220701 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230322 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7320261 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |