JP4991431B2 - External environment control device based on brain function measurement - Google Patents

External environment control device based on brain function measurement Download PDF

Info

Publication number
JP4991431B2
JP4991431B2 JP2007198249A JP2007198249A JP4991431B2 JP 4991431 B2 JP4991431 B2 JP 4991431B2 JP 2007198249 A JP2007198249 A JP 2007198249A JP 2007198249 A JP2007198249 A JP 2007198249A JP 4991431 B2 JP4991431 B2 JP 4991431B2
Authority
JP
Japan
Prior art keywords
measurement
information
agent
brain
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007198249A
Other languages
Japanese (ja)
Other versions
JP2009032213A (en
Inventor
契 宇都木
敦 牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007198249A priority Critical patent/JP4991431B2/en
Priority to EP20080003202 priority patent/EP2020650A3/en
Priority to CN2008100815469A priority patent/CN101359220B/en
Priority to US12/039,864 priority patent/US8175686B2/en
Publication of JP2009032213A publication Critical patent/JP2009032213A/en
Application granted granted Critical
Publication of JP4991431B2 publication Critical patent/JP4991431B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • A61B5/14551Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases
    • A61B5/14553Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters for measuring blood gases specially adapted for cerebral tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/378Visual stimuli

Description

本発明は、脳機能計測による外部環境制御装置にかかり、特に光生体計測法を用いた情報入力装置の出力信号を種々の制御を行う外部装置の入力信号として用いる生体制御装置に好適なものである。   The present invention relates to an external environment control device using brain function measurement, and is particularly suitable for a biological control device that uses an output signal of an information input device using an optical biological measurement method as an input signal of an external device that performs various controls. is there.

生体制御装置と称する脳機能計測による外部環境制御装置は、光生体計測法と生体入力装置を用いることで、ボタンやマウスあるいはハンドルを用いない各種装置の制御、居眠りや注意力の減退などの身体条件に基づく警報装置の発動、周辺環境の装置の意識・無意識の状態に合わせた制御、学習効果やリハビリテーションの習熟度の判定、幼児や病人や動物等の感覚や思考の表示、あるいは嘘発見などに応用される。   The external environment control device based on brain function measurement called a biological control device uses optical biometrics and a biological input device to control various devices that do not use buttons, mice, or handles, and to perform body movements such as falling asleep or reducing attention. Triggering alarm devices based on conditions, control according to the consciousness / unconscious state of devices in the surrounding environment, judgment of learning effects and rehabilitation proficiency, display of senses and thoughts of infants, sick people, animals, etc. Applied to.

従来から、情報処理機器やゲーム、家電機器、AV機器、輸送機器などの装置を操作するために、ボタンやキーボードあるいはマウス等の種々な入力装置が用いられている。しかし、このような人間が手足で操作する入力装置は、別の入力に集中している状態を一時的に妨げたり、遊戯における臨場感を低減させることがある。また、身体障害者等が操作する場合に困難が生まれることもある。そこで、脳から直接に得られる情報を用いて、機器を制御しようという試みが数多くなされている。   Conventionally, various input devices such as buttons, a keyboard, and a mouse have been used to operate devices such as information processing devices, games, home appliances, AV devices, and transport devices. However, such an input device that is operated by a human limb may temporarily prevent a user from concentrating on another input or may reduce the sense of realism in play. In addition, difficulties may arise when a disabled person or the like operates. Thus, many attempts have been made to control devices using information obtained directly from the brain.

脳を計測することで直接に上記のような制御情報を得るための手段としては、脳に電極を刺して直接電気信号を取り出す手法の研究が行われている。だが、そのように人体にメスを入れてインプラント機器を埋め込む必要がある計測(侵襲方式)には、副作用の恐れがある。一方、人体に直接針やメスなどの切り開く手段を用いない計測方式(非侵襲方式)として、陽電子断層撮像法(Positron Emission Tomography: PET)、機能的磁気共鳴描画装置(functional Magnetic Resonance Imaging : fMRI)、脳波計(Electroencephalography)などがある。   As means for directly obtaining the control information as described above by measuring the brain, research has been conducted on techniques for directly picking up electrical signals by inserting electrodes into the brain. However, there is a risk of side effects in such a measurement (invasive method) where it is necessary to insert a scalpel into the human body and implant an implant device. On the other hand, positron emission tomography (PET), functional magnetic resonance imaging device (functional magnetic resonance imaging: fMRI) as a measurement method (non-invasive method) that does not use a means to open the human body directly such as a needle or scalpel. And electroencephalography.

脳波を用いて脳からの制御情報を被制御装置に直接入力を行う装置を特許文献1が開示する。特許文献1が開示する装置では、心電図を計測する場合のように、脳波をそのまま情報処理装置に入力することにより、計算機、特にゲーム機を制御しようとするものである。このような脳から被制御装置への直接入力装置は、運動機能に障害が認められる患者の外部装置の制御が可能であり、身体障害者の社会参加への貢献も期待されている。   Patent Document 1 discloses a device that directly inputs control information from the brain to a controlled device using an electroencephalogram. In the apparatus disclosed in Patent Document 1, a computer, particularly a game machine, is to be controlled by inputting an electroencephalogram as it is to an information processing apparatus as in the case of measuring an electrocardiogram. Such a direct input device from the brain to the controlled device is capable of controlling an external device of a patient whose motor function is impaired, and is expected to contribute to the social participation of physically disabled people.

さらに、これらの技術に加えて、近赤外線分光法を用いて、脳活動に伴う大脳皮質での血液量変化を多点で計測し、その血液量の変化を画像として表示する技術(生体光計測装置)が、既に実用化され、例えば、非特許文献2にて公開されている。   In addition to these technologies, using near-infrared spectroscopy, blood volume changes in the cerebral cortex associated with brain activity are measured at multiple points, and changes in the blood volume are displayed as images (biological light measurement). Device) has already been put into practical use and is disclosed in Non-Patent Document 2, for example.

この分野の背景技術を開示したものとしては、上記の特許文献1、2に加えて特許文献3乃至6、非特許文献1乃至3を挙げることができる。これらの文献の開示内容については、本発明の課題、解決手段、あるいは実施形態の項において必要に応じて説明する。
特開平7−124331号公報 特許第3543453号 特開平9−1498949号公報 特開2000−172407号公報 特開2002−119511号公報 特開2005−13464号、生体光計測装置。 Maki, A et al. , (1995) ”Spatial and temporal analysis of human motor activity using noninvasive NIR topography" Medical Physics 22, 1997-20 HYPERLINK "http://www.hitachi.co.jp/New/cnews/month/2005/09/0926.html" http://www.hitachi.co.jp/New/cnews/month/2005/09/0926.html、「身体を全く動かすことのできないALS患者向けYes/No判定装置「心語り」を製品化」 V. N. Vapnik, "The Nature of Statistical Learning Theory, 2nd Ed.", Springer 2000.
Examples of disclosure of background art in this field include Patent Documents 3 to 6 and Non-Patent Documents 1 to 3 in addition to Patent Documents 1 and 2 described above. The contents of disclosure of these documents will be described as needed in the section of the present invention, solutions, or embodiments.
Japanese Patent Laid-Open No. 7-124331 Japanese Patent No. 3543453 Japanese Patent Laid-Open No. 9-1498949 JP 2000-172407 A JP 2002-119511 A JP-A-2005-13464, biological light measurement device. Maki, A et al., (1995) “Spatial and temporal analysis of human motor activity using noninvasive NIR topography” Medical Physics 22, 1997-20 HYPERLINK "http://www.hitachi.co.jp/New/cnews/month/2005/09/0926.html" http://www.hitachi.co.jp/New/cnews/month/2005/09/ 0926.html, “Commercialized Yes / No Judgment Device for ALS Patients Who Cannot Move at All” VN Vapnik, "The Nature of Statistical Learning Theory, 2nd Ed.", Springer 2000.

以下、本発明の課題を明らかにするため、図1乃至図5を参照して脳機能計測による外部環境制御装置の基礎技術を説明する。図1乃至図5は後述する本発明の実施例を説明する基本構成でもある。図1は、脳機能計測による外部環境制御装置における計測方法の装置構成例を説明する模式図であり、特許文献2や非特許文献1などに開示されている計測方法の装置構成を示す図である。また、図2は、前記光照射器103へ接続した光ファイバ104を固定するホルダ107と前記光検出器105へ接続した光ファイバ106を固定するホルダ107との間を伝播する光の経路201を説明する図である。   Hereinafter, in order to clarify the problem of the present invention, a basic technique of an external environment control device based on brain function measurement will be described with reference to FIGS. 1 to 5. 1 to 5 also show a basic configuration for explaining an embodiment of the present invention to be described later. FIG. 1 is a schematic diagram for explaining a device configuration example of a measurement method in an external environment control device based on brain function measurement, and shows a device configuration of a measurement method disclosed in Patent Literature 2, Non-Patent Literature 1, and the like. is there. Further, FIG. 2 shows a light path 201 propagating between a holder 107 for fixing the optical fiber 104 connected to the light irradiator 103 and a holder 107 for fixing the optical fiber 106 connected to the photodetector 105. It is a figure explaining.

図1において、被検体101は、計測に際してヘルメット(プローブ)102を装着する。このヘルメット102は、発光ダイオード、半導体レーザ、ランプに代表される光照射器103へ接続した光ファイバ104やアバランシェフォトダイオード、光電子増倍管に代表される光検出器105を接続した光ファイバ106を接続するための光ファイバホルダ107を具備する。   In FIG. 1, a subject 101 wears a helmet (probe) 102 for measurement. The helmet 102 includes an optical fiber 104 connected to a light irradiator 103 typified by a light emitting diode, a semiconductor laser, and a lamp, an optical fiber 106 connected to a photodetector 105 typified by an avalanche photodiode and a photomultiplier tube. An optical fiber holder 107 for connection is provided.

光ファイバ104や106に示した光ファイバの先端108は、被検体101の頭髪を掻き分けて、その頭皮上に軽く接触している。これは、頭髪が光ファイバの先端と頭皮の間に挟まると、光伝送効率が低下するためである。前記光照射器103は複数具備されており、それぞれの時刻に対する出力光強度は制御装置109にて管理されるマルチチャンネルシステムを構成する。その制御内容は、伝送ケーブル110を用いて、光検出器105へ接続した信号処理装置111へ送信され、信号処理装置111で生体内部を通過した光の強度変化を推定することに使用する場合もある。参照符号112は、パーソナルコンピュータ、ワークステーションに代表される入力部を構成する情報処理装置であり、伝送ケーブル113を用いて、制御装置111へ制御内容を送信し、処理結果を用いた取り込みと、解析処理を行う。解析結果は、表示画面114にて表示される。参照符号115,116は情報処理装置112の入力装置であるキーボードおよびマウスである。   The optical fiber tip 108 shown in the optical fibers 104 and 106 scrapes the hair of the subject 101 and makes light contact with the scalp. This is because the optical transmission efficiency decreases when the hair is sandwiched between the tip of the optical fiber and the scalp. A plurality of the light irradiators 103 are provided, and the output light intensity for each time constitutes a multi-channel system managed by the control device 109. The control content is transmitted to the signal processing device 111 connected to the photodetector 105 using the transmission cable 110, and may be used for estimating the intensity change of the light that has passed through the living body by the signal processing device 111. is there. Reference numeral 112 is an information processing apparatus that constitutes an input unit typified by a personal computer and a workstation, transmits the control content to the control apparatus 111 using the transmission cable 113, and takes in the processing result, Perform analysis processing. The analysis result is displayed on the display screen 114. Reference numerals 115 and 116 denote a keyboard and a mouse which are input devices of the information processing apparatus 112.

各ホルダ107A,107Bは、図1に示した被験者101の頭部にフィットするヘルメット102に固定されて、光ファイバ104,106の先端は被検査体の頭皮へ接触している。図2には、ヒトの典型的な脳の構造を示している。この脳の構造は、頭皮202、頭蓋骨203、脳脊髄液層204、大脳皮質205などから構成されている。これら生体組織は、光学的な散乱特性と吸収特性を有し、特に頭蓋骨203の光散乱特性は大きいことが知られている。このため、光照射器103から照射された光は、光散乱特性により散乱され、また、光吸収特性により、徐々に強度が失われることが知られている。ここで、図中に示されるホルダ107は互いに約30mmの間隔で格子状に配置されている。   The holders 107A and 107B are fixed to a helmet 102 that fits the head of the subject 101 shown in FIG. 1, and the tips of the optical fibers 104 and 106 are in contact with the scalp of the object to be examined. FIG. 2 shows a typical human brain structure. This brain structure is composed of a scalp 202, a skull 203, a cerebrospinal fluid layer 204, a cerebral cortex 205, and the like. These biological tissues have optical scattering characteristics and absorption characteristics, and it is known that the light scattering characteristics of the skull 203 are particularly large. For this reason, it is known that the light emitted from the light irradiator 103 is scattered by the light scattering characteristics, and the intensity is gradually lost due to the light absorption characteristics. Here, the holders 107 shown in the figure are arranged in a grid pattern at intervals of about 30 mm.

このような配置間隔で配置すると、光照射器103へ接続した光ファイバ104から照射された光は、散乱と吸収を繰り返しながら図に形状210として示されるような経路をたどって生体組織内部を伝播し、光検出器105へ接続した光ファイバ106へ到達し検出される。尚、この計測には、生体組織に対して透過性の高い近赤外光(波長:600nmから900nm)を使用する。図中の参照符号211は、大脳皮質205での脳の活動に伴って血液量に代表される生体内代謝物質の濃度が増加した領域を示している。   When arranged at such an arrangement interval, the light emitted from the optical fiber 104 connected to the light irradiator 103 propagates through the living tissue following a path shown as a shape 210 in the figure while repeating scattering and absorption. The light reaches the optical fiber 106 connected to the photodetector 105 and is detected. For this measurement, near-infrared light (wavelength: 600 nm to 900 nm) having high permeability to living tissue is used. Reference numeral 211 in the figure indicates a region where the concentration of in vivo metabolites represented by blood volume has increased with brain activity in the cerebral cortex 205.

血液は様々な物質から構成されているが、その中でヘモグロビン(酸素化ヘモグロビンと脱酸素化ヘモグロビンは計測に使用する近赤外光を吸収することが知られている。その結果、血液量が増加すると、検出される光の強度が減衰することが知られている。即ち、この検出光の変化を検出することで、血液量変化を推定することが出来る。この推定法の詳細な記述は、非特許文献1に記載されている。   Blood is composed of various substances, among which hemoglobin (oxygenated hemoglobin and deoxygenated hemoglobin are known to absorb near-infrared light used for measurement. It is known that the intensity of the detected light is attenuated as it increases, that is, the change in blood volume can be estimated by detecting the change in the detected light. Non-Patent Document 1.

非特許文献1に記載された生体光計測装置の大きな特長は、このような光照射器と光検出器を被検査体の頭皮上に2次元的に配置していることである。この結果、脳活動に伴う血液量変化の分布を可視化することが可能になる。   A major feature of the biological light measurement apparatus described in Non-Patent Document 1 is that such a light irradiator and a light detector are two-dimensionally arranged on the scalp of the subject. As a result, it is possible to visualize the distribution of blood volume changes accompanying brain activity.

図3は、光照射器103へ接続した光ファイバホルダ107Aの配置位置301(図中では白丸で示されている)と、光検出器105へ接続した光ファイバホルダ107Bの配置位置302(図中の黒丸)の説明図である。これらの照射・検出の各ホルダは約30mmの間隔で空間的に交互に配置されている。図2によれば、光経路の形状210の太さは、光照射器103へ接続した光ファイバホルダ107Aの配置位置301と、光検出器105へ接続した光ファイバホルダ107Bの配置位置302の、中点の直下の位置303で最大となっている。このため、血液量変化に対する感度は、この中点で最大となることが知られている。そこで、この中点(図中ではX印で示されている)をサンプリング点303と呼び、1対の光ファイバで検出された血液量変化の位置情報を与える点としている。   FIG. 3 shows an arrangement position 301 (indicated by white circles) of the optical fiber holder 107A connected to the light irradiator 103 and an arrangement position 302 (shown in the figure) of the optical fiber holder 107B connected to the photodetector 105. (Black circle) of FIG. These irradiation / detection holders are spatially arranged alternately at intervals of about 30 mm. According to FIG. 2, the thickness of the shape 210 of the optical path is determined by the arrangement position 301 of the optical fiber holder 107 </ b> A connected to the light irradiator 103 and the arrangement position 302 of the optical fiber holder 107 </ b> B connected to the photodetector 105. It is the maximum at a position 303 immediately below the midpoint. For this reason, it is known that the sensitivity to changes in blood volume is maximized at this midpoint. Therefore, this midpoint (indicated by an X in the figure) is called a sampling point 303, which is a point that gives positional information of blood volume changes detected by a pair of optical fibers.

図3では、光照射器13へ接続した光ファイバホルダ107Aの配置位置301、光検出器105へ接続した光ファイバホルダ107Bの配置位置302およびサンプリング点303を、代表する2つの配置位置および1つのサンプリング点についてのみ参照符号を付した。他のホルダの配置位置およびサンプリング点も同じ白丸または黒丸およびX記号の表示で示したことから分かるように、図3の例では、8個の入力器と8個の検出器によって、24個のサンプリング点が存在する。この24個のサンプリング点の情報を用いて、図4に例示するような脳活動の可視化が可能になっている。   In FIG. 3, the arrangement position 301 of the optical fiber holder 107A connected to the light irradiator 13, the arrangement position 302 of the optical fiber holder 107B connected to the photodetector 105, and the sampling point 303 are represented by two representative arrangement positions and one Only the sampling points are provided with reference numerals. As can be seen from the fact that the positions and sampling points of the other holders are also indicated by the same white circles or black circles and the display of the X symbol, in the example of FIG. 3, 24 inputs are provided by 8 inputs and 8 detectors. Sampling points exist. Using the information of the 24 sampling points, it is possible to visualize the brain activity as illustrated in FIG.

図4では、各サンプリング点での血液量変化を空間的に補間して得たトポグラフィ画像401の一例を示している。この画像は、ある時刻での血液量変化の空間的な分布を得ることも可能であるし、また、脳活動期間中の血液量変化の平均値を画像化することも可能である。図4が示すように、生体光計測装置を用いると、脳の活動を計測することが可能になる。また、この画像は、図に示したように、照射用光ファイバホルダ107Aの配置位置301、検出用光ファイバホルダ107Bの配置位置302およびサンプリング点303の分布を重ね合わせて表示することが出来る。このため、局在化した脳活動の位置の推定も可能になっている。   FIG. 4 shows an example of a topography image 401 obtained by spatially interpolating changes in blood volume at each sampling point. With this image, it is possible to obtain a spatial distribution of changes in blood volume at a certain time, and it is also possible to image an average value of changes in blood volume during the brain activity period. As shown in FIG. 4, it is possible to measure brain activity by using the biological light measurement device. Further, as shown in the figure, this image can be displayed by superimposing the distribution of the arrangement position 301 of the irradiation optical fiber holder 107A, the arrangement position 302 of the detection optical fiber holder 107B, and the sampling points 303. This makes it possible to estimate the position of localized brain activity.

この計測法では、微弱な光を用いてヘルメットを装着するだけで計測が可能であるため、安全性が高く自由な姿勢で検査に臨むことが可能である。このため、乳幼児から老人まで、幅広い年齢層のヒトを計測することが可能である。例えば、従来から計測に使用されてきた磁気共鳴描画装置や陽電子放出型断層撮影では、計測中身動きをすることが許されず、特に、乳幼児の場合、動きを抑制するためには、麻酔や鎮静剤が投与される場合もあった。このような場合、正確な脳機能の活性化を計測することは困難であった。また、子供や高齢者に関わらず一般的に、被験者は閉ざされた空間で身動きが取れない状態で検査を受けるため、精神的にも通常の生活条件とは異なることが問題であった。脳波の計測は比較的安定して取れるが、電磁波の影響を強く受けるので、安定した動作のために電磁シールドを必要とする場合などがある。これに対して、光を用いた脳機能計測装置では、自由な環境や自由な姿勢で検査が可能であるため、従来の脳機能計測装置では計測が困難であった状況での使用が可能となる。   In this measurement method, measurement can be performed simply by wearing a helmet using weak light. Therefore, it is possible to perform inspection with high safety and a free posture. For this reason, it is possible to measure a wide range of people from infants to elderly people. For example, in magnetic resonance imaging devices and positron emission tomography that have been used for measurement in the past, it is not allowed to move inside the measurement, especially in the case of infants, in order to suppress movement, anesthesia and sedatives Was sometimes administered. In such a case, it was difficult to accurately measure brain function activation. In addition, regardless of children or the elderly, the subject is generally inspected in a closed space and cannot move, so the problem is that it is mentally different from normal living conditions. Although the measurement of brain waves can be taken relatively stably, it is strongly affected by electromagnetic waves, so there are cases where an electromagnetic shield is required for stable operation. In contrast, a brain function measurement device that uses light can be tested in a free environment and in a free posture, so it can be used in situations where measurement was difficult with conventional brain function measurement devices. Become.

特許文献3や特許文献4では、このような大脳皮質の血液量の変動量を赤外線で計測する技法を利用して、外部機器の制御を行う例が提案されている。この特許では、人間の脳が、ブロードマンの脳地図で表されるように、異なる細胞構築で領域分割されており、さらに、各領域は異なる機能を分担しているという知識を利用している。例えば、脳を横から見ると、自発的な運動(手、指、足等)に関与する領域は頂上部、感覚、視覚等に関与する領域は後頭部、言語に関与する領域は左半分の所定部で、それぞれ分担している。
このような計測装置の機能を用いて、神経の疾病によって筋肉が動かせなくなった患者のための意思伝達装置が発表されている(非特許文献3、特許文献5)。これは額部の二箇所に対して近赤外分光法を適用することで、頭の中で、計算処理や歌を歌うなどの行為を行った時の脳血量の変動を測るものである。
Patent Documents 3 and 4 propose examples in which an external device is controlled using a technique for measuring the amount of blood volume fluctuation in the cerebral cortex using infrared rays. This patent uses the knowledge that the human brain is divided into different cell structures, as represented by the Broadman brain map, and that each region shares different functions. . For example, when looking at the brain from the side, the area related to spontaneous movement (hands, fingers, feet, etc.) is the top, the area related to sensation, vision, etc. is the back of the head, and the area related to language is the left half. Each division is responsible.
An intention communication device for patients whose muscles cannot be moved due to a neurological disease using the function of such a measuring device has been announced (Non-patent Documents 3 and 5). By applying near infrared spectroscopy to two parts of the forehead, it measures the change in cerebral blood volume when performing calculations, singing, etc. in the head. .

複数チャンネルのデータから条件判断を導く場合に用いられる手法に、サポートベクターマシンと呼ばれる手法がある。非特許文献4で述べられている内容に基づいて、その手法の概説を説明する。d次元の情報を持つベクトルxと、その学習規則を与える値{+1,−1}を示す離散値yの組み合わせで表現される学習データ(x,y)がN個存在するものとする。図5にその模式図を示す。図5で白丸記号として示されるデータ501はy=1として示される学習状態1を表し、黒丸記号のデータ502はy=−1として示される学習状態2を表す。   There is a method called a support vector machine as a method used for deriving condition judgment from data of a plurality of channels. Based on the contents described in Non-Patent Document 4, an outline of the method will be described. It is assumed that there are N pieces of learning data (x, y) expressed by a combination of a vector x having d-dimensional information and a discrete value y indicating values {+1, −1} giving the learning rule. FIG. 5 shows a schematic diagram thereof. Data 501 shown as a white circle symbol in FIG. 5 represents a learning state 1 shown as y = 1, and data 502 shown as a black circle symbol represents a learning state 2 shown as y = -1.

この時、学習データ1と2を分離するために、図5のD‐1次元の超平面503(数1で表現)を、数2に示す最適化条件を満たすように定義する。
これは、二つの群からの距離が等しくなるように超平面を定義することに等しい。また、D‐1次元の平面で分離することが不可能な場合、正のスラッグ変数を用いて以下のように定義する(ソフトマージン)。また、変換公式によって新たなヒルベルト空間を作成し、その空間でサボートベクターマシンの最適化を行う方法が知られている(カーネルトリック)。
At this time, in order to separate the learning data 1 and 2, the D-1 dimensional hyperplane 503 (expressed by Equation 1) in FIG. 5 is defined so as to satisfy the optimization condition shown in Equation 2.
This is equivalent to defining the hyperplane so that the distances from the two groups are equal. In addition, when it is impossible to separate on a D-1 dimensional plane, it is defined as follows using a positive slug variable (soft margin). Also, a method is known in which a new Hilbert space is created by a conversion formula and the support vector machine is optimized in that space (kernel trick).

特許文献1、2が開示しているように、ヘルメットにより多くのセンサを設置することで、計測できる脳活動の種類が増える。このため、機器制御の自由度が上がる可能性が生まれる。だが、ヘルメットに多くのセンサを設置した場合、一回の装着で全部のセンサが常に正常に機能するとは限らない。例えば、光ケーブルの接触先端部分108に髪の毛が挟まった場合に光のスペクトルがその箇所で大幅に吸収されるため、検出器の精度が著しく悪化する場合がある。これを避けるため、特許文献5では、各センサについての光強度を確認しながらヘルメットの装着を行う方法が提案されている。   As disclosed in Patent Documents 1 and 2, the number of types of brain activity that can be measured increases by installing more sensors in the helmet. For this reason, there is a possibility that the degree of freedom of device control is increased. However, when many sensors are installed in a helmet, all sensors do not always function normally with a single installation. For example, when the hair is caught in the contact tip portion 108 of the optical cable, the light spectrum is significantly absorbed at that location, and the accuracy of the detector may be significantly deteriorated. In order to avoid this, Patent Document 5 proposes a method of wearing a helmet while checking the light intensity of each sensor.

このように、多様な用途で効果的に活用できることが期待される生体光計測装置を、外部機器の駆動やコミュニケーションの用途に供しようと考えた場合に最も重要な課題の一つは、計測と分析手段の安定性である。ヘルメットが手軽に装着でき、且つ短時間に計測ができるようにすることで、利用者に負担をかけない装置となる。   In this way, one of the most important issues when considering the biological optical measurement device that is expected to be effectively used in various applications is to drive external devices and use in communication. The stability of the analytical means. By allowing the helmet to be easily worn and measuring in a short time, the apparatus does not place a burden on the user.

しかし、この信号を用いて機器の制御を試みる場合、人間の脳の構造とそこから得られる反応信号には個人差やセンサ設置の不定性の要素が大きいため、この点が同技術の実用化に際しての主要な課題となる。この個人差の例としては、皮膚の厚み、髪の毛の配置、頭蓋骨の物理的な大きさと形状の違い、脳の機能局在する領域の境界の幾何的な誤差、血管の構造の違いとそれに基づく血液量変動での反応の違い、などがある。そしてまた、同じ計算という同じ課題を同じように与えられたとしても、視覚的に解を出す人間もいれば音韻で解を求める人間もいる。このため、任意の人間に常に適応する反応パターンを、画一的な一般論としてあらかじめ決定することには、困難な場合が少なからず存在する。   However, when attempting to control equipment using this signal, the human brain structure and the response signal obtained from it are subject to individual differences and uncertainties in sensor installation. This is a major issue. Examples of this individual difference include skin thickness, hair arrangement, physical size and shape of the skull, geometric errors in the boundaries of the brain's functionally localized areas, and differences in blood vessel structure There are differences in response due to fluctuations in blood volume. Moreover, even if the same task of the same calculation is given in the same way, there are people who visually solve the solution and others who seek the solution by phoneme. For this reason, there are not a few cases where it is difficult to predetermine a reaction pattern that always adapts to any human being as a generalized theory.

そして、図1に示したヘルメット12の設置状態によっては、計測箇所の一部が上手く計測できない場合が存在する。これは前述のように、髪の毛の多い箇所にホルダ17A、17Bが位置して光ファイバの接触部が付けられている場合に顕著である。また、ヘルメット12の再装着に伴って、設置される光源のセンサの位置が微妙に異なったり、ヘルメット12が頭皮を圧迫する度合いが異なったりすることで、信号の制度に変化が生じる場合がある。さらに、使用者の姿勢などによって、脳の血量の変動に対する脈の影響量が変動する場合も存在する。   And depending on the installation state of the helmet 12 shown in FIG. 1, there exists a case where a part of measurement location cannot measure well. As described above, this is conspicuous when the holders 17A and 17B are located in a place where there is a lot of hair and the contact portion of the optical fiber is attached. Further, as the helmet 12 is remounted, the signal system may change due to a slightly different position of the sensor of the light source to be installed or the degree to which the helmet 12 presses the scalp. . Furthermore, there is a case where the influence amount of the pulse with respect to the change in the blood volume of the brain varies depending on the posture of the user.

また、計測地点毎に、頭蓋骨の厚みや皮膚の色素状態などの条件が異なるため、表皮と骨などの領域で光を吸収する度合いは、個人ごと・計測場所ごとに異なる。この理由から、近赤外分光法では、計測点毎で観測されるデータを絶対値として直接に比較することができない。光計測の運用においては、実際に計測機器を設置した状態で、測定開始時点のある瞬間をゼロ点に定め、その状態からの相対的な変動値を計測結果の情報として扱われている。この問題も関連し、人体内部を通過する光経路の完全な計測・推定が出来ない現在の技術では、計測内容の絶対値のみに基づいてヘルメットの設置状態を安定して判断することには、困難がつきまとう。   In addition, since the conditions such as the thickness of the skull and the pigment state of the skin are different at each measurement point, the degree of light absorption in the areas such as the epidermis and the bone varies from person to person and from place to place. For this reason, near-infrared spectroscopy cannot directly compare data observed at each measurement point as an absolute value. In the operation of optical measurement, in a state where a measurement device is actually installed, a certain moment at the start of measurement is set as a zero point, and a relative variation value from that state is handled as information of a measurement result. In connection with this problem, the current technology that cannot completely measure and estimate the optical path that passes through the human body, it is necessary to stably determine the installation state of the helmet based only on the absolute value of the measurement contents. There will be difficulties.

これらの理由から、計測の測定精度や誤差に相当する要素には、個人ごと、測定ごとのばらつきが生じる。例えば、ある計測地点において、脳の機能局在性に基づいた理由で反応が出やすいという要素と、反応を検出できる精度の再現性が高いという要素は、互いに異なる場合がある。即ち、本来は正しく計測できると強い反応を示すが光入出力器具(図1の光ファイバホルダ107)の設置状態が悪くなりやすいという理由で計測しにくいことが多い計測箇所や、計測された反応は弱いが装置17の設置状態が常に安定している計測箇所など、異なる理由から計測の反復に対する安定性が揺らぎを見せる状況が数多く存在する。このような計測箇所ごとに異なる信頼性のばらつきが存在するため、サポートベクターマシン等の既存手法を画一的に単純に適用するだけでは条件判断の安定性を保持することが難しくなる。   For these reasons, factors corresponding to the measurement accuracy and error of measurement vary from individual to individual and from measurement to measurement. For example, an element that a reaction is likely to occur for a reason based on the functional localization of the brain at a certain measurement point may be different from an element that has a high reproducibility of accuracy for detecting the reaction. In other words, it shows a strong response when it can be measured correctly, but it is often difficult to measure because the installation state of the optical input / output device (the optical fiber holder 107 in FIG. 1) tends to deteriorate, and the measured response. There are many situations in which the stability of repeated measurement shows fluctuations due to different reasons, such as measurement locations where the installation state of the device 17 is always stable. Since there are variations in reliability that differ from one measurement location to another, it is difficult to maintain the stability of condition determination simply by applying an existing method such as a support vector machine simply and uniformly.

本発明の目的は、計測の反復に対する安定性を向上させて信頼性を高めた脳機能計測による外部環境制御装置を実現することにある。   An object of the present invention is to realize an external environment control device using brain function measurement with improved reliability by improving measurement stability.

本発明では、各センサから採取される情報を、個別の情報処理モジュールに分割してそれぞれ独立に処理し、それぞれが機能局在性や脈拍情報を反映した情報を独立に反映させる。その情報処理モジュールの要素ごとに、ヘルメット設置毎の信頼精度の反復度合いや、被験者の内省活動にあわせた反応の信号検出の強度を分析、分類、管理して、個人毎の情報をメディアに追記的に保存する。このことで一箇所のセンサの不具合をシステム全体に波及させることを避け、各モジュールが機能しているかどうかのチェック結果から導き出される信頼精度にあわせて、当該モジュールが最終的な情報出力に寄与する重み付けを切り替える、または利用者にタスクの変更を促す指示を与える。   In the present invention, information collected from each sensor is divided into individual information processing modules and processed independently, and each reflects information reflecting functional localization and pulse information independently. Analyze, classify, and manage the degree of reliability accuracy repeatability for each helmet setting and the intensity of signal detection for response to the subject's introspection activities for each element of the information processing module. Save additionally. This avoids the failure of one sensor from spreading to the entire system, and the module contributes to the final information output in accordance with the reliability accuracy derived from the check result of whether each module is functioning. Change weights or give instructions to users to change tasks.

本発明によれば、過去の履歴に比べて適切な信号が取れなかった場合にも、課題の実行にともなう生体反応の問題によるものか装置の接触に基づくものかを分離でき、センサの接触を修正する箇所と、その環境下で命令として行うべき適切な内省課題の選択が行えるようになる。また、個人の実行履歴に基づいた学習パラメータを機能要素の成分毎に長期的に保持、成長させることによって、より安定した挙動を導くインタフェース環境を作成し、別の計測環境にも引き継ぐことが出来るようになる。   According to the present invention, even when an appropriate signal is not obtained compared with the past history, it is possible to separate whether the problem is due to a biological reaction problem associated with the execution of the task or based on the contact of the device. It becomes possible to select a part to be corrected and an appropriate reflection task to be performed as an instruction under the environment. In addition, it is possible to create an interface environment that leads to more stable behavior by holding and growing learning parameters based on the individual's execution history for each component of the functional element for a long period of time, and it can be transferred to another measurement environment. It becomes like this.

以下、本発明に基づく生体光計測に基づく外部制御機器の実施例について図面を参照して詳細に説明する。   Embodiments of an external control device based on biological light measurement according to the present invention will be described below in detail with reference to the drawings.

図6は、本発明による生体光計測に基づく外部制御機器の実施例1を示す模式図である。図1に示される構成要素と同一機能には、同じ参照符号を付してある。実施例1の計算処理機構のシステムは、入力部112、情報処理部601、出力部602の各情報処理機器から構成されている。この情報処理機器はお互いにネットワーク上に連結されており、入出力結果をやり取りすることができるものとする。このシステムの情報処理機器には、広く知られるPC(パーソナルコンピュータ。パソコン)や組み込み式のマイコンモジュールなどの汎用計算機器を使用することが出来る。   FIG. 6 is a schematic diagram showing Example 1 of an external control device based on biological light measurement according to the present invention. The same functions as those shown in FIG. 1 are denoted by the same reference numerals. The calculation processing mechanism system according to the first embodiment includes information processing devices such as an input unit 112, an information processing unit 601, and an output unit 602. It is assumed that the information processing devices are connected to each other on a network and can exchange input / output results. As information processing equipment of this system, general-purpose computing equipment such as a well-known PC (personal computer, personal computer) or built-in microcomputer module can be used.

また、入力部112、情報処理部601、出力部(出力モジュール)602の処理を同一の情報処理機器の中でソフトウェアモジュールとして実装することもできるが、本実施例では機能を解説するためと説明を容易にするために、個別の情報処理機器の形態で示す。また出力部(出力モジュール)602の結果を被験者に対して行ったり、情報処理部601からの要請を被験者に提示したりするための画面モニタ603が、被験者101の前に配置されている。被験者101の計測履歴の内容を記録するメディア605と、その内容を情報処理部601に伝えるための読み取り器604が配置されている。   Further, the processing of the input unit 112, the information processing unit 601, and the output unit (output module) 602 can be implemented as a software module in the same information processing device. In order to facilitate this, it is shown in the form of an individual information processing device. Further, a screen monitor 603 for performing the result of the output unit (output module) 602 on the subject or presenting a request from the information processing unit 601 to the subject is disposed in front of the subject 101. A medium 605 for recording the contents of the measurement history of the subject 101 and a reader 604 for transmitting the contents to the information processing unit 601 are arranged.

また、メディア608には、情報処理部601で使用するモジュールの組み合わせ方の情報が示されており、情報処理機器601の起動時に読み取り器607からこの情報が読み込まれる。またこの情報は手動入力インタフェース606によって変更することもできる。   In addition, information on how to combine modules used in the information processing unit 601 is shown on the medium 608, and this information is read from the reader 607 when the information processing device 601 is activated. This information can also be changed by the manual input interface 606.

実施例1の装置は、学習フェーズモードとリアルタイム操作フェーズモードという、二つのモードを切り替えて動作する。本実施例の機器全体の運用手順を、図7のフローチャートを用いて記述する。計測フェーズモードでは、本装置は、被験者が与えられた課題を行っているときの脳血量の状態を計測してリアルタイム操作モードで用いるためのパラメータを生成する。リアルタイム操作モードでは、計測された脳血量の状態と学習フェーズモードで作られたパラメータを用いて、現在被験者がおこなっている課題を類推して、被験者に提示している環境への操作を実行する。被験者はこの環境操作の状態を把握しながら課題を切り替えることになり、目的となる行為を実行する。リアルタイム操作モードにおいても、この行為実行のパフォーマンスの度合いに応じて、パラメータを再調整する。以下、それぞれのモードでの機器の挙動について記載する。   The apparatus according to the first embodiment operates by switching between two modes of a learning phase mode and a real-time operation phase mode. The operation procedure of the entire apparatus of the present embodiment will be described using the flowchart of FIG. In the measurement phase mode, this apparatus measures the state of cerebral blood volume when the subject is performing a given task and generates parameters for use in the real-time operation mode. In the real-time operation mode, using the measured cerebral blood volume state and the parameters created in the learning phase mode, the task being performed by the subject is inferred and the operation to the environment presented to the subject is executed. To do. The subject switches the task while grasping the state of the environmental operation, and performs the intended action. Even in the real-time operation mode, the parameters are readjusted according to the performance level of this action execution. The following describes the behavior of the device in each mode.

実施例1の運用を開始し(工程701)、利用者101がセンサである光計測装置のヘルメット107を頭部に設置する(工程702)。その後、学習フェーズモード(工程703)で各エージェントの動作状態を確認し、現在の反応の達成度合いからエージェントの反応量を類推する(工程704)。その類推結果に応じて、使用タスクの変更または光ファイバホルダ(プローブホルダーとも称する)107を再設置する勧告を利用者に提示する(工程705)。利用者101は、これらの提示に合わせて光プローブホルダー107の再設置を行うか、使用するタスクを決定して、リアルタイム操作フェーズモード(工程706)に移る。それぞれの工程の具体的内容は以下で解説する。   The operation of the first embodiment is started (step 701), and the user 101 installs the helmet 107 of the optical measuring device as a sensor on the head (step 702). Thereafter, the operation state of each agent is confirmed in the learning phase mode (step 703), and the amount of agent reaction is estimated from the degree of achievement of the current response (step 704). In accordance with the analogy result, the user is advised to change the use task or to re-install the optical fiber holder (also referred to as a probe holder) 107 (step 705). The user 101 re-installs the optical probe holder 107 in accordance with these presentations or determines a task to be used, and moves to the real-time operation phase mode (step 706). The specific contents of each process are explained below.

情報処理装置601には、光プローブホルダー107から信号として送られてくる脳の各部位における血量の変動を測定した値を入力として、出力モジュール602の入力値に変換するアルゴリズム部分が、プログラムとして保存されている。計測フェーズモードにおいてパラメータ調整の処理が行われるフィードバック動作のプログラムと、リアルタイム操作フェーズモードでは出力モジュール602で使用されるプログラムがあり、計算モジュールがこの二種類のモードで共有して使われる。まず、この情報処理部601内で行われるこの計算処理アルゴリズムの内容を記述する。   In the information processing apparatus 601, an algorithm part for converting a blood volume variation measured in each part of the brain sent as a signal from the optical probe holder 107 into an input value of the output module 602 is input as a program. Saved. There are a feedback operation program in which parameter adjustment processing is performed in the measurement phase mode, and a program used in the output module 602 in the real-time operation phase mode, and the calculation module is shared and used in these two modes. First, the contents of the calculation processing algorithm performed in the information processing unit 601 will be described.

図8は、情報処理を行うモジュールの構造を説明するシステム構成図であり、上記した情報処理プロセスを構成するモジュールを図式的に示したものである。このシステムは、
三つの構成要素から構成されている。モジュール801は、入力部112から送られてくる情報から、各計測点の計測データを受け取る。また、その過去の値を保持する機能を有する。以降、このモジュール801を「サンプラ」と呼ぶ。このサンプラに蓄えられた情報をフィルタリング処理する部分が、分析部分803、804である。
FIG. 8 is a system configuration diagram illustrating the structure of a module that performs information processing, and schematically illustrates the modules that configure the information processing process described above. This system
It consists of three components. The module 801 receives measurement data at each measurement point from information sent from the input unit 112. Also, it has a function of holding the past value. Hereinafter, this module 801 is referred to as a “sampler”. The parts for filtering the information stored in the sampler are analysis parts 803 and 804.

この図8で「Agent」として記載された各モジュール(802,803,804,805)は、後に述べる様々なフィルタ部品としてプログラム上に実装されており、以後、これを「エージェント」と呼ぶ。さらに、統合部分805は、各のエージェントの出力情報を重み付け線形和によって統合して、外部出力602に送信したり、パラメータ調整の計算に用いたりする。以後、この部分を「シンセサイザ」と呼ぶ。全体の接続構造は多階層のニューラルネットワークの様な木構造をとっており、各エージェントモジュールの入出力は時系列データであり、脳血量の生体計測に特化した機能のフィルタリング処理と、汎用のフィルタ演算処理から構成されている。 Each module (802, 803, 804, 805) described as “Agent” in FIG. 8 is mounted on the program as various filter components to be described later, and is hereinafter referred to as “agent”. Further, the integration part 805 integrates the output information of each agent by weighted linear sum and transmits it to the external output 602 or uses it for calculation of parameter adjustment. Hereinafter, this part is called a “synthesizer”. The overall connection structure is a tree structure like a multi-level neural network, and the input and output of each agent module is time-series data, filtering functions specialized for biological measurement of cerebral blood volume, and general-purpose It consists of the filter calculation process.

まず、フィルタ処理を行うエージェントモジュールについて述べる。エージェント802,803,804,805は、リアルタイムに変化する時系列情報を受け取り、その情報を一定のアルゴリズムで変換して、変換された時系列情報を出力する単位モジュールである。これらエージェント802,803,804,805は、リアルタイムに更新される時系列情報を入力とし、処理された結果を常時出力する。また、これらのモジュールは、備え付けの定数を持つことができ、その値をシンセサイザ部分からのフィードバックや手動入力インタフェース606からの手動入力によって変更/調整することにより最適化処理を行う。   First, an agent module that performs filter processing will be described. The agents 802, 803, 804, and 805 are unit modules that receive time-series information that changes in real time, convert the information using a certain algorithm, and output the converted time-series information. These agents 802, 803, 804, and 805 have time series information updated in real time as input, and always output the processed results. These modules can have built-in constants, and the values are changed / adjusted by feedback from the synthesizer part or manual input from the manual input interface 606 to perform optimization processing.

エージェントは、機能によって一次エージェント802、二次エージェント803、三次エージェント804と擬似エージェント805のモジュールに分類して管理される。ある計測点の血量変動の時系列情報を直接に処理して出力するモジュールを、一次エージェントと呼ぶ。一次エージェント802は、酸素化ヘモグロビンの血量、脱酸素化ヘモグロビンの血量、合計のヘモグロビンの血量、酸素化ヘモグロビンの血量から脱酸素化ヘモグロビンの血量を引いた値、のそれぞれに対して作成することが出来る。   Agents are managed by being classified into modules of a primary agent 802, a secondary agent 803, a tertiary agent 804, and a pseudo agent 805 according to functions. A module that directly processes and outputs time-series information of blood volume fluctuation at a certain measurement point is called a primary agent. The primary agent 802 calculates the blood volume of oxygenated hemoglobin, the blood volume of deoxygenated hemoglobin, the total blood volume of hemoglobin, and the value obtained by subtracting the blood volume of deoxygenated hemoglobin from the blood volume of oxygenated hemoglobin. Can be created.

また、複数の一次エージェントが出す結果を取り込み、与えられたアルゴリズムに基づいて処理結果を出力するモジュールを、二次エージェント803と呼ぶ。二次エージェントは、複数の別のエージェントからの出力を、自らの入力として受け取り処理する。   A module that takes in results output by a plurality of primary agents and outputs processing results based on a given algorithm is referred to as a secondary agent 803. The secondary agent receives and processes the output from a plurality of other agents as its own input.

また、シンセサイザから得られる学習パラメータを反映して、一次、二次のエージェントの結果を非線形に変換し、利用者の内省状態の変化に対応した反応が分離しやすくなるように加工するモジュールを、三次エージェント804と呼ぶ。   In addition, a module that converts learning results obtained from the synthesizer into non-linear conversion of the results of the primary and secondary agents so that the reaction corresponding to changes in the user's introspection state can be easily separated. This is called a tertiary agent 804.

この他に、直接にサンプラに蓄えられた脳血量からのデータを反映していないが、演算上擬似的にエージェントモジュールとして用いることができるモジュールを擬似エージェントモジュール805とする。   In addition to this, a module that does not reflect the data from the cerebral blood volume directly stored in the sampler but can be used as an agent module in a pseudo manner in calculation is referred to as a pseudo agent module 805.

一次エージェントのモジュールとして使用するアルゴリズムの例を、以下に列挙する。   Examples of algorithms used as primary agent modules are listed below.

周波数カットエージェント:高周波の成分と、低周波の成分をカットすることで、対象となる周波数の成分のみの情報を抜き出して出力とするモジュールである。   Frequency cut agent: This is a module that extracts and outputs only information about the target frequency component by cutting high frequency components and low frequency components.

移動平均エージェント:長周期の移動平均と、短周期の移動平均の差を取った結果を出力するモジュールである。   Moving average agent: A module that outputs the difference between the long-period moving average and the short-period moving average.

指数移動平均エージェント:長周期の指数移動平均と、短周期の指数移動平均の差を取った結果を出力するモジュールである。   Exponential Moving Average Agent: A module that outputs the result of taking the difference between the long-term exponential moving average and the short-period exponential moving average.

また、脳反応の血量情報と同期して入力される外部からの情報によって駆動する擬似エージェント805が設置されている。これは脳血量の反応以外を参照するが、一次モジュールと同様の手順で処理されるモジュールである。これらのモジュールが出力する値は、一次エージェントと同じように二次以降のモジュールへの入力として用いることができる。この例を、以下に列挙する。   In addition, a pseudo agent 805 that is driven by external information input in synchronization with blood volume information of the brain reaction is installed. This is a module that is processed in the same procedure as the primary module, except for the response of cerebral blood volume. The values output by these modules can be used as inputs to modules subsequent to the secondary as with the primary agent. Examples of this are listed below.

刺激提示エージェント:外部の刺激提示装置において、課題開始の時間から1になり、課題終了と共に0になるという出力の挙動をするエージェントである。   Stimulus presentation agent: An agent that behaves as an output in an external stimulus presentation device, which becomes 1 from the task start time and becomes 0 at the end of the task.

外部脈派エージェント:脳以外の位置から脈の情報を採取して、その結果を反映するエージェントである。   External pulse agent: An agent that collects pulse information from locations other than the brain and reflects the results.

運動加速度エージェント:利用者の体に付けられた加速度計測器の絶対値を出力とするエージェントである。   Motion acceleration agent: An agent that outputs the absolute value of the acceleration measuring instrument attached to the user's body.

二次エージェントのモジュールは、一次エージェントや擬似エージェントの出力を入力として受け取り、変換する。この二次エージェントのモジュールに使用することが出来るアルゴリズムの例を、以下に列挙する。   The secondary agent module receives and converts the output of the primary agent or pseudo agent as input. Examples of algorithms that can be used for this secondary agent module are listed below.

差分エージェント:ある一次エージェントの出力と、そのエージェントが一定時間前に出力した値を比較して、差を出力とするモジュールである。   Difference agent: A module that compares the output of a certain primary agent with the value output by that agent a certain time ago and outputs the difference.

左右差エージェント:ある計測位置での一次エージェントの出力に対して、脳の反対に位置する計測位置でのエージェントの出力との差を取って、出力とするモジュールである。   Left-right difference agent: This is a module that takes the difference between the output of the primary agent at a certain measurement position and the output of the agent at the measurement position located opposite to the brain as an output.

平均差エージェント:ある計測位置での一次エージェントの出力に対して、全計測位置でのエージェントの出力平均との差を取って、出力とするモジュールである。   Average difference agent: This is a module that takes the difference between the output of the primary agent at a certain measurement position and the average of the output of the agent at all measurement positions and outputs it.

発散エージェント:ある計測位置での一次エージェントの出力に対して、その周囲に配置された計測位置でのエージェントの出力平均との差を取って、出力とするモジュールである。   Divergent agent: This is a module that takes the difference between the output of the primary agent at a certain measurement position and the average of the output of the agent at the measurement positions arranged around it, and outputs it.

周波数解析エージェント:計測されたエージェントの出力から、周波数解析によって特定の成分の絶対量を抽出した時系列を、出力とするモジュールである。   Frequency analysis agent: A module that outputs, as an output, a time series obtained by extracting the absolute amount of a specific component from a measured agent output by frequency analysis.

脈派成分エージェント:計測されたエージェントの出力から、周波数解析によって脈派とみられる成分を抽出してその時系列を、出力とするモジュールである。   Pulse group component agent: This is a module that extracts a component that appears to be a pulse group by frequency analysis from the output of the measured agent, and outputs the time series.

三次エージェントのモジュールに使用することが出来るアルゴリズムの例を、以下に説明する。   Examples of algorithms that can be used for the tertiary agent module are described below.

機能局在性エージェント:脳の機能局在性部所毎に、その機能範囲をカバーするチャンネルに対応するエージェントを集め、後述の課題実行で得られる反応情報についてサポートベクターマシンなどの多次元情報を処理する機構を用いて重み付けを行って、その特徴を抽出するエージェントである。ブロードマンの脳地図においてN野をカバーする範囲として測定領域を定義したり、脳波計測において用いられる10/20法などをはじめとする別の脳機能マッピングの定式化を用いたり、または領域から推定される機能に応じて、例えば標準的な頭部構造の90%において言語野をカバーするエージェント、などのように定義する。
機能に応じてエージェントの対象領域を特定する場合、被験者毎に脳機能と頭形状に分散があり、個々人の頭の大きさが異なるなどの個人差要素があるため、個人差を含めてその領域全体をカバーする領域のチャンネルを選ぶ。ある被験者にヘルメットを設置して計測した場合、言語野機能の領域が領域R1によって含まれるとする。ただし、領域R1、10‐20法で推測される平均的な言語領域の付近にあり、言語関連のタスクに強い連関を見せる計測点の集合であるものとする。また、別の被験者にプローブ17を設置した場合には、言語野機能の領域は、領域R2によって含まれるとする。この場合、領域R1と領域R2が一致するとは限らない。このような場合に備え、事前検査で多数の被験者に対して設置した場合の和集合で領域を定義し、その領域を機能局在性エージェントの初期値とする。
Functional localization agent: For each functional localization part of the brain, collect agents corresponding to the channels that cover the functional range, and provide multidimensional information such as support vector machines for reaction information obtained by executing the tasks described later. It is an agent that performs weighting using a processing mechanism and extracts its features. Define a measurement area as a range that covers the N field in Broadman's brain map, use another brain function mapping formulation such as the 10/20 method used in EEG measurement, or estimate from the area For example, an agent that covers a language field in 90% of a standard head structure is defined according to a function to be performed.
When specifying the target area of the agent according to the function, there are individual differences such as the brain function and head shape varies for each subject, and the individual head size is different. Select a channel that covers the whole area. When the measurement is performed with a helmet placed on a subject, it is assumed that the language area function region is included by the region R1. However, it is assumed that it is a set of measurement points that are in the vicinity of an average language region estimated by the region R1, 10-20 method and show strong association with language-related tasks. Further, when the probe 17 is installed in another subject, the language area function region is assumed to be included by the region R2. In this case, the region R1 and the region R2 do not always match. In preparation for such a case, a region is defined by a union set when it is installed for a large number of subjects in a preliminary examination, and the region is set as an initial value of the functional localization agent.

標準偏差による正規化エージェント:あるエージェントの出力に対して、移動平均と、移動標準偏差を常時計算し、現在の出力結果から移動平均を引いた値を移動標準偏差で割ることで、出力を正規化するモジュールである。   Normalized agent based on standard deviation: The output is normalized by constantly calculating the moving average and moving standard deviation for the output of an agent and dividing the current output result by subtracting the moving average by the moving standard deviation. This module

脈派による正規化エージェント:あるエージェントの出力に対して、脈派に相当する成分の振幅を常時計算し、その値で割ることで、出力を正規化するモジュールである。 Normalization agent by pulse group: This module normalizes the output by constantly calculating the amplitude of the component corresponding to the pulse group and dividing by the value for the output of a certain agent.

シグモイド変換エージェント:あるエージェントの出力に対して、数3のシグモイド変換の処理を適用することで、分離対象となる値域を強調して出力するモジュールである。
Sigmoid conversion agent: A module that emphasizes and outputs a range to be separated by applying the sigmoid conversion process of Equation 3 to the output of a certain agent.

ANDエージェント:二つのエージェント出力を受け取り、その積を出力するモジュールである。   AND agent: A module that receives two agent outputs and outputs the product.

最大値エージェントは、複数のエージェント出力を受け取り、その最大値を出力するモジュールである。   The maximum value agent is a module that receives a plurality of agent outputs and outputs the maximum value.

各エージェントモジュールは、逐次実行される静的なフィルタリング処理であり、個々のエージェントは入力に対して出力を作成する動作を繰り返すだけである。このフィルタリング処理の結果が、特定の活動と一致しているかどうかを評価計算し、その評価に合わせた重み付けなどの処理をシンセサイザ部分が行うことで、初めて内省活動の状態を推定するための特徴値に変換することができる。シンセサイザ部分は、合計M個の各エージェントに対して、M次元の重み付け値W=(w1,w2, ・・・,wM)を掛けて、その合計を求め、その結果を出力モジュールに対して出力する。この重み付けは、コマンドの例として用意されている内省タスクの数Cに合わせて、複数種類準備される。   Each agent module is a static filtering process executed sequentially, and each agent simply repeats the operation of creating an output for an input. Features for estimating the state of introspection activity for the first time by evaluating whether or not the result of this filtering process matches a specific activity, and performing synthesizer processing such as weighting according to the evaluation Can be converted to a value. The synthesizer part multiplies each of a total of M agents by an M-dimensional weighting value W = (w1, w2,..., WM) to obtain a total, and outputs the result to the output module. To do. A plurality of types of weighting are prepared in accordance with the number C of reflection tasks prepared as examples of commands.

この「重み付け値」は、メディア605に保存されており、起動時に装置601に読み出される。初期状態においては、平均的な利用者について学習したパラメータが保存されているが、活動とエージェント挙動の一致を測る操作が計測フェーズモードで行われるたびに、計測結果が蓄積され、その結果を用いることで、重み付けの値を個人の特性に合わせて改良し、またその時々のセッティングに合わせた重み付けパラメータの動的な作成を行うことができる。   This “weighting value” is stored in the medium 605 and read out to the device 601 at the time of activation. In the initial state, the parameters learned for the average user are stored, but each time an operation to measure the coincidence between the activity and the agent behavior is performed in the measurement phase mode, the measurement results are accumulated and used. Thus, the weighting value can be improved in accordance with the characteristics of the individual, and the weighting parameter can be dynamically created according to the setting at that time.

また、重み付けは、コマンドの例として用意されている内省タスクの数Cを超えて重み付けWのセットを用意することもできる。この様な例は、全エージェントの出力値を用いて、タスクとの適合率を計算した学習計算を行うと、変数の次元が多すぎて、妥当な計算時間内に学習計算の収束がなされない場合において有効である。この場合には、あらかじめ定められた部分集合毎に上述の学習の計算を行い、その学習結果をさらに足し合わせていくことで、より精度の高い学習モジュールを作成する事ができる。この重み付け値の合成のためには、ブースティングと呼ばれる機械学習の手法などで求めることが出来る。   In addition, the weighting can be provided as a set of weighting W exceeding the number C of reflection tasks prepared as examples of commands. In such an example, if the learning calculation is performed by calculating the relevance ratio with the task using the output values of all agents, the learning calculation will not converge within a reasonable calculation time because there are too many variable dimensions. It is effective in some cases. In this case, a learning module with higher accuracy can be created by performing the above-described learning calculation for each predetermined subset and further adding the learning results. In order to synthesize this weighting value, it can be obtained by a machine learning technique called boosting.

上記のアルゴリズムは、図6に出力部として示した情報処理機器602上のプログラムモジュールとして実行される。図9にこのようなプログラムを実行できる汎用コンピュータの構成例を示す。研鑽処理を行うCPU部分901とインタフェース部分902、長期のデータを蓄積するための外部記憶装置903(半導体メディア、光メディア、磁気メディアなど)、画像処理装置904、ローカルエリアのネットワーク(LAN)に接続する機器905、主記憶906がデータを媒介するバスによってつなげられており、起動時に外部記憶装置903から主記憶906に、オペレーティングシステム907、実行プログラム908、表示情報のコンテンツリソース909などを読み込む。画像出力装置からディスプレイモニタ910を操作したり、キーボードマウスなどに代表される一般的入力機器911と、外部メディアにアクセスする装置912などの実装について、広く使われている技術をそのまま用いることができる。また、ローカルエリアネットワーク913を解して、情報処理機器112や情報処理装置602とデータのやり取りを行う技術についても、広くしられている。図6の情報処理機器112,601,602はいずれもこのような機能を有した処理機器であるものとする。   The above algorithm is executed as a program module on the information processing device 602 shown as the output unit in FIG. FIG. 9 shows a configuration example of a general-purpose computer that can execute such a program. Connected to CPU portion 901 and interface portion 902 for performing polishing processing, external storage device 903 (semiconductor media, optical media, magnetic media, etc.) for storing long-term data, image processing device 904, local area network (LAN) A device 905 and a main memory 906 are connected by a bus that mediates data, and an operating system 907, an execution program 908, a content resource 909 of display information, and the like are read from the external storage device 903 to the main memory 906 at the time of activation. A widely used technique can be used as it is for mounting a general input device 911 typified by a keyboard mouse or the like and a device 912 for accessing an external medium, such as operating a display monitor 910 from an image output device. . A technique for exchanging data with the information processing device 112 and the information processing apparatus 602 via the local area network 913 is also widely used. The information processing devices 112, 601, and 602 in FIG. 6 are all processing devices having such functions.

図20は、図8に表現されたフィルタリング処理を呼び出すための、データ内容を記したブロック図である。これらのデータ内容は外部記憶903に蓄えられており、実行時には主記憶上906上に実行プログラム908の一部として読み込まれる。2001はモジュールの結合状態を管理するルーチンであり、図8で表現されるような木構造が保持されている。2002はモジュールプログラムの機能を呼び出すルーチンであり、このルーチンが定義する手順でモジュールプログラムの各API関数を呼び出すことで、フィルタリングの計算処理を行う。2003は前述の各モジュールプログラム自体である。このモジュールプログラムに、ルーチン2001が定義する入力関係を設定することで、実際の挙動が定まる。2004は前述の説明でシンセサイザ部として表現された、モジュール全体の出力を合計するルーチンであり、2005に保存された重み付けの情報に基づいて線形和を出すことによって、評価関数全体の出力結果を導く。   FIG. 20 is a block diagram showing data contents for calling the filtering processing expressed in FIG. These data contents are stored in the external storage 903, and are read as a part of the execution program 908 on the main storage 906 at the time of execution. Reference numeral 2001 denotes a routine for managing the module connection state, and holds a tree structure as shown in FIG. Reference numeral 2002 denotes a routine for calling the function of the module program, and filtering calculation processing is performed by calling each API function of the module program according to a procedure defined by the routine. Reference numeral 2003 denotes the above-described module programs themselves. By setting the input relationship defined by the routine 2001 in this module program, the actual behavior is determined. 2004 is a routine for summing the outputs of the entire module, expressed as a synthesizer unit in the above description, and the output result of the entire evaluation function is derived by calculating a linear sum based on the weighting information stored in 2005. .

図21は、図20のデータを用いて、現在の脳活動状態を表現する評価値を計算するアルゴリズムを表現したフロー図である。秒数回行われるデータのサンプリング毎にバッググラウンドで動作するスレッドプログラムが2101から呼びだされ、一連の分析処理を行う。2102はモジュールを2001に記録されたデータに基づいてエージェントモジュールとその入力部を呼び出す作業である。この際に、呼び出されたモジュールが1次エージェントであるならば、その入力には対応付けられたサンプラからの情報が用いられ、呼び出されたモジュールが2次または3次エージェントであるならば、その入力としては対応付けられた別のエージェントの出力情報が用いられる。それらの入力に対し、工程2002ではエージェント毎に定義されたアルゴリズムを呼び出して、出力の内容を計算する(工程2103)。この計算された内容は、工程2104でバッファに保存される。この保存された値は、別エージェントへの入力情報として用いられたり、シンセサイザ部から最終出力計算のために呼び出されたりする際に参照される。2102から2104までの処理を、2001に登録されたモジュール要素に対して繰り返し実行する(工程2105)。
ルーチン2004が、各エージェントモジュールの出力値に、データ2005から読み込んだ重み付けの値を掛けて、合計を出力する(工程2106、2107)。この結果を最新のバッファ領域に書き込んで、スレッド処理は終了する(工程2108)。後に述べる各評価の処理において、このバッファ領域に書き込まれた最新データが用いられる。
FIG. 21 is a flowchart representing an algorithm for calculating an evaluation value representing the current brain activity state using the data of FIG. A thread program operating in the background is called from 2101 every time data sampling is performed several times per second, and a series of analysis processing is performed. Reference numeral 2102 denotes an operation for calling an agent module and its input unit based on data recorded in the module 2001. At this time, if the called module is a primary agent, information from the associated sampler is used as its input, and if the called module is a secondary or tertiary agent, As input, output information of another associated agent is used. In response to these inputs, in step 2002, an algorithm defined for each agent is called to calculate the contents of the output (step 2103). This calculated content is stored in a buffer in step 2104. This stored value is used as input information to another agent, or is referred to when it is called from the synthesizer unit for final output calculation. The processing from 2102 to 2104 is repeatedly executed for the module elements registered in 2001 (step 2105).
The routine 2004 multiplies the output value of each agent module by the weighting value read from the data 2005 and outputs the sum (steps 2106 and 2107). This result is written into the latest buffer area, and the thread processing ends (step 2108). In each evaluation process described later, the latest data written in the buffer area is used.

この図21に記載された動作処理において、工程2106で読み込まれるデータ2005は、リアルタイム操作フェーズでの実行に当たっては、学習フェーズモードの調査結果に基づいて書き換え処理が行われる。この手順と手法については、後述の学習フェーズモードの動作手順に記載する。 In the operation process described in FIG. 21, the data 2005 read in step 2106 is rewritten based on the investigation result in the learning phase mode when executed in the real-time operation phase. This procedure and method will be described in the operation procedure of the learning phase mode described later.

以上のフィルタリング処理でデータサンプリング毎に作成されるリアルタイム評価関数を具体的に用いて、学習フェーズモードで実行される機器の挙動を続いて説明する。情報処理機器602に保存されているコンテンツデータには、利用者が心中で実行することができる内省課題を説明提示するコンテンツの例がC個含まれており、それぞれの内容を内省活動として実行することで「命令コマンド」としての機能を果たす。このコンテンツモジュールは、画面表示、音声表示、点字等の触覚表示のような手法で実装することができる。このようなタスクの例として、頭の中で歌を歌う、指を動かすイメージをする、引き算などの計算をする、頭の中で歌を歌う、しりとりをするなどの処理がある。
それぞれの課題を画面で提示するコンテンツの画面例を、図11に記載する。それぞれしりとり課題1101、暗算課題1102、指を動かすイメージの課題1103、歌を歌う課題1104の表示画面例である。また課題終了時刻に、1105のような終了の画面を提示することで、利用者に課題終了を促すことができる。
The behavior of the device executed in the learning phase mode will be described subsequently using the real-time evaluation function created for each data sampling in the above filtering process. The content data stored in the information processing device 602 includes C examples of contents that present and explain introspection issues that can be executed by the user. When executed, it functions as an “instruction command”. This content module can be implemented by techniques such as screen display, audio display, and tactile display such as Braille. Examples of such tasks include processes such as singing a song in the head, making an image of moving a finger, calculating a subtraction, singing a song in the head, and performing a shiritori.
FIG. 11 shows a screen example of content that presents each task on the screen. It is an example of a display screen of a shiritori task 1101, a mental arithmetic task 1102, a moving image task 1103, and a song singing task 1104, respectively. In addition, by displaying an end screen such as 1105 at the task end time, the user can be prompted to end the task.

図10は、計算フェーズを実現するサブルーチンの処理を説明する流れ図である。先ず、図10の各種初期化処理工程1002について説明する。個人情報メディアが挿入されると、データの読み込みを行い、機器の駆動が始まる。このメディアには、利用者が過去にこの装置を運用した時のデータが保存されている。このデータの保存方法と使用方法については、後述の手順内で述べる。図1に示した光照射器(投影機)103からレーザを投射する。同時に受信機105での計測を始め、計測機器112が情報を記録に書き出し、同時に情報処理機器601に送信する。これ以降、工程1010で計測をOFFにするまでは、周期的に各計測位置のNIRSセンサの計測を行い、各波長の通過光強度から、酸化および還元および総ヘモグロビン濃度を演算して、情報処理装置601への送信を続ける。また情報処理装置601では、オペレーションシステム(OS)の一般的機能として広く知られるスレッドプログラミングの技法を用いてこの情報を受信し、サンプラ801の情報を更新し続ける。   FIG. 10 is a flowchart for explaining processing of a subroutine for realizing the calculation phase. First, the various initialization processing steps 1002 in FIG. 10 will be described. When a personal information medium is inserted, data is read and the device starts to drive. This media stores data when the user has operated this device in the past. The method for storing and using this data will be described later in the procedure. A laser is projected from the light irradiator (projector) 103 shown in FIG. At the same time, measurement by the receiver 105 is started, and the measuring device 112 writes information in a record and transmits it to the information processing device 601 at the same time. Thereafter, until the measurement is turned off in Step 1010, the NIRS sensor at each measurement position is periodically measured, and the oxidation and reduction and the total hemoglobin concentration are calculated from the light intensity passing through each wavelength, and information processing is performed. Continue to send to device 601. Further, the information processing apparatus 601 receives this information by using a thread programming technique widely known as a general function of the operation system (OS), and continues to update the information of the sampler 801.

待機処理工程1003では、モニタ603に一定期間ごとに点滅するマーカーを表示する。このマーカーは注視する場所の指摘と呼吸のタイミングを示す。この工程は、利用者101の血量の変動が安定するまで一定時間繰り返される。利用者はこの間特定の知的活動を過剰に行わないようにリラックスして待機する。   In the standby processing step 1003, a marker that blinks at regular intervals is displayed on the monitor 603. This marker indicates where to watch and indicates the timing of breathing. This process is repeated for a certain period of time until the fluctuation of the blood volume of the user 101 is stabilized. During this time, the user relaxes and waits so as not to perform excessive specific intellectual activities.

次に、課題提示工程1004について説明する。モノタ603の画面に作業タスクの画面1101〜1104のどれかを提示する。本実施例においては、前述の4種類のどれかの課題内容をランダムな順序で選択して画面上に提示し、利用者にその課題を実行するように促す指示を出す。   Next, the problem presentation process 1004 will be described. One of the work task screens 1101 to 1104 is displayed on the screen of the monota 603. In the present embodiment, any of the above-described four types of task contents are selected in a random order and presented on the screen, and an instruction for prompting the user to execute the task is issued.

パターン計測工程1005では、利用者が画面603の指示にあわせて活動を行っている間の脳血量の変動データを採取する。この採取データの例を図12に挙げる。これらのタスク実行時に得られたデータは逐次エージェント機能に送られて変換された値が時系列情報として保存される。   In the pattern measuring step 1005, fluctuation data of the cerebral blood volume while the user is performing an activity in accordance with the instruction on the screen 603 is collected. An example of the collected data is given in FIG. Data obtained at the time of executing these tasks is sequentially sent to the agent function, and converted values are stored as time series information.

一定時間が経過した段階で、課題の終了を指示する画面1105を提示する(終了処理工程1006)。これにひき続き、被験者を休憩させるフェーズ(休憩処理工程1007)に入る。この間も計測を続け、課題の実行を終えた後に平常状態に戻っていく脳血量の変動データがサンプラにはデータとして残る。また、エージェントとシンセサイザの動作も引き続き行われており、その挙動をログデータとして主記憶上に一時的に保存する。以上のステップを規定の回数だけ繰り返す。   When a certain time has elapsed, a screen 1105 for instructing the end of the task is presented (end processing step 1006). This is followed by a phase (rest processing step 1007) in which the subject is rested. During this time, the measurement is continued, and the fluctuation data of the cerebral blood volume that returns to the normal state after completing the execution of the task remains as data in the sampler. Further, the operations of the agent and the synthesizer continue to be performed, and the behavior is temporarily saved on the main memory as log data. Repeat the above steps a specified number of times.

本実施例では順序を変えて全てのタスクが一度ずつ行われる例を挙げたが、この際にタスクリストの一部が実行される、または特定のタスクが一度以上実行されるようにすることもできる。ただし、設定されたタスクが複数種類まんべんなく実行されるようにすることが好ましい。   In this embodiment, an example was given in which all tasks were performed once by changing the order. However, a part of the task list may be executed at this time, or a specific task may be executed more than once. it can. However, it is preferable that a plurality of types of set tasks are executed.

行われた課題に対して、エージェントモジュールが、精神機能の活動と一致して動いているかどうかの評価は、図10の工程1009で行われる。図12は時系列を表現したブロック図である。時系列はエージェントの出力の値を縦軸に、経過時間を横時間に示したグラフを表している。精神機能の活動を開始/終了するように提示したタイミングについての時間情報は、図9のネットワーク913を介して受信して得られる。   An evaluation of whether or not the agent module is moving in accordance with the mental function activity is performed in step 1009 of FIG. FIG. 12 is a block diagram expressing time series. The time series represents a graph in which the vertical axis indicates the output value of the agent and the horizontal time indicates the elapsed time. The time information about the timing presented to start / end the mental function activity is obtained via the network 913 in FIG.

図12における横軸の時間軸に対して、同図中の参照符号1203は課題を提示開始した時刻(時刻t1)、参照符号1204は課題の終了指示を提示した時刻(時刻t2)を示している。また、参照符号1202は時刻t1から一定時間前の時刻t0、参照符号1205は時刻t2から一定時間後の時刻t3をそれぞれ示している。   12, reference numeral 1203 in FIG. 12 indicates the time when the assignment is started (time t1), and reference numeral 1204 indicates the time when the assignment end instruction is presented (time t2). Yes. Reference numeral 1202 indicates a time t0 a certain time before the time t1, and reference numeral 1205 indicates a time t3 a certain time after the time t2.

これらの時刻に対して、活動の開始/終了から血量の変動が見られるまでにかかる時間遅れの量を、それぞれΔ1、Δ2とする。ただし、Δ1、Δ2の値に関しては、0秒から10秒程度までなど、あらかじめ生体計測の知見から定められた適切な幅を定義域とする。血量の変動が観察できる時間部分であるt1+Δ1(時刻1206)からt2+Δ2(時刻1207)までを領域A(1212)とし、血量の変動が戻っている時間部分(t0〜t1+Δ1)1211、(t2+Δ2〜t3)1213を纏めたものを領域Bとする。   With respect to these times, the amounts of time delay required from the start / end of the activity until the change in blood volume is observed are denoted by Δ1 and Δ2, respectively. However, with respect to the values of Δ1 and Δ2, an appropriate range determined in advance from knowledge of biological measurement, such as from about 0 seconds to about 10 seconds, is used as the definition area. The period from t1 + Δ1 (time 1206) to t2 + Δ2 (time 1207), which is the time part in which the blood volume fluctuation can be observed, is defined as region A (1212), and the time parts (t0 to t1 + Δ1) 1211, (t2 + Δ2) where the blood volume fluctuation has returned. To t3) A region B is a collection of 1213.

このとき、時間遅れの値Δ1、Δ2の決定する基準として、領域Aと領域Bのそれぞれにおいて、時系列の平均値(P1、P2)を計算したときの差の絶対値、|P1−P2|=P0が最大になるような値を満たすようなΔ1、Δ2を、定義域の範囲から探索して決定する。   At this time, as a reference for determining the time delay values Δ1 and Δ2, in each of the regions A and B, the absolute value of the difference when the time-series average values (P1, P2) are calculated, | P1-P2 | = Δ1 and Δ2 satisfying the value that maximizes P0 are determined by searching from the range of the domain.

図12に見られるように、領域Aの期間中にもエージェントの値は変動している。この変動量の平均と標準偏差を計算し、その値をσ1とする。また、領域Bの間のこの変動の標準偏差を取り、その値をσ2とする。ある一連の計測を繰り返したデータiに対して、P0/(σ1+σ2)の値を、この計測データの評価値E(g,t,s)とする。ここで、gはエージェントの番号、tは内省実行されたタスクの種類、sはそのセッティングにおけるセンサの設置状態を表現するインデックス値である。この計算は、各エージェントに対してと、シンセサイザの最終出力値について、それぞれ行われる。   As seen in FIG. 12, the value of the agent fluctuates even during the period of region A. The average and standard deviation of the fluctuation amount are calculated, and the value is set as σ1. Further, the standard deviation of this variation between the regions B is taken, and the value is set as σ2. For data i obtained by repeating a series of measurements, the value of P0 / (σ1 + σ2) is set as an evaluation value E (g, t, s) of the measurement data. Here, g is an agent number, t is a type of task executed introspectively, and s is an index value representing the sensor installation state in the setting. This calculation is performed for each agent and for the final output value of the synthesizer.

計算後、メディア605に対してデータE、σの値の保存を行う。図13はそのデータを蓄積した情報の保存の一例を示すデータ構造の図である。一回のセッティング毎に順序付けられた番号が与えられ、図13の欄1301にその値が記述される。また、セッティングを行った時刻を欄1302に保存する。このセッティング毎に複数のタスクが実行され、それぞれ欄1303に、タスクの種類、時刻、結果の評価値が保存される。これらの履歴データから、タスク毎の分散量とセッティング毎の分散量が得られる。   After the calculation, the values of the data E and σ are stored in the medium 605. FIG. 13 is a diagram of a data structure showing an example of storing information in which the data is accumulated. An ordered number is given for each setting, and the value is described in a column 1301 in FIG. In addition, the setting time is stored in the column 1302. A plurality of tasks are executed for each setting, and a task type, a time, and an evaluation value of the result are stored in a column 1303, respectively. From these history data, the amount of dispersion for each task and the amount of dispersion for each setting can be obtained.

さて、セッティングsは再設置を行うたびに変動する。また、tはタスクの種類をあらわす変数である。データの測定を繰り返すと、測定回数とエージェントの数の積だけ、E(I)が蓄積されていく。課題の各セットに対する計測工程703が終了した後、現在の設定sに対しての、状態の評価値の推定処理を行う(工程704)。各エージェントに関して、今回の測定の結果と、過去の平均の結果を比較して、現在のセッティングにおける反応の信頼精度を計算する。各タスクに対する結果履歴の情報を用いて、ある特定のセッティングにおける反応から評価付ける手法の一例を以下に示す。   Now, the setting s changes every time it is re-installed. T is a variable representing the type of task. When data measurement is repeated, E (I) is accumulated by the product of the number of measurements and the number of agents. After the measurement process 703 for each set of tasks is completed, the state evaluation value is estimated for the current setting s (process 704). For each agent, compare the results of this measurement with the results of past averages to calculate the confidence accuracy of the response in the current setting. An example of a technique for evaluating from a response in a specific setting using information on the result history for each task is shown below.

図7における工程703と、その過去の運用によって、個々のエージェントについての過去の履歴がパラメトリックに変換されたものがメディア内に保存されている。上記のように、gはエージェントの番号。tはタスクの番号、sはセッティングの状態を示す値とする。データベースに収められている過去の履歴についての情報を、E(g,t,s,k)と表現する。これは、ある条件[g,t,s]の条件で得られたk番目の測定結果を示すものとする。   In FIG. 7, the past history of each agent converted into parametric data by the operation 703 and its past operation is stored in the medium. As above, g is the agent number. t is a task number, and s is a value indicating a setting state. Information on the past history stored in the database is expressed as E (g, t, s, k). This indicates the k-th measurement result obtained under certain conditions [g, t, s].

このとき、E(g,t,s,k)が、ある確率分布にしたがってt,gの変数として変動する値だと考える。このE(g,t,s,k)に対して、特定のタスクtとエージェントgの元で行われた計測について、全履歴の平均を求めた値をE0(g,t)として、メディア605に保存する。また、その標準偏差をσ(g,t)として同様に保存する。また、このσ(g,t)に定数を掛けた値をA(g,t)として、以後のエージェントの課題タスクへの反応の基準値として用いる。   At this time, E (g, t, s, k) is considered to be a value that varies as a variable of t, g according to a certain probability distribution. For this E (g, t, s, k), the media 605 is defined as E0 (g, t), where E0 (g, t) is the average of all the histories of the measurement performed under the specific task t and agent g. Save to. The standard deviation is similarly stored as σ (g, t). Further, a value obtained by multiplying σ (g, t) by a constant is used as A (g, t), which is used as a reference value for the subsequent reaction of the agent to the task task.

この履歴から、エージェントがタスクに反応する鋭敏さは、以下のような手順で評価する。平均値Eo(g,t)をA(g,t)電極割った値をB(g,t)とする。この値が1よりも大きかった場合には、このエージェントgはタスクtに対して有意に正の反応を示すエージェントであると判断されて正の重み付け値W(g,t)=B(g,t)‐1.0が与えられる。また、B(g,t)が‐1よりも小さかった場合には、負の重み付けW(g,t)=B(g,t)+1.0がなされる。それ以外の場合には、正の反応、負の反応の両方が観測される不安定な状態と考えてW(g,t)=0.0と定義される。これらの情報もまた、メディア605に保存される。   From this history, the sensitivity of the agent to the task is evaluated by the following procedure. A value obtained by dividing the average value Eo (g, t) by the A (g, t) electrode is defined as B (g, t). If this value is greater than 1, this agent g is judged to be an agent that exhibits a significantly positive response to the task t, and a positive weighting value W (g, t) = B (g, t) -1.0 is given. When B (g, t) is smaller than -1, negative weighting W (g, t) = B (g, t) +1.0 is performed. In other cases, W (g, t) = 0.0 is defined as an unstable state in which both positive and negative reactions are observed. These pieces of information are also stored in the medium 605.

あるセッティングsのもとで、ある課題tを実行したデータE1(g,t,s,k)が取れたときに、このメディア605に保存されている情報を用いて、セッティングsの状態を評価する方法について説明する。E1(g,t,s,k)が、s,kの変動に関して、平均E0(t,g)、標準分布σ(t,g)の正規分布に基づく確率分布の1サンプルであると考え、帰無仮説を立てて検定処理を行う。   When data E1 (g, t, s, k) obtained by executing a certain task t under a certain setting s is obtained, the state of the setting s is evaluated using information stored in the medium 605. How to do will be described. E1 (g, t, s, k) is considered to be one sample of a probability distribution based on a normal distribution of mean E0 (t, g) and standard distribution σ (t, g) with respect to fluctuations in s, k. The null hypothesis is established and the verification process is performed.

この検定結果が有意であった場合には、今回のセッティングsでの変動は、通常のセッティング環境に比べて有意に異なっていると判断される。この場合には、もう一度同じtの条件での課題を繰り返し、kの数を増やして再検定を行う。この結果も有意であった場合には、画面603にタスクtに対するエージェントgの挙動がおかしい旨の表示を行うため、エージェントgの入力として用いられているサンプラが関与しているセンサの位置を画面上に図示して提示する。   If this test result is significant, it is determined that the variation in the current setting s is significantly different from that in the normal setting environment. In this case, the task under the same condition t is repeated once more, and the number of k is increased and re-examination is performed. If this result is also significant, the screen 603 displays a message indicating that the behavior of agent g with respect to task t is strange, so that the position of the sensor associated with the sampler used as the input of agent g is displayed on the screen. Presented as illustrated above.

上記の検定結果が有意でなかった場合には、今回のセッティングsでの変動はエージェントgの挙動としては許容範囲内であると判断し、kについてのE1(g,t,s,k)の平均値をE2(g,t)として、前工程と同様にE2(g,t)‐A(t,g)の絶対値から1を引いた値を、今回のセッティング環境におけるW1(t,g)として用いる。   If the above test result is not significant, it is determined that the change in the setting s of this time is within the allowable range as the behavior of the agent g, and E1 (g, t, s, k) for k Assuming that the average value is E2 (g, t), the value obtained by subtracting 1 from the absolute value of E2 (g, t) -A (t, g) as in the previous step is W1 (t, g in the current setting environment. ).

全エージェントgとタスクtについての上記のテストが終了した後、W1(t,g)のデータをtについて平均と分散をとる。このW1(t,g)値の平均とこれまでの履歴の値の差が有意に大きかった場合には、エージェントの状態収集が正確になされていない可能性が高い。   After the above tests for all agents g and tasks t are completed, the data of W1 (t, g) is averaged and distributed for t. If the difference between the average of the W1 (t, g) values and the history values so far is significantly large, there is a high possibility that the agent state is not collected correctly.

このため、エージェントgの挙動がおかしい旨の表示を再度行い、エージェントgの入力として用いられているサンプラが関与しているセンサの位置を画面上に図示して提示し、このエージェントを用いないで以下の作業を進行するか、セッティングをやり直して計測フェーズを再実行するかを選択するように促す。W1(t,g)のデータをgについて平均と分散をとる。この値の平均とこれまでの履歴の値の差が有意に大きかった場合には、タスクの実行状態が不安定であった可能性が高い。このため、成績の悪かったタスクを表示して、このタスクを実行したときの環境状態について問題がなかったかを利用者101に再確認する。利用者101はタスク実行時の状態を再確認し、再計測するか、またはその時点のセッティングでは該タスクをコマンドとして使用することを避けるようにするか、この分析処理において、該当するエージェントの重み付けを一定の比率下げるように主記憶上に読み込まれたデータ2005の値を変更する。   For this reason, display that the behavior of agent g is strange again, present the position of the sensor that the sampler used as the input of agent g is shown on the screen, and do not use this agent. Prompts you to choose whether to proceed with the following tasks or re-execute the measurement phase by re-setting. The average and variance of the data of W1 (t, g) are taken with respect to g. If the difference between the average of this value and the value of the history so far is significantly large, the task execution state is likely to be unstable. For this reason, a task with poor results is displayed, and the user 101 is reconfirmed with the user 101 whether there is a problem with the environmental state when this task is executed. The user 101 reconfirms and re-measures the state at the time of task execution, or avoids using the task as a command in the setting at that time, or weighting of the corresponding agent in this analysis process The value of the data 2005 read into the main memory is changed so as to decrease the ratio by a certain ratio.

このような手法を用いることにより、幾つかの利点が生まれる。一つ目の利点は、センサの接触について過剰な要求を避けることができる点である。センサの箇所が接触していない場合であっても、重要なエージェントが参照していない場合には、放置してもリアルタイム操作フェーズでは動作を行うことができる。二つ目の利点は、安定した推定のために多くの試行回数が必要になるA(g,t)については過去の履歴情報を用いることができる点である。三つ目の点として、反復実行と、タスク実行に起因する問題であるか、エージェントの反応に起因する問題であるかを分別する基準を計算することができるようになる点である。   There are several advantages to using such an approach. The first advantage is that excessive demands on sensor contact can be avoided. Even if the location of the sensor is not in contact, if an important agent does not refer to it, the operation can be performed in the real-time operation phase even if it is left unattended. The second advantage is that past history information can be used for A (g, t), which requires a large number of trials for stable estimation. The third point is that it becomes possible to calculate a criterion for distinguishing between repetitive execution and a problem caused by task execution or a problem caused by agent reaction.

工程703(計測フェーズモード)の結果から、エージェントの反応状態についての計算を行い、目的とした情報の取得において問題となっていると推測されるセンサ箇所の表示と、現在の反応状態で効率よく取得することのできる課題の組み合わせの表示を行う。この表示画面の例を図14に示す。図14はモニタ603の画面であり、画面の左側には3次元モデルで作成された標準的な人間モデル1401の上に、計測点を示すマーカー1402が配置されている。画面右側には、身体情報に関連したエージェント1403と、内省課題に関連付けられた情報1406のリストが表示され、今回の計測における信頼精度1404, 1407と、履歴から計算された標準的な信頼精度1405,1408が示される。   From the result of step 703 (measurement phase mode), the calculation of the reaction state of the agent is performed, and the display of the sensor location presumed to be a problem in the acquisition of the target information and the current reaction state are efficiently performed. Display the combination of issues that can be acquired. An example of this display screen is shown in FIG. FIG. 14 shows a screen of the monitor 603. On the left side of the screen, a marker 1402 indicating a measurement point is arranged on a standard human model 1401 created as a three-dimensional model. On the right side of the screen, a list of agents 1403 related to physical information and information 1406 related to introspection tasks is displayed. Reliability accuracy 1404 and 1407 in this measurement, and standard reliability accuracy calculated from the history 1405 and 1408 are shown.

この信頼精度の値は計算によって得られるそのままの値を用いることもできるし、100点満点の値に変換するなどしてエンターテインメント性を上げることもできる。利用者がこのリスト要素の一つを選択すると、そのエージェントの分析に関連付けられた計測点に対応するマーカー1402の色に反映される。また、内省課題に関連付けられたリスト要素を選択した場合には重みの量と色の濃度が対応して反映される。またこのとき、前工程703で計算された今回のセンサの信頼精度は、マーカーの点滅速度として表示される。   As the reliability accuracy value, the value obtained by calculation can be used as it is, or the entertainment property can be improved by converting it to a value of 100 points. When the user selects one of the list elements, it is reflected in the color of the marker 1402 corresponding to the measurement point associated with the analysis of the agent. When a list element associated with the introspection task is selected, the amount of weight and the color density are reflected correspondingly. At this time, the reliability accuracy of the current sensor calculated in the previous step 703 is displayed as the blinking speed of the marker.

利用者は、このタスクに関連した信頼精度の結果を確認し、センサの再設置をして計測をやり直す場合には、再計算のコンソールボタン1408を選択し、工程702からやり直す。また、適切にコマンドとして動作させることが出来る信頼精度を満たすと思われる課題が見つかった場合には、選択決定コンソールボタン1409を選択して、次のリアルタイム操作フェーズモード706に進む(工程705)。   The user confirms the result of the reliability accuracy related to this task, and in the case where the sensor is reinstalled and the measurement is started again, the recalculation console button 1408 is selected and the processing is started again from Step 702. In addition, when a problem that seems to satisfy the reliability accuracy that can be appropriately operated as a command is found, the selection determination console button 1409 is selected, and the process proceeds to the next real-time operation phase mode 706 (step 705).

リアルタイム操作フェーズモード(工程706)では、利用者が自分の意思に応じて脳の血量を変動させる内省の活動を行い、その結果を反映して表示を変更する。このように利用者が反映した結果を観察しながら活動を行うことにより、適切な操作を実現するために意識的なフィードバックを促す効果がある。以下、図15に書かれたブロック図に従って、リアルタイム操作フェーズモードでの機器の挙動を説明する。   In the real-time operation phase mode (step 706), the user performs an introspective activity for changing the blood volume of the brain according to his / her intention, and the display is changed to reflect the result. By observing the results reflected by the user in this way, there is an effect of prompting conscious feedback in order to realize an appropriate operation. Hereinafter, the behavior of the device in the real-time operation phase mode will be described with reference to the block diagram shown in FIG.

初期化処理工程1502では、前の後述の反映更新処理工程で必要になる変数の初期化を行う。また、工程703と工程704で保存した過去の学習データの読み込みを行う。画面表示工程1503では、先の工程704で表示したものと類似の選択画面を表示する。また、手法選択処理工程1504では、先の工程704で計算し工程705で表示した各内省課題の信頼精度を、モニタ603の画面上に提示する。利用者はその中のどれかを選択する。後述の反映更新工程1505においての命令を伝達するコマンドとして、その内省課題を実行することで操作を行うことができる。   In the initialization processing step 1502, the variables required in the reflection update processing step described later are initialized. In addition, the past learning data stored in step 703 and step 704 is read. In a screen display process 1503, a selection screen similar to that displayed in the previous process 704 is displayed. In the method selection processing step 1504, the reliability accuracy of each introspection task calculated in the previous step 704 and displayed in step 705 is presented on the screen of the monitor 603. The user selects one of them. An operation can be performed by executing a reflection task as a command for transmitting a command in a reflection update process 1505 described later.

反映更新処理工程1505の動作は、サブルーチンモジュールによって実行される。そのモジュールの実装の一例を、図16のフローで説明する。このモジュールで実行される画面のイメージ例を図17に示す。画面1700には、利用者が操作するカーソル1701と目標位置1702が提示される。目標位置1702は背景画面上に提示され、この背景画面は下方向に向かって毎更新ごとに一定の速度でスクロールする。   The operation of the reflection update processing step 1505 is executed by a subroutine module. An example of mounting the module will be described with reference to the flowchart of FIG. An example of a screen image executed by this module is shown in FIG. On the screen 1700, a cursor 1701 operated by the user and a target position 1702 are presented. The target position 1702 is presented on the background screen, and the background screen scrolls downward at a constant speed for each update.

工程1602で初期化処理を行う。カーソル1701の位置を画面の中央位置に配置する。   In step 1602, initialization processing is performed. The position of the cursor 1701 is arranged at the center position of the screen.

工程1603では、初期画面をモニタ603に提示する。   In step 1603, an initial screen is presented on the monitor 603.

工程1604では移動速度の維持のため、短時間の待機処理を行う。この待機処理は数十ミリ〜数百ミリ秒ほど行われる。この画面更新処理の待機中にも、脳血量データの計測は行われ続ける。   In step 1604, a short waiting process is performed to maintain the moving speed. This standby process is performed for several tens of milliseconds to several hundreds of milliseconds. While waiting for this screen update process, the measurement of cerebral blood volume data continues to be performed.

工程1605では最新時刻の血量状態の計測データを、前述した機器601の信号処理システムにかけて、出力結果を計算する。この処理において、遅延エージェントなどの動作を用いている場合には、サンプラ801に保存されている過去のフレームにおいての血量状態の情報も合わせて判断に用いられている。   In step 1605, the measurement result of the blood volume state at the latest time is applied to the signal processing system of the device 601, and the output result is calculated. In this process, when an operation such as a delay agent is used, information on the blood volume state in the past frame stored in the sampler 801 is also used for determination.

工程1606では、情報の更新を行う。上の出力の値に応じて、カーソルの位置データを左右に動かす。また、背景画像を下に動かす。更新された情報に合わせて画面を更新する。   In step 1606, information is updated. Moves the cursor position data to the left or right according to the output value above. Also move the background image down. Update the screen with the updated information.

工程1607では、状態の評価を行う。カーソルの位置データが目標位置1702の領域内に含まれていた場合には、得点を加算する。
終了条件としては、特定の点数と規定の時間が一定の基準を満たしていることを確認する。終了条件が満たされていない場合には、以上の工程1604〜1607を繰り返す。終了条件が満たされているならば、工程1610に進む。
In step 1607, the state is evaluated. If the cursor position data is included in the area of the target position 1702, the score is added.
As an end condition, it is confirmed that a specific score and a specified time satisfy a certain standard. If the termination condition is not satisfied, the above steps 1604 to 1607 are repeated. If the termination condition is met, proceed to step 1610.

工程1610では、リアルタイム捜査フェーズの終了をモニタ603の画面上で通告し、得点の計算を行って結果を表示する。また、この試行の結果を後の工程1508で学習データに反映するために、変数領域に一時的に保存する(工程1610)   In step 1610, the end of the real-time investigation phase is notified on the screen of the monitor 603, the score is calculated, and the result is displayed. In addition, the result of this trial is temporarily stored in the variable area to be reflected in the learning data in the subsequent step 1508 (step 1610).

以上で図15のサブルーチン1505は終了する。これにひき続き、被験者を休憩させるフェーズ(休憩処理工程1506)に入る。ただし、この間も計測を続け、課題の実行を終えた後に平常状態に戻っていく脳血量の変動データは電子的にログに保存される。   This completes the subroutine 1505 of FIG. This is followed by a phase in which the subject is rested (rest processing step 1506). However, during this time, the measurement is continued, and the fluctuation data of the cerebral blood volume that returns to the normal state after the execution of the task is stored electronically in a log.

上記の工程1503〜1506間での処理を規定回数(例えば、5回など)繰り返す。規定回数に達した場合、捜査フェーズモードを終了する。今回の操作フェーズ706においての平均得点をメディア605に保存する。   The processing between the above steps 1503 to 1506 is repeated a specified number of times (for example, five times). When the specified number of times is reached, the investigation phase mode is terminated. The average score in the current operation phase 706 is stored in the medium 605.

また、メディア内に比較されているこれまで行った計測での、得点の平均値や分散と比較し、その結果(標準偏差)に定数項を掛けた値を今回の計測の補正値として、実際に使用された各エージェントの設置状態を示す値S(i)に対して加算する。以上で、操作フェーズモードが終了する(工程1509)。   Compared to the average value and variance of the scores that have been compared so far in the media, the result (standard deviation) multiplied by a constant term is actually used as the correction value for this measurement. Is added to the value S (i) indicating the installation state of each agent used. Thus, the operation phase mode ends (step 1509).

実施例1によれば、局在化している脳機能を、光脳機能計測装置によって計測し、計測信号を外部装置への入力信号として用いる際に、命令コマンド用の課題に対する選択と訓練を、本人の学習深度やセンサの不安定性に合わせ、日々異なるセッティングの状況に合わせた組み合わせで用いることができる。   According to the first embodiment, when the localized brain function is measured by the optical brain function measuring device and the measurement signal is used as an input signal to the external device, selection and training for the task for the command command are performed. Depending on the learning depth of the person and the instability of the sensor, it can be used in combination according to different setting conditions every day.

実施例2では、コンピュータ内でリアルタイム操作フェーズモードにおけるサブルーチンモジュールを、実際の機器によって実行する。図18は、実際に操作する機器の一例を説明する構成図である。実施例2は、実施例1でのカーソルの位置データの代わりに、ショベル形状の選別機器1801について、アーム1801Aの位置と角度をコントロールする。実施例1では背景が動いたように、実施例2では物品1802を乗せたベルトコンベア1803が太い矢印方向に移動している。物品1802は物品排出器1805から定期的にベルトコンベア1803上に排出される。ベルトコンベア1803上には穴1804が空いており、適切なタイミングでアーム1801Aを穴1804の上に動かすことで、物品をベルトコンベア1803から第1の回収器1806の上に落とすことができるようになっている。選別機器1801によって第1の回収器1806に落とされなかった物品は第2の回収器1807に落ちる。   In the second embodiment, a subroutine module in the real-time operation phase mode is executed by an actual device in a computer. FIG. 18 is a configuration diagram illustrating an example of a device that is actually operated. In the second embodiment, instead of the cursor position data in the first embodiment, the position and angle of the arm 1801A are controlled for the shovel-shaped sorting device 1801. As in the first embodiment, the background moves, and in the second embodiment, the belt conveyor 1803 on which the article 1802 is placed moves in the direction of the thick arrow. Articles 1802 are periodically discharged from an article ejector 1805 onto a belt conveyor 1803. There is a hole 1804 on the belt conveyor 1803 so that the article can be dropped from the belt conveyor 1803 onto the first collector 1806 by moving the arm 1801A onto the hole 1804 at an appropriate timing. It has become. Articles that have not been dropped into the first collector 1806 by the sorting device 1801 fall into the second collector 1807.

図19は、実装機器として用いることのできる汎用情報処理機器のブロック図である。実装機器1900は、本発明によって実際に操作する汎用情報処理機器の他の一例である。この汎用情報処理機器には、複数のライト1901と音源1902が設置されている。工程1505では、現在の血量情報を処理機器602にかけて、内省課題に一致した量が計算されるが、この計算された値に合わせて、ライトの光量と、音源の音量・音の高さが変化する。この変化を常時行うことによって、利用者の自発的操作によって駆動する簡易的な楽器としての機能を示すことができる。   FIG. 19 is a block diagram of a general-purpose information processing device that can be used as a mounting device. The mounting device 1900 is another example of a general-purpose information processing device that is actually operated according to the present invention. In this general-purpose information processing apparatus, a plurality of lights 1901 and a sound source 1902 are installed. In step 1505, the current blood volume information is applied to the processing device 602, and an amount that matches the introspection task is calculated. In accordance with the calculated value, the amount of light, the volume of the sound source, and the pitch of the sound source are calculated. Changes. By performing this change constantly, it is possible to show a function as a simple musical instrument that is driven by a user's spontaneous operation.

実施例2によれば、局在化している脳機能を、光脳機能計測装置によって計測し、計測信号を汎用情報処理機器への入力信号として用いる際に、命令コマンド用の課題に対する選択と訓練を、本人の学習深度やセンサの不安定性に合わせ、日々異なるセッティングの状況に合わせた組み合わせで用いることができる。   According to the second embodiment, when a localized brain function is measured by an optical brain function measuring device and the measurement signal is used as an input signal to a general-purpose information processing device, selection and training for a task for a command command Can be used in combination according to the situation of different settings every day according to the learning depth of the person and sensor instability.

脳機能計測による外部環境制御装置における計測方法の装置構成例を説明する模式図である。It is a schematic diagram explaining the apparatus structural example of the measuring method in the external environment control apparatus by brain function measurement. 図1における光照射器へ接続した光ファイバを固定するホルダと光検出器へ接続した光ファイバを固定するホルダとの間を伝播する光の経路を説明する図である。It is a figure explaining the path | route of the light which propagates between the holder which fixes the optical fiber connected to the light irradiation device in FIG. 1, and the holder which fixes the optical fiber connected to the photodetector. 光照射器へ接続した光ファイバホルダの配置位置と、光検出器へ接続した光ファイバホルダの配置位置の説明図である。It is explanatory drawing of the arrangement position of the optical fiber holder connected to the light irradiation device, and the arrangement position of the optical fiber holder connected to the photodetector. 格子状に配置された複数のレーザとセンサにより血量パターンの変動箇所を特定する例を説明する図である。It is a figure explaining the example which specifies the fluctuation | variation location of a blood volume pattern with the some laser and sensor which are arrange | positioned at the grid | lattice form. 多次元の情報を線形に分離する手法の概念図である。It is a conceptual diagram of the method of isolate | separating multidimensional information linearly. 本発明による生体光計測に基づく外部制御機器の実施例1を示す模式図である。It is a schematic diagram which shows Example 1 of the external control apparatus based on the biological light measurement by this invention. 実施例1の運用手順を示す流れ図である。3 is a flowchart illustrating an operation procedure according to the first embodiment. 情報処理を行うモジュールの構造を説明するシステム構成図である。It is a system block diagram explaining the structure of the module which performs information processing. 実装として用いることのできる汎用情報処理機器のブロック図である。It is a block diagram of a general-purpose information processing device that can be used as an implementation. 計算フェーズを実現するサブルーチンの流れ図である。It is a flowchart of the subroutine which implement | achieves a calculation phase. 課題の画面データ例の説明図である。It is explanatory drawing of the example of screen data of a subject. 血量の計測で得られるデータ例の説明図である。It is explanatory drawing of the example of data obtained by measurement of blood volume. 過去の履歴情報を蓄積するデータ例の説明図である。It is explanatory drawing of the example of data which accumulate | stores past history information. エージェントの起動状態を提示し、選択を促す画面例の説明図である。It is explanatory drawing of the example of a screen which presents the starting state of an agent and prompts selection. 操作フェーズを実現するサブルーチンの流れ図である。It is a flowchart of the subroutine which implement | achieves an operation phase. 反映更新フェーズを実現するサブルーチンの流れ図である。It is a flowchart of the subroutine which implement | achieves a reflection update phase. 反映更新フェーズに操作対象として表示される画面例の説明図である。It is explanatory drawing of the example of a screen displayed as an operation target in a reflection update phase. 反映更新フェーズで操作対象として用いられる機器の一例を説明する図である。It is a figure explaining an example of the apparatus used as an operation target in a reflection update phase. 反映更新フェーズで操作対象として用いられる機器の別の一例を説明する図である。It is a figure explaining another example of the apparatus used as an operation target in a reflection update phase. 図8に表現されたフィルタリング処理を呼び出すための、データ内容を記したブロック図である。FIG. 9 is a block diagram showing data contents for calling a filtering process expressed in FIG. 8. 図20のデータを用いて、現在の脳活動状態を表現する評価値を計算するアルゴリズムを表現したフロー図である。FIG. 21 is a flowchart representing an algorithm for calculating an evaluation value representing the current brain activity state using the data of FIG. 20.

符号の説明Explanation of symbols

101 被験者
102 センサ固定用ヘルメット(プローブ、ファイバホルダ)
103 金赤外レーザ射出器
104 レーザ転送用光ファイバ
105 光検出器
106 検出用光ファイバ
107 光ファイバフォルダ(固定器具)
108 光ファイバ先端器具
109 レーザ出力制御機器
110 レーザ出力情報転送用ケーブル
111 検出器制御機器
112 測定部の情報処理機器
113 測定情報転送用ケーブル
114 測定部の画面モニタ
115 測定部のキーボード
116 測定部のマウス
202 頭皮
203 頭蓋骨
204 脳脊髄液
205 大脳皮質
210 赤外線レーザの通過経路の形状
211 脳活動に伴い代謝量が変化した大脳皮質領域
301 照射用光ファイバの配置位置
302 検出用光ファイバの配置位置
303 サンプリング点(計測点)
401 脳活動が活発に検出される位置
501 状態1に分類されるデータのベクトル位置
502 状態‐1に分類されるデータのベクトル位置
503 状態1と状態‐1を分離する超平面
601 情報処理部の情報処理機器
602 出力部の情報処理機器
603 被験者向け情報提示用画面モニタ
604 履歴情報メディアの読み取り機
605 履歴情報メディア
606 出力部の情報処理機器制御用マウス
607 モジュール組み合わせ情報の読み取り機
608 モジュール組み合わせ情報のメディア
701 実施例1でのシステム開始処理
702 センサヘルメットの設置工程
703 計測フェーズモードの工程
704 エージェント反応と推奨タスクの表示工程
705 再設置と課題開始の選択工程
706 リアルタイム操作フェーズモードの工程
707 実施例1の終了処理
801 サンプラモジュール
802 一次エージェントモジュール
803 二次エージェントモジュール
804 三次エージェントモジュール
805 擬似エージェントモジュール
806 シンセサイザモジュール
901 中央情報処理ユニット
902 インタフェース制御部
903 外部記憶機器
904 画像出力装置
905 ローカルエリアネットワーク接続装置
906 主記憶装置
907 オペレーティングシステム
908 実行プログラム
909 表示情報コンテンツ
910 ディスプレイモニタ
911 入力機器
912 外部メディアアクセス装置
913 ネットワーク
1001 計測フェーズの開始工程
1002 計測フェーズの初期化処理工程
1003 待機処理工程
1004 課題タスク提示工程
1005 課題実行中の血量情報計測工程
1006 課題タスクの終了処理
1007 利用者の休憩待機工程
1008 ループ終了判定
1009 分析・保存工程
1010 計測フェーズの終了工程
1101 言語想起課題の画面例
1102 計算課題の画面例
1103 motorization task の画面例
1104 黙歌唱課題の画面例
1105 課題終了宣告画面の例
1201 課題実行期間
1203 課題開始タイミング
1204 課題終了タイミング
1206 血量向上フェーズの開始タイミング
1207 血量向上フェーズの終了タイミング
1211 事前期間
1212 実行期間
1213 終了後期間
1301 セッティング情報のフィールド
1302 タスク情報のフィールド
1303 エージェントの評価情報フィールド
1304 シンセサイザ出力の評価情報フィールド
1400 エージェント反応と推奨タスクの提示画面
1401 人体頭部の3Dモデル
1402 計測点対応のマーカー
1403 エージェント特徴情報
1404 本セッティングにおける評価値
1405 過去履歴における平均評価値
1406 課題情報
1407 本セッティングにおける評価値
1407 過去履歴における平均評価値
1408 再計測選択ボタン
1409 選択決定ボタン
1501 操作フェーズモードの開始処理
1502 初期化処理工程
1503 画面表示工程
1504 手法選択工程
1505 反映更新のサブルーチン処理工程
1506 休憩時間の提示工程
1507 終了条件判定工程
1508 分析・保存の工程
1509 操作フェーズモードの終了工程
1601 反映更新ルーチンの開始処理
1602 初期化処理工程
1603 初期画面の提示工程
1604 待機工程
1605 情報分析工程
1606 画面と内部情報の更新工程
1607 得点の加算工程
1608 終了条件判定の工程
1609 得点の表示工程
1610 学習データへの反映工程
1611 反映更新ルーチンの終了処理
1700 反映更新ルーチンの画面例
1701 カーソル
1702 目標地点
1801 ショベルアーム
1802 物品
1803 ベルトコンベア
1804 ベルトコンベア上の穴
1805 物品排出器
1806 物品回収器
1807 物品回収器
1901 ランプ
1902 音源
101 Subject 102 Helmet for fixing sensor (probe, fiber holder)
103 Gold Infrared Laser Ejector 104 Laser Transfer Optical Fiber 105 Photodetector 106 Detection Optical Fiber 107 Optical Fiber Folder (Fixing Device)
108 Optical fiber tip device 109 Laser output control device 110 Laser output information transfer cable 111 Detector control device 112 Information processing device 113 for measurement unit Measurement cable 114 for measurement information transfer Screen monitor 115 for measurement unit Keyboard 116 for measurement unit Mouse 202 Scalp 203 Skull 204 Cerebrospinal fluid 205 Cerebral cortex 210 Shape of passage path of infrared laser 211 Cerebral cortex region whose metabolic rate has changed due to brain activity 301 Arrangement position of irradiation optical fiber 302 Arrangement position of detection optical fiber 303 Sampling point (measurement point)
401 Position 501 where brain activity is actively detected Vector position of data classified as state 1 502 Vector position of data classified as state-1 503 Hyperplane 601 separating state 1 and state-1 Information processing device 602 Information processing device 603 for output unit Information display screen monitor for subject 604 History information media reader 605 History information media 606 Information processing device control mouse 607 for output unit Module combination information reader 608 Module combination information Media 701 System start processing 702 in embodiment 1 Sensor helmet installation process 703 Measurement phase mode process 704 Agent reaction and recommended task display process 705 Reinstallation and task start selection process 706 Real-time operation phase mode process 707 Implementation End processing 801 in example 1 Sampler module 802 Primary agent module 803 Secondary agent module 804 Tertiary agent module 805 Pseudo agent module 806 Synthesizer module 901 Central information processing unit 902 Interface control unit 903 External storage device 904 Image output device 905 Local area network connection Device 906 Main storage device 907 Operating system 908 Execution program 909 Display information content 910 Display monitor 911 Input device 912 External media access device 913 Network 1001 Measurement phase start process 1002 Measurement phase initialization process 1003 Standby process process 1004 Problem task presentation Step 1005 Blood volume information measuring step 10 during execution of the task 6 Task task end processing 1007 User's break waiting step 1008 Loop end determination 1009 Analysis / save step 1010 Measurement phase end step 1101 Language recall task screen example 1102 Calculation task screen example 1103 Motorization task screen example 1104 Silent singing Example of Task Screen 1105 Example of Task End Declaration Screen 1201 Task Execution Period 1203 Task Start Timing 1204 Task End Timing 1206 Blood Volume Improvement Phase Start Timing 1207 Blood Volume Improvement Phase End Timing 1211 Preliminary Period 1212 Execution Period 1213 Post End Period 1301 Setting information field 1302 Task information field 1303 Agent evaluation information field 1304 Synthesizer output evaluation information field 1400 Agent reaction and recommendation task recommendation Display screen 1401 3D model of human head 1402 Marker 1403 corresponding to measurement point Agent characteristic information 1404 Evaluation value 1405 in this setting Average evaluation value 1406 in past history Task information 1407 Evaluation value in this setting 1407 Average evaluation value 1408 in past history Measurement selection button 1409 Selection decision button 1501 Operation phase mode start processing 1502 Initialization processing step 1503 Screen display step 1504 Method selection step 1505 Reflection update subroutine processing step 1506 Break time presentation step 1507 End condition determination step 1508 Analysis / save Step 1509 Operation phase mode end step 1601 Reflection update routine start processing 1602 Initialization processing step 1603 Initial screen presentation step 1604 Standby step 1605 Information analysis Step 1606 Screen and internal information update step 1607 Score addition step 1608 Termination condition determination step 1609 Score display step 1610 Reflection to learning data 1611 Reflection update routine termination processing
1700 Reflection update routine screen example 1701 Cursor 1702 Target point 1801 Excavator arm 1802 Article 1803 Belt conveyor 1804 Hole on belt conveyor 1805 Article ejector 1806 Article collector 1807 Article collector 1901 Lamp 1902 Sound source

Claims (3)

頭部の外部に設置するマルチチャンネルのファイバホルダを用いて近赤外分光法で取得された脳の複数部位の血量状態の状態変化に応じて外部機器を制御する脳機能計測による外部環境制御装置であって、
前記ファイバホルダから前記脳の各複数部位で時系列情報として得られた血量情報の変動に対して、脳の各領域部位・脈派・脳の左右差・およびその時間差分などの生体機能毎に情報を独立に動作して結果を判定し、抽出する複数の情報処理モジュールからなる第一の手段と、
前記第一の手段を構成する前記情報処理モジュールのそれぞれが出力する値を、被制御装置で提示された内省課題に応じて重み付けの合計を行って得られる代表値を作成し、その代表値に再度のフィルタ処理を行った値を用いて外部機器の制御を行う第二の手段を備えたことを特徴とする脳機能計測による外部環境制御装置。
External environment control by brain function measurement that controls external devices according to changes in the blood volume state of multiple parts of the brain acquired by near infrared spectroscopy using a multi-channel fiber holder placed outside the head A device,
For each variation of the blood volume information obtained as time-series information from the fiber holder at each of the plurality of parts of the brain, for each biological function such as each region of the brain, pulse group, left-right difference of the brain, and its time difference A first means comprising a plurality of information processing modules for independently operating information to determine and extract a result;
Create a representative value obtained by summing the values output by each of the information processing modules constituting the first means according to the reflection task presented by the controlled device, and the representative value An external environment control device based on brain function measurement, comprising a second means for controlling an external device using a value obtained by performing a second filtering process.
請求項1において、
前記ファイバホルダを頭部に設置した際に脳血量を変動させる課題を行い、脳の各部位、脈派、脳の左右差、およびその時間差分などの生体情報をそれぞれ抽出する複数の第三の手段を備え、
前記第三の手段毎に備えた前記生体情報の検出精度の評価を判定する評価・判定手段と、
前記評価・判定手段による評価・判定結果を個人情報保持用の外部メディアに保存する保存手段と、
前記外部メディアに保存された過去の履歴における課題に応じた複数の評価成績の平均値、分散値から前記第三の手段毎の信頼精度を再計算して保存する再計算手段を備えたことを特徴とする脳機能計測による外部環境制御装置。
In claim 1,
A plurality of thirds that perform a task of changing the cerebral blood volume when the fiber holder is placed on the head and extract biological information such as each part of the brain, pulse group, left-right difference of the brain, and time difference thereof. With the means of
Evaluation / determination means for determining evaluation of detection accuracy of the biological information provided for each of the third means;
A storage unit for storing the evaluation / determination result by the evaluation / determination unit in an external medium for holding personal information;
Recalculating means for recalculating and storing the reliability accuracy for each of the third means from the average value and the variance value of a plurality of evaluation results according to the problems in the past history stored in the external medium. An external environment control device with characteristic brain function measurement.
請求項2において、
複数の評価成績のある回に検出された課題の反応の評価成績と前記外部メディアに保存された過去の履歴における課題に応じた評価成績の平均値・分散値とを比較する評価比較手段を備え、
前記評価比較手段の比較結果に基づいて前記頭部の頭皮と前記ファイバホルダの設置状態と前記再計算手段の計測精度を推測し、前記ファイバホルダの設置状態に合わせて前記外部機器の制御に最適な課題の提示および重み付けを強化して使用すべき前記第三の手段の選択または再設置を促すための画面表示を行うモニタを備えたことを特徴とする脳機能計測による外部環境制御装置。


In claim 2,
Evaluating and comparing means for comparing the evaluation result of the response of the task detected at a time with a plurality of evaluation results and the average value / variance value of the evaluation results according to the task in the past history stored in the external media ,
Based on the comparison result of the evaluation comparison means, the installation state of the scalp of the head and the fiber holder and the measurement accuracy of the recalculation means are estimated, and optimal for the control of the external device according to the installation state of the fiber holder An external environment control device based on brain function measurement, comprising a monitor for displaying a screen for prompting selection or re-installation of the third means to be used with enhanced presentation and weighting of various problems.


JP2007198249A 2007-07-31 2007-07-31 External environment control device based on brain function measurement Expired - Fee Related JP4991431B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007198249A JP4991431B2 (en) 2007-07-31 2007-07-31 External environment control device based on brain function measurement
EP20080003202 EP2020650A3 (en) 2007-07-31 2008-02-21 External condition control device based on measurement of brain functions
CN2008100815469A CN101359220B (en) 2007-07-31 2008-02-29 External condition control device based on measurement of brain functions
US12/039,864 US8175686B2 (en) 2007-07-31 2008-02-29 External condition control device based on measurement of brain functions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007198249A JP4991431B2 (en) 2007-07-31 2007-07-31 External environment control device based on brain function measurement

Publications (2)

Publication Number Publication Date
JP2009032213A JP2009032213A (en) 2009-02-12
JP4991431B2 true JP4991431B2 (en) 2012-08-01

Family

ID=40043052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007198249A Expired - Fee Related JP4991431B2 (en) 2007-07-31 2007-07-31 External environment control device based on brain function measurement

Country Status (4)

Country Link
US (1) US8175686B2 (en)
EP (1) EP2020650A3 (en)
JP (1) JP4991431B2 (en)
CN (1) CN101359220B (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8157609B2 (en) * 2008-10-18 2012-04-17 Mattel, Inc. Mind-control toys and methods of interaction therewith
JP2011022869A (en) * 2009-06-17 2011-02-03 Iwao Kobayashi Communication support device for severely disabled people
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9373088B2 (en) * 2012-09-17 2016-06-21 The Board Of Trustees Of The Leland Stanford Junior University Brain machine interface utilizing a discrete action state decoder in parallel with a continuous decoder for a neural prosthetic device
JP5997776B2 (en) * 2012-11-26 2016-09-28 株式会社日立製作所 Kansei evaluation system
JP6391372B2 (en) * 2014-09-01 2018-09-19 国立大学法人 奈良先端科学技術大学院大学 Biological tissue imaging device and method for operating biological tissue imaging device
WO2016084834A1 (en) * 2014-11-25 2016-06-02 株式会社日立ハイテクノロジーズ Measurement system, head-mounted device, program, and service providing method
JP6555503B2 (en) * 2015-01-13 2019-08-07 株式会社リコー Optical sensor, optical inspection apparatus, and optical property detection method
TWI676536B (en) * 2016-01-22 2019-11-11 大陸商鴻富錦精密工業(武漢)有限公司 System and method for controlling robot based on brain electrical signal
WO2019060298A1 (en) 2017-09-19 2019-03-28 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
US11478603B2 (en) 2017-12-31 2022-10-25 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
CN107967064B (en) * 2018-01-22 2020-02-28 南京邮电大学 Intelligent home control system based on brain-computer interface and laser-assisted aiming
CN108205261B (en) * 2018-03-21 2021-09-14 Oppo广东移动通信有限公司 Intelligent household control method based on brain waves and electronic device
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
CN109171713A (en) * 2018-06-08 2019-01-11 杭州电子科技大学 Upper extremity exercise based on multi-modal signal imagines mode identification method
WO2020056418A1 (en) 2018-09-14 2020-03-19 Neuroenhancement Lab, LLC System and method of improving sleep
CN111366554B (en) * 2020-05-26 2020-08-11 苏州市公安局姑苏分局 Method for measuring trace remaining time based on attenuated total reflection infrared spectroscopy

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4949726A (en) * 1988-03-29 1990-08-21 Discovery Engineering International Brainwave-responsive apparatus
US4926969A (en) * 1988-11-18 1990-05-22 Neurosonics, Inc. Sensory-driven controller
US5840040A (en) * 1992-12-18 1998-11-24 The Regents Of The University Of California Encephalolexianalyzer
JPH07124331A (en) 1993-11-04 1995-05-16 Canon Inc Control device by brain waves and application to video game device, arousal device, and lighting device
JP3161990B2 (en) * 1997-03-04 2001-04-25 株式会社脳機能研究所 Robot control device
US5571057A (en) * 1994-09-16 1996-11-05 Ayers; Margaret E. Apparatus and method for changing a sequence of visual images
US5638826A (en) * 1995-06-01 1997-06-17 Health Research, Inc. Communication method and system using brain waves for multidimensional control
US5772508A (en) * 1995-09-28 1998-06-30 Amtex Co., Ltd. Game or play facilities controlled by physiological information
JP3543453B2 (en) * 1995-12-01 2004-07-14 株式会社日立製作所 Biological input device using optical biometric method
AU2217899A (en) * 1998-01-08 1999-07-26 Richard B. Levin Eeg based consciousness-alert monitoring system
JP4055266B2 (en) 1998-10-13 2008-03-05 株式会社日立製作所 Optical measuring device
JP2000172407A (en) * 1998-12-07 2000-06-23 Hitachi Ltd Equipment controller by biological signal
JP2000325319A (en) * 1999-05-20 2000-11-28 Hitachi Ltd Brain function signal input device
JP4154850B2 (en) * 2000-10-13 2008-09-24 株式会社日立製作所 Intention display apparatus and intention display method.
JP2002172106A (en) 2000-12-07 2002-06-18 Hitachi Ltd Game machine using method for measuring biological light
JP3950634B2 (en) 2001-01-31 2007-08-01 株式会社日立製作所 Game device using biological light measurement method
AU2002346109A1 (en) * 2001-07-10 2003-01-29 California Institute Of Technology Cognitive state machine for prosthetic systems
US7209788B2 (en) * 2001-10-29 2007-04-24 Duke University Closed loop brain machine interface
US6795724B2 (en) * 2002-02-19 2004-09-21 Mark Bradford Hogan Color-based neurofeedback
JP3732476B2 (en) * 2002-10-22 2006-01-05 株式会社日立製作所 Biological measuring device
JP2004275619A (en) * 2003-03-19 2004-10-07 Kumamoto Technology & Industry Foundation Method for communicating visual image stimulus to brain wave animus and system used for the same
JP2005013464A (en) 2003-06-26 2005-01-20 Hitachi Ltd Biological light measuring instrument
JP4517111B2 (en) * 2004-06-07 2010-08-04 独立行政法人情報通信研究機構 Brain function measuring device, brain function measuring method, and brain function measuring program
WO2006087915A1 (en) * 2005-02-16 2006-08-24 Hitachi Medical Corporation Biophoton measuring instrument
JP4663387B2 (en) * 2005-04-22 2011-04-06 株式会社日立製作所 Biological light measurement device

Also Published As

Publication number Publication date
CN101359220A (en) 2009-02-04
CN101359220B (en) 2010-12-08
EP2020650A2 (en) 2009-02-04
JP2009032213A (en) 2009-02-12
US8175686B2 (en) 2012-05-08
US20090036781A1 (en) 2009-02-05
EP2020650A3 (en) 2012-08-29

Similar Documents

Publication Publication Date Title
JP4991431B2 (en) External environment control device based on brain function measurement
US9946344B2 (en) Functional near infrared spectroscopy based brain computer interface
US9265458B2 (en) Application of smooth pursuit cognitive testing paradigms to clinical drug development
US20190159675A1 (en) Point-of-care tele monitoring device for neurological disorders and neurovascular diseases and system and method thereof
CN110198663B (en) System for monitoring the health of a patient suffering from respiratory diseases
Girouard et al. Distinguishing difficulty levels with non-invasive brain activity measurements
JP2009521246A (en) Detection of mental state and dialogue using it
KR20170087855A (en) Automated diagnosis based at least in part on pulse waveforms
WO2006009178A1 (en) Biofunction diagnosis device, biofunction diagnosis method, bioprobe, bioprobe wearing tool, bioprobe support tool, and bioprobe wearing assisting tool
Ayaz et al. Assessment of cognitive neural correlates for a functional near infrared-based brain computer interface system
KR20060037235A (en) Electrophysiological intuition indicator
CN112244765B (en) Method, device and system for detecting brain temporary abnormal state
JP2006280806A (en) Method and device for estimating intracerebral electric current source, and method and device for estimating biological information
JP4651186B2 (en) Biological light measurement device
JP6029236B2 (en) Biological function diagnostic apparatus and program
JP6404162B2 (en) Brain function index calculation device and brain function index calculation method
JP6008099B2 (en) Brain activity state analysis device, brain activity state analysis method, and brain activity state analysis program
JP5733117B2 (en) Brain activity state analysis device, rehabilitation assist device, thought control type drive device, thought control type display device, measurement point selection method, measurement point selection program
JP5809864B2 (en) Biological light measurement device, waveform analysis method
JP7438495B2 (en) reference stimulus
Luzzani et al. A review of physiological measures for mental workload assessment in aviation: A state-of-the-art review of mental workload physiological assessment methods in human-machine interaction analysis
Ban et al. Development of the Biological Sensing Head Mounted Display
Masters et al. Physiological Sensor Fusion for Real-Time Pilot Workload Prediction in a Helicopter Simulator
Khalil et al. Deep Learning Applications in Brain Computer Interface Based Lie Detection
Pinti et al. Non-invasive optical imaging of brain function with fNIRS: Current status and way forward

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120410

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees