JP2019527416A - A new method to accurately decode human intentions about movement from brain signals - Google Patents

A new method to accurately decode human intentions about movement from brain signals Download PDF

Info

Publication number
JP2019527416A
JP2019527416A JP2019500670A JP2019500670A JP2019527416A JP 2019527416 A JP2019527416 A JP 2019527416A JP 2019500670 A JP2019500670 A JP 2019500670A JP 2019500670 A JP2019500670 A JP 2019500670A JP 2019527416 A JP2019527416 A JP 2019527416A
Authority
JP
Japan
Prior art keywords
intention
imagination
thought
decoding
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019500670A
Other languages
Japanese (ja)
Other versions
JP2019527416A5 (en
JP6884349B2 (en
Inventor
吉田 英一
英一 吉田
小池 康晴
康晴 小池
ガネシュ ゴウリシャンカー
ガネシュ ゴウリシャンカー
英由樹 安藤
英由樹 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National de la Recherche Scientifique CNRS
Original Assignee
Centre National de la Recherche Scientifique CNRS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National de la Recherche Scientifique CNRS filed Critical Centre National de la Recherche Scientifique CNRS
Publication of JP2019527416A publication Critical patent/JP2019527416A/en
Publication of JP2019527416A5 publication Critical patent/JP2019527416A5/ja
Application granted granted Critical
Publication of JP6884349B2 publication Critical patent/JP6884349B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/242Detecting biomagnetic fields, e.g. magnetic fields produced by bioelectric currents
    • A61B5/245Detecting biomagnetic fields, e.g. magnetic fields produced by bioelectric currents specially adapted for magnetoencephalographic [MEG] signals
    • A61B5/246Detecting biomagnetic fields, e.g. magnetic fields produced by bioelectric currents specially adapted for magnetoencephalographic [MEG] signals using evoked responses

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Psychology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

ヒトまたは動物用の、意思、想像、または思考のデコーディングシステムであって、a.脳活動の記録または測定システムと、b.上記デコーディング対象である意思、想像、または思考に関連する1つ以上の人工的に引き起こした感覚的手がかりおよび/または刺激を適用する、感覚刺激システムと、c.上記感覚的手がかりまたは刺激の存在下、またはその直後に記録された脳活動を分析し、上記意思、想像、または思考をデコードする、コンピュータプログラムまたはアルゴリズムと、を有する、デコーディングシステム。【選択図】図2A human, animal, intention, imagination or thought decoding system comprising: a. A system for recording or measuring brain activity; b. A sensory stimulation system that applies one or more artificially induced sensory cues and / or stimuli associated with the intention, imagination, or thought being decoded; c. A decoding system comprising: a computer program or algorithm that analyzes brain activity recorded in or immediately after the presence of the sensory cues or stimuli and decodes the intention, imagination, or thought. [Selection] Figure 2

Description

本開示は、動作(movement)に関するヒトの意思(intention)を脳信号から正確にデコード(decode、解読)する方法に関する。   The present disclosure relates to a method for accurately decoding human intentions about movement from brain signals.

ブレイン・マシーン・インターフェース(BMI)とは、生物の脳と機械との人工的接続を指す。当該インターフェースは、通常、3つの工程を含む。1)脳のイメージング/レコーディング:脳活動中の電磁信号または血流信号を記録するプロセス。2)デコーディング:記録された信号が何を意味しているかを理解する。3)機械の駆動:上記の理解を用いて、機械を駆動し制御する(図1)。例えば、BMIを用いて、肢切断患者に人工肢を与えることができる。この場合、脳信号を記録し(脳波記録(EEG)、機能的磁気共鳴画像法(fMRI)、近赤外線分光法(NIRS)など)、ヒトがどんな動作をしたがっているかをデコードし、それから人工肢を駆動し所望の動作をさせる必要がある。 Brain machine interface (BMI) refers to the artificial connection between the brain of a living organism and a machine. The interface usually includes three steps. 1) Brain imaging / recording : The process of recording electromagnetic or blood flow signals during brain activity. 2) Decoding : Understand what the recorded signal means. 3) Driving the machine : Using the above understanding, drive and control the machine (FIG. 1). For example, BMI can be used to provide an artificial limb to a limb amputee. In this case, brain signals are recorded (electroencephalogram recording (EEG), functional magnetic resonance imaging (fMRI), near infrared spectroscopy (NIRS), etc.), decoding what the human wants to do , and then the artificial limb It is necessary to drive and perform a desired operation.

BMIにとって最大の難問は、おそらく、デコーディングであり、とりわけ、ヒトがどんな動作をしたがっているかを短時間のうちに脳信号から理解することである。(2クラスの)デコーダーの最高の性能ですら、今までのところ、動作が行われない場合(想像されるだけの場合)、70%を超えていない。被験者が動作をするときでも、デコード能力の正確さは、動作に関する信号を用いない場合、85%を超えない(非特許文献23)。ここで、本発明の発明者らは、新たな(アクティブデコーディング)方法を提供する。当該方法は運動神経科学の理論に基づいており、この性能を急激に向上させるものであり、被験者が意思を思い浮かべて100msのうちに、〜90%の正確さで意思をデコードする。   The biggest challenge for BMI is probably decoding, especially to understand what humans want to do from brain signals in a short time. Even the best performance of a (2 class) decoder has so far not exceeded 70% if no action is taken (only imagined). Even when the test subject operates, the accuracy of the decoding capability does not exceed 85% when a signal related to the operation is not used (Non-patent Document 23). Here, the inventors of the present invention provide a new (active decoding) method. The method is based on the theory of motor neuroscience, and this performance is rapidly improved. The subject imagines the intention and decodes the intention with an accuracy of ˜90% within 100 ms.

Ganesh G, Takagi A, Osu R,Yoshioka T, Kawato M, Burdet E. Two is better than one: Physical interactionsimprove motor performance in humans. Scientific reports. 2014;4.Ganesh G, Takagi A, Osu R, Yoshioka T, Kawato M, Burdet E. Two is better than one: Physical interactionsimprove motor performance in humans.Scientific reports.2014; 4. Aglioti SM, Cesari P, RomaniM, Urgesi C. Action anticipation and motor resonance in elite basketballplayers. Nat Neurosci. 2008 Sep;11(9):1109-16. PubMed PMID: 19160510. Epub2009/01/23. eng.Aglioti SM, Cesari P, RomaniM, Urgesi C. Action anticipation and motor resonance in elite basketballplayers. Nat Neurosci. 2008 Sep; 11 (9): 1109-16. PubMed PMID: 19160510. Epub2009 / 01 / 23.eng. Frith CD, Frith U. Interactingminds--a biological basis. Science. 1999 Nov 26;286(5445):1692-5. PubMed PMID:10576727. Epub 1999/11/27. eng.Frith CD, Frith U. Interactingminds--a biological basis.Science. 1999 Nov 26; 286 (5445): 1692-5. PubMed PMID: 10576727. Epub 1999/11 / 27.eng. Pickering MJ, Garrod S. Anintegrated theory of language production and comprehension. Behav Brain Sci.2013 Aug;36(4):329-47. PubMed PMID: 23789620.Pickering MJ, Garrod S. Anintegrated theory of language production and comprehension. Behav Brain Sci. 2013 Aug; 36 (4): 329-47. PubMed PMID: 23789620. Miall RC, Christensen LOD,Cain O, Stanley J. Disruption of state estimation in the human lateralcerebellum. Plos Biology. 2007 Nov;5(11):2733-44. PubMed PMID:WOS:000251874700027. English.Miall RC, Christensen LOD, Cain O, Stanley J. Disruption of state estimation in the human lateralcerebellum. Plos Biology. 2007 Nov; 5 (11): 2733-44. PubMed PMID: WOS: 000251874700027. Wolpert DM, Ghahramani Z,Jordan MI. An internal model for sensorimotor integration. Science. 1995 Sep29;269(5232):1880-2. PubMed PMID: 7569931. Epub 1995/09/29. eng.Wolpert DM, Ghahramani Z, Jordan MI. An internal model for sensorimotor integration. Science. 1995 Sep29; 269 (5232): 1880-2. PubMed PMID: 7569931. Epub 1995/09/29. Eng. Desmurget M, Grafton S.Forward modeling allows feedback control for fast reaching movements. TrendsCogn Sci. 2000 Nov 1;4(11):423-31. PubMed PMID: 11058820.Desmurget M, Grafton S. Forward modeling allows feedback control for fast reaching movements.TrendsCogn Sci. 2000 Nov 1; 4 (11): 423-31. PubMed PMID: 11058820. Christensen MS, Lundbye-JensenJ, Geertsen SS, Petersen TH, Paulson OB, Nielsen JB. Premotor cortex modulatessomatosensory cortex during voluntary movements without proprioceptivefeedback. Nat Neurosci. 2007 Apr;10(4):417-9. PubMed PMID: 17369825.Christensen MS, Lundbye-JensenJ, Geertsen SS, Petersen TH, Paulson OB, Nielsen JB. Premotor cortex modulatessomatosensory cortex during voluntary movements without proprioceptivefeedback. Nat Neurosci. 2007 Apr; 10 (4): 417-9. PubMed PMID: 17369825. Duhamel JR, Colby CL, GoldbergME. The updating of the representation of visual space in parietal cortex byintended eye movements. Science. 1992 Jan 3;255(5040):90-2. PubMed PMID:1553535.Duhamel JR, Colby CL, GoldbergME.The updating of the representation of visual space in parietal cortex byintended eye movements.Science. 1992 Jan 3; 255 (5040): 90-2. PubMed PMID: 1553535. Sommer MA, Wurtz RH. Apathway in primate brain for internal monitoring of movements. Science. 2002May 24;296(5572):1480-2. PubMed PMID: 12029137.Sommer MA, Wurtz RH.Apathway in primate brain for internal monitoring of movements.Science. 2002May 24; 296 (5572): 1480-2. PubMed PMID: 12029137. Mulliken GH, Musallam S,Andersen RA. Forward estimation of movement state in posterior parietal cortex.Proc Natl Acad Sci U S A. 2008 Jun 17;105(24):8170-7. PubMed PMID: 18499800.Pubmed Central PMCID: 2448809.Mulliken GH, Musallam S, Andersen RA. Forward estimation of movement state in posterior parietal cortex.Proc Natl Acad Sci U S A. 2008 Jun 17; 105 (24): 8170-7. PubMed PMID: 18499800.Pubmed Central PMCID: 2448809. Troyer TW, Doupe AJ. Anassociational model of birdsong sensorimotor learning I. Efference copy and thelearning of song syllables. J Neurophysiol. 2000 Sep;84(3):1204-23. PubMedPMID: 10979996.Troyer TW, Doupe AJ. Anassociational model of birdsong sensorimotor learning I. Efference copy and thelearning of song syllables. J Neurophysiol. 2000 Sep; 84 (3): 1204-23. PubMedPMID: 10979996. Mischiati M, Lin HT, HeroldP, Imler E, Olberg R, Leonardo A. Internal models direct dragonfly interceptionsteering. Nature. 2015 Jan 15;517(7534):333-8. PubMed PMID: 25487153.Mischiati M, Lin HT, HeroldP, Imler E, Olberg R, Leonardo A. Internal models direct dragonfly interceptionsteering. Nature. 2015 Jan 15; 517 (7534): 333-8. PubMed PMID: 25487153. Shadmehr R, Wise SP. Thecomputational neurobiology of reaching and pointing. Cambridge, Massachusetts:The MIT Press; 2005.Shadmehr R, Wise SP.Thecomputational neurobiology of reaching and pointing.Cambridge, Massachusetts: The MIT Press; 2005. Wolpert DM, Kawato M.Multiple paired forward and inverse models for motor control. Neural Netw. 1998; 11(7-8):1317-29.Wolpert DM, Kawato M. Multiple paired forward and inverse models for motor control.Neural Netw. 1998; 11 (7-8): 1317-29. Christensen, M. S.,Lundbye-Jensen, J., Geertsen, S. S., Petersen, T. H., Paulson, O. B. &Nielsen, J. B. Premotor cortex modulates somatosensory cortex during voluntarymovements without proprioceptive feedback. Nat. Neurosci. 2007; 10, 417-419.(doi:10.1038/nn1873)Christensen, MS, Lundbye-Jensen, J., Geertsen, SS, Petersen, TH, Paulson, OB & Nielsen, JB Premotor cortex modulates somatosensory cortex during voluntarymovements without proprioceptive feedback. Nat. Neurosci. 2007; 10, 417-419. (Doi : 10.1038 / nn1873) Wolpert, D. M. & Flanagan,J. R. Motor prediction. Curr. Biol. . 2001; 11, R729-R732.(doi:10.1016/S0960-9822(01)00432-8)Wolpert, D. M. & Flanagan, J. R. Motor prediction. Curr. Biol.. 2001; 11, R729-R732. (Doi: 10.1016 / S0960-9822 (01) 00432-8) Miall, R. C. & King, D.State estimation in the cerebellum. Cerebellum 2008; 7, 572-576.(doi:10.1007/s12311-008-0072-6)Miall, R. C. & King, D. State estimation in the cerebellum. Cerebellum 2008; 7, 572-576. (Doi: 10.1007 / s12311-008-0072-6) Ganesh, G., Osu, R. &Naito, E. Feeling the force: returning haptic signals influence effortinference during motor coordination. Sci. Rep. 2013; 3, 2648.(doi:10.1038/srep02648)Ganesh, G., Osu, R. & Naito, E. Feeling the force: returning haptic signals influence effortinference during motor coordination. Sci. Rep. 2013; 3, 2648. (doi: 10.1038 / srep02648) Todorov, E. & Jordan, M.I. Optimal feedback control as a theory of motor coordination. Nat. Neurosci.2002; 5, 1226-1235. (doi:10.1038/nn963)Todorov, E. & Jordan, M.I.Optimal feedback control as a theory of motor coordination. Nat. Neurosci. 2002; 5, 1226-1235. (Doi: 10.1038 / nn963) Tseng,Y.-W., Diedrichsen, J., Krakauer, J. W., Shadmehr, R. & Bastian, A. J.Sensory prediction errors drive cerebellum-dependent adaptation of reaching. J.Neurophysiol. 2007; 98, 54-62. (doi:10.1152/jn.00266.2007)Tseng, Y.-W., Diedrichsen, J., Krakauer, JW, Shadmehr, R. & Bastian, AJSensory prediction errors drive cerebellum-dependent adaptation of reaching. J. Neurophysiol. 2007; 98, 54-62. : 10.1152 / jn.00266.2007) Yamashita O, Sato M, YoshiokaT, Tong F, Kamitani Y. "Sparse estimation automatically selects voxelsrelevant for the decoding of fMRI activity patterns". Neuroimage. 2008;42(4):1414-29.Yamashita O, Sato M, YoshiokaT, Tong F, Kamitani Y. "Sparse estimation automatically selects voxelsrelevant for the decoding of fMRI activity patterns". Neuroimage. 2008; 42 (4): 1414-29. Shakeel A, Navid MS, AnwarMN, Mazhar S, Jochumsen M, Niazi IK. A Review of Techniques for Detection ofMovement 意思 Using Movement-Related Cortical Potentials.Comput Math Methods Med. 2015; 2015:346217Shakeel A, Navid MS, AnwarMN, Mazhar S, Jochumsen M, Niazi IK.A Review of Techniques for Detection of Movement Intention Using Movement-Related Cortical Potentials.Comput Math Methods Med. 2015; 2015: 346217 Tian X, Poeppel D. Mentalimagery of speech and movement implicates the dynamics of internal forward models. Front Psychol. 2010; 1:166. doi:10.3389/fpsyg.2010.00166. eCollection 2010.Tian X, Poeppel D. Mentalimagery of speech and movement implicates the dynamics of internal forward models.Front Psychol. 2010; 1: 166.doi: 10.3389 / fpsyg.2010.00166.eCollection 2010. Gentili R, Han CE,Schweighofer N, Papaxanthis C. Motor learning without doing: trial-by-trialimprovement in motor performance during mental training. J Neurophysiol2010;104(2):774-83. doi: 10.1152/jn.00257.2010.Gentili R, Han CE, Schweighofer N, Papaxanthis C. Motor learning without doing: trial-by-trialimprovement in motor performance during mental training.J Neurophysiol 2010; 104 (2): 774-83.doi: 10.1152 / jn.00257.2010.

上記新技術の主要な特徴は、「アクティブな」デコーディング技術であることである。なぜアクティブかというと、上記技術が、脳信号の記録と並行して、デコードされる動作の意思に対応する感覚システムへの人工刺激を用いることを提案しているからである。   The main feature of the new technology is that it is an “active” decoding technology. The reason why it is active is that the above technique proposes to use artificial stimulation to the sensory system corresponding to the intention of the action to be decoded in parallel with the recording of the brain signal.

標準的なBMI構造。Standard BMI structure. 本発明で提案する構造/方法。本発明の発明者らは、(他のデコーディング方法(図1)のような)動作の意思の直接的なデコードではなく、感覚スティミュレータを並行して用いて、意思が刺激に合致しているかをデコードすることを提案する。Structure / method proposed in the present invention. The inventors of the present invention use a sensory stimulator in parallel, rather than direct decoding of the intention of movement (as in other decoding methods (FIG. 1)), and the intention matches the stimulus. Propose to decode.

(神経科学の動機および原理)
このようなアクティブな手段をとる理由は神経科学に基づく。運動神経科学では、ヒトの動作が、自己により生成される行為(self-generated action)についての感覚信号を推定(estimate)し予測(predict)する脳の能力によってクリティカルに決定されることが十分に確立されている(非特許文献1〜4)。従来のヒトの運動研究(非特許文献5〜8)、ヒト以外の霊長類の運動研究(非特許文献9〜11)、トリの運動研究(非特許文献12)、および昆虫の運動研究(非特許文献13)によれば、自己により生成される行為についての推定は、運動命令を、自己の行為の予測される感覚的結果へと変換する順モデル(forward model)によって行われる(非特許文献14、15)。近年の研究によれば、同じ順モデルは、観察された動作についての感覚的アウトプットも同様に予測する。脳は予測誤差、すなわち(順モデルからの)予測と実際の感覚的アウトプットとの差異を計算し、自己により生成される行為についての知覚を生成し(非特許文献16〜19)、オンラインでの運動制御の内部モデルを更新し(非特許文献20)、運動学習を更新する(非特許文献21)。本発明の発明者らにとって重要なことに、順モデルは、行為の生成時にアクティブであるだけでなく、行為が想像された時でもアクティブであると考えられる(非特許文献24、25)。ここで、本発明の発明者らは、この事実を用いて、想像された意思をデコードする新たな方法を開発する。
(Motivation and principle of neuroscience)
The reason for taking such active measures is based on neuroscience. In motor neuroscience, it is sufficient that human movement is critically determined by the ability of the brain to estimate and predict sensory signals for self-generated actions. It has been established (Non-Patent Documents 1 to 4). Conventional human movement research (Non-Patent Documents 5 to 8), non-human primate movement research (Non-Patent Documents 9 to 11), bird movement research (Non-Patent Document 12), and insect movement research (Non-Patent Documents 9 to 11) According to Patent Document 13), the estimation of the acts that are generated by the self, the exercise instruction, (non-patent document performed by the forward model to convert into sensory expected results of its own actions (forward model) 14, 15). According to recent studies, the same forward model predicts sensory output for the observed behavior as well. The brain calculates the prediction error , ie the difference between the prediction (from the forward model) and the actual sensory output, generates a perception of the action generated by itself (Non-Patent Documents 16-19), and online The internal model of motor control is updated (Non-patent document 20), and motor learning is updated (Non-patent document 21). Important to the inventors of the present invention, the forward model is considered not only active when an action is generated, but also active when an action is imagined (24, 25). Here, the inventors of the present invention use this fact to develop a new method for decoding an imagined intention.

本発明の発明者らは、脳信号から、意思を直接デコードするのではなく、予測誤差をデコードして、それにより、被験者が想像した意思がどのようなものかを決定する。脳による予測誤差の生成を促すため、本発明の発明者らは、脳に実際の感覚信号をアクティブに提供することを必要とする。したがって、本発明の発明者らのアイデアは、被験者が動こうと意思しているときに特定の感覚的刺激を送り、誤差信号をデコードし(被験者が、送られた感覚信号に対応して動こうとしているか否かをデコードし)、それにより被験者の動作の意思をデコードすることである(図2)。 The inventors of the present invention do not decode the intention directly from the brain signal, but rather decode the prediction error, thereby determining what the subject has imagined. In order to encourage the generation of prediction errors by the brain, the inventors of the present invention need to actively provide actual sensory signals to the brain. Therefore, the idea of the inventors of the present invention is to send a specific sensory stimulus when the subject is willing to move and decode the error signal (the subject moves in response to the sent sensory signal). Decoding whether or not this is the case), thereby decoding the intention of the subject's movement (FIG. 2).

このやり方は、以下に掲げるいくつの理由により、ずっとロバストで効率的であると、本発明の発明者らは考える。
1)意思は、脳の活性化の点で、極めて主観的に異なり得る複雑な現象である。最終的な動作の方向(または誤差)の方が、はるかに低次元な信号であり、複数の被験者のあいだで類似することもおそらく間違いなく容易である。
2)順モデルは運動システムの重要な一部であり、誤差信号は多くの運動動作にとって不可欠である。したがって、本発明の発明者らは、誤差信号は脳活動において大きな特徴を有すると考える。
3)本発明の発明者らの方法は、意思を探知するために、順モデルをアクティブに妨害する方法を提供する。これは、「それぞれの」意思をデコードするために、当該方法は、異なる種類の妨害による複数の(別々の)記録を可能にすることを意味する。したがって、当該方法は、動作の意思に関するはるかに豊かな脳データを得ることを期待させるものである。
The inventors of the present invention consider this approach to be much more robust and efficient for several reasons:
1) Intention is a complex phenomenon that can vary very subjectively in terms of brain activation. The final direction of motion (or error) is a much lower dimensional signal and is definitely easier to resemble among multiple subjects.
2) The forward model is an important part of the motion system and the error signal is essential for many motion motions. Therefore, the inventors of the present invention consider that the error signal has a significant feature in brain activity.
3) Our method of the present invention provides a way to actively disturb the forward model to detect intentions. This means that, in order to decode “each” intention, the method allows multiple (separate) recordings with different kinds of disturbances. Therefore, this method is expected to obtain much richer brain data regarding the intention of movement.

不可欠なアイデアは、脳活動から動作の意思を直接デコードする代わりに、予測誤差をデコードする点である。脳活動は1つ以上の脳イメージング様式(例えば、脳波記録(EEG)、脳磁図(MEG)、近赤外線分光法(NIRS)、機能的磁気共鳴画像法(fMRI)など)によって測定してよい。   An essential idea is to decode the prediction error instead of decoding the intention of movement directly from the brain activity. Brain activity may be measured by one or more brain imaging modalities (eg, electroencephalography (EEG), magnetoencephalogram (MEG), near infrared spectroscopy (NIRS), functional magnetic resonance imaging (fMRI), etc.).

本発明の発明者らはこの方法を動作の意思のデコーディングに提案するが、同じやり方は、自己の想像した動作または思考あるいは他者において観察された動作または思考をデコーディングするのにも用い得る。予測誤差のデコーディングは、意思、想像または思考に従って実際の動作が行われる(または観察される)際に活性化される可能性が高い感覚様式(sensory modus)による刺激を必要とする。なぜなら、それこそ、順モデルが強く予測するであろうものだからである。例えば、ヒトまたは動物の意思した手の動作をデコードすることが目標である場合、(デコーディングに必要な)刺激は、ヒト/動物が自己の手が動いている(実際にはそうでなくても)と感じるように、手の動作(おそらく、腱の振動)に対応したものであるべきである。歩く意思の有無のデコードが目標である場合は、(デコーディングに必要な)刺激は、ヒト/動物が、自己が歩いている(実際にはそうでなくても)と感じるようなものであるべきである。   The inventors of the present invention propose this method for decoding intentions of action, but the same approach can also be used to decode actions or thoughts that one imagines or has been observed in others. obtain. Prediction error decoding requires stimulation with a sensory modus that is likely to be activated when an actual action is performed (or observed) according to intention, imagination or thought. This is because the forward model will predict strongly. For example, if the goal is to decode the movement of a human or animal's intended hand, the stimulus (necessary for decoding) is that the human / animal has its own hand moving (actually not Should also correspond to hand movements (probably tendon vibrations). When the goal is to decode the intention to walk, the stimulus (necessary for decoding) is such that the human / animal feels that he / she is walking (but not really) Should.

予測誤差は、感覚的手がかり(sensory cue)のトレーニング関連付け(条件付けトレーニングのような)を用いて準備してよい。感覚的手がかりは、聴覚および/または視覚および/または触覚および/または嗅覚および/または味覚でよく、行ったまたは観察した動作の前でも後でもよい。同様に、他の人工的な、電気的、機械的または磁気的刺激を、身体の感覚システムに入力としてトレーニングし、動作の意思、想像、または思考と関連付けてもよい。そのようなトレーニングにより、刺激中における予測誤差の強度を手がかりを用いて増大させてもよく、あるいは、感覚的刺激の代わりに、トレーニングされた手がかりを提供して、脳内で予測誤差を生成し、意思、想像、または思考をデコードしてもよい。このように、用いられるタスクおよびトレーニングのパラダイムに応じて、刺激または手がかりは、意思、想像、または思考と並行してまたは直後に提示される必要がある。   Prediction errors may be prepared using sensory cue training associations (such as conditioning training). The sensory cues may be auditory and / or visual and / or tactile and / or olfactory and / or gustatory, and may be before or after the performed or observed movement. Similarly, other artificial, electrical, mechanical, or magnetic stimuli may be trained as input into the body's sensory system and associated with movement intentions, imagination, or thoughts. Such training may increase the strength of prediction errors during stimulation using cues, or provide trained cues instead of sensory stimuli to generate prediction errors in the brain. May decode intentions, imaginations, or thoughts. Thus, depending on the task and training paradigm used, stimuli or cues need to be presented in parallel or immediately after intention, imagination, or thought.

最後に、本発明の発明者らは、たとえ刺激がごくわずかでもデコーディングは機能すること――動作の知覚的幻影を作り出すには不十分なほどごくわずかな刺激でも、デコーディングには大きな助けとなることを、経験から示すことができる。すなわち、被験者は何ら刺激または知覚的混乱に気付くことがない。   Finally, the inventors of the present invention have shown that decoding works even with very little stimulus-even very little stimulus that is insufficient to create a perceptual illusion of motion is a great help for decoding. Can show from experience. That is, the subject does not notice any stimulus or perceptual confusion.

(予備試験/検証)
予備設定として、本発明の発明者らは、車椅子のユーザ向けの技術を調べ、車椅子のユーザが車椅子をどちらの方向に曲がらせたいかをデコードした。本発明の発明者らは、市販の脳波記録(EEG)システムを用いて脳信号を記録した。ヒトにおける動作方向の変化の主要な知覚フィードバックは前庭器官から来るので、本発明の発明者らは、ヒトの前庭器官を刺激する、(大阪大学による)特注の電気的前庭スティミュレータ(GVS)を用いた。しかし、本発明の発明者らは、極めて低いGVS刺激を用いたので、ヒトの被験者には(動作として)知覚されなかった。それから、本発明の発明者らは、スパースロジスティック回帰アルゴリズム(非特許文献22)を用いた。このアルゴリズムは、GVS信号の方向が、ユーザが車椅子を曲がらせたい方向に合致するか否かをデコードするものである。
(Preliminary test / verification)
As a preliminary setting, the inventors of the present invention investigated the technology for wheelchair users and decoded which direction the wheelchair user wanted to turn the wheelchair. The inventors of the present invention recorded brain signals using a commercially available electroencephalography (EEG) system. Since the main perceptual feedback of movement direction changes in humans comes from the vestibular organs, the inventors of the present invention provide a custom-made electrical vestibule stimulator (GVS) (by Osaka University) that stimulates the human vestibular organs. Using. However, since the inventors of the present invention used very low GVS stimulation, they were not perceived (as motion) by human subjects. Then, the inventors of the present invention used a sparse logistic regression algorithm (Non-Patent Document 22). This algorithm decodes whether or not the direction of the GVS signal matches the direction in which the user wants to turn the wheelchair.

まとめると、本発明の発明者らは、被験者に、自分の椅子が左または右に曲がると想像してもらい、想像するあいだに小さなGVS刺激を与え、そして、被験者が想像していることが刺激(方向)と対応するかどうか評価することにより、EEG信号から、被験者が想像していることをデコードできる。本発明の発明者らは、5名の参加者にこの技術を試し、GVSの開始後96msのEEGデータから、〜90%の精度で意思をデコードした。   In summary, the inventors of the present invention have the subject imagine that his chair bends left or right, gives a small GVS stimulus while envisioning, and stimulates that the subject is imagining By evaluating whether or not it corresponds to (direction), it is possible to decode what the subject imagines from the EEG signal. The inventors of the present invention tried this technique with 5 participants and decoded their intention with ~ 90% accuracy from 96 ms EEG data after the start of GVS.

(オンラインかつ連続的なデコーディングへの拡張)
現在のところ、本発明の発明者らは、上記方法を、オフラインの個別化された手段で検証した。当該手段では、被験者に自分が右または左に曲がると想像してもらった。この特定の実験では、被験者の前庭器官を一度だけ刺激し、その後、曲がる意思をEEG信号からデコードできるかを調べた。
(Extension to online and continuous decoding)
At present, the inventors of the present invention have verified the above method with off-line personalized means. With this means, the subject had imagined that he would turn right or left. In this particular experiment, the subject's vestibular organs were stimulated only once and then examined to see if the intention to bend could be decoded from the EEG signal.

しかし、上記方法(および、デコーディングが<100msでできるという事実)は、リアルタイムでの適用に至る見込みを与えるものである。リアルタイムでの適用では、オンラインで、いかなるタスク(例えば、車椅子の操作)のあいだでも、100ms(デコーディングに必要な時間)毎に繰り返される刺激を用いて、動作の意思を絶えずデコードすることができる。これらの刺激はランダムでも、数が少なくても、周期的でも、常時でもよい。これらの刺激は、タスク中の他の生理的変数、行動変数、または環境変数と同時に与えられてもよいし、タスク中の他の生理的変数、行動変数、または環境変数によってトリガされてもよい。実際、複数の刺激を用いることで、デコーディングの性能をさらに高めることができる。   However, the above method (and the fact that decoding can be done in <100 ms) gives the prospect of real-time application. For real-time applications, the intention of motion can be continuously decoded online with stimuli repeated every 100 ms (time required for decoding) during any task (eg, wheelchair operation) . These stimuli may be random, small in number, periodic or constant. These stimuli may be given at the same time as other physiological, behavioral, or environmental variables in the task, or may be triggered by other physiological, behavioral, or environmental variables in the task . In fact, decoding performance can be further enhanced by using multiple stimuli.

1)BMI:本発明の発明者らの方法は、脳から運動の意思をデコードする力を大幅に向上させ、それゆえ、人工装具や、娯楽や、ロボット用途に用いられるブレイン・マシーン・インターフェースに不可欠となるであろう。
2)神経科学:本発明の発明者らの方法は、脳内の予測誤差信号の存在を示すものであり、神経科学者が、脳、とりわけ感覚運動システムの機能をより理解するのに役に立つ。
3)医療診断:上記方法を医療診断に用いることができる。デコーディングを刺激と組み合わせて、脳の正常/異常機能を決定するのに役立ち得るからである。したがって、上記方法は、健康な個人、年配の個人、または罹患した個人の意思、想像、または思考をデコードするのに役立ち得る。
1) BMI: Our method of the present invention greatly improves the ability to decode motor intentions from the brain, and thus is a brain machine interface used for prosthetics, entertainment and robotic applications. It will be essential.
2) Neuroscience: Our method indicates the presence of a prediction error signal in the brain and helps the neuroscientist better understand the function of the brain, especially the sensorimotor system.
3) Medical diagnosis: The above method can be used for medical diagnosis. Because decoding can be combined with stimuli to help determine normal / abnormal brain function. Thus, the method may be useful for decoding the intentions, imaginations, or thoughts of healthy individuals, elderly individuals, or affected individuals.

Claims (12)

ヒトまたは動物用の、意思、想像、または思考のデコーディングシステムであって、
a.脳活動の記録または測定システムと、
b.デコーディング対象である上記意思、想像、または思考に関連する1つ以上の人工的に引き起こされた感覚的手がかりおよび/または刺激を適用する、感覚刺激システムと、
c.上記感覚的手がかりまたは刺激の存在下、またはその直後に記録された脳活動を分析し、上記意思、想像、または思考をデコードする、コンピュータプログラムまたはアルゴリズムと、を有する、デコーディングシステム。
A human, animal, intention, imagination or thought decoding system,
a. A recording or measuring system of brain activity;
b. A sensory stimulation system that applies one or more artificially induced sensory cues and / or stimuli associated with the intention, imagination, or thought being decoded;
c. A decoding system comprising: a computer program or algorithm that analyzes brain activity recorded in or immediately after the presence of the sensory cues or stimuli and decodes the intention, imagination, or thought.
1つ以上の脳イメージング様式を用いて脳活動を測定および/または記録し、該1つ以上の脳イメージング様式の例は、脳波記録(EEG)、脳磁図(MEG)、近赤外線分光法(NIRS)、機能的磁気共鳴画像法(fMRI)などである、請求項1に記載の脳記録または測定システム。   Brain activity is measured and / or recorded using one or more brain imaging modalities, examples of which include brain wave recording (EEG), magnetoencephalography (MEG), near infrared spectroscopy (NIRS). ), Functional magnetic resonance imaging (fMRI), or the like. 上記手がかりは、個体に対する聴覚的入力および/または視覚的入力および/または触覚的入力および/または嗅覚的入力および/または味覚的入力であり、該個体は上記手がかりを意識的に知覚してもしなくてもよい、請求項1に記載のデコーディングシステム。   The clue is an audio and / or visual input and / or a tactile input and / or an olfactory input and / or a taste input to the individual, and the individual does not consciously perceive the clue. The decoding system of claim 1, which may be. 上記刺激は、身体の感覚システムに対する電気的入力、機械的入力、または磁気的入力であり、個体は上記刺激を意識的に知覚してもしなくてもよい、請求項1に記載のデコーディングシステム。   The decoding system according to claim 1, wherein the stimulus is an electrical input, a mechanical input, or a magnetic input to a body sensory system, and the individual may or may not consciously perceive the stimulus. . 意思、想像、または思考がデコーディングの対象であるユーザが、上記手がかりと上記意思、想像、または思考との間に関連付けが形成されるように予めトレーニングされていてよい、請求項3に記載の手がかり。   4. A user whose intention, imagination, or thought is subject to decoding may be pre-trained to form an association between the clue and the intention, imagination, or thought. clue. 意思、想像、または思考がデコーディングの対象であるユーザが、上記刺激と上記意思、想像、または思考との間に関連付けが形成されるように予めトレーニングされていてよい、請求項4に記載の刺激。   5. A user whose intention, imagination, or thought is subject to decoding may be pretrained so that an association is formed between the stimulus and the intention, imagination, or thought. stimulation. 刺激または手がかりを、一回または複数回、ランダムに、周期的に、または、他の生理的変数、行動変数、または環境変数と同時に、または他の生理的変数、行動変数、または環境変数にトリガされて、適用する、請求項2に記載の刺激システム。   Trigger a stimulus or clue one or more times, randomly, periodically, or simultaneously with other physiological, behavioral, or environmental variables, or with other physiological, behavioral, or environmental variables The stimulation system according to claim 2, wherein the stimulation system is applied. 手動でトリガされる刺激および/または手がかりを適用する、請求項2に記載の刺激システム。   3. A stimulation system according to claim 2, applying manually triggered stimulation and / or cues. 刺激および/または手がかりを、個体の意思、想像、または思考の前、最中、または後に適用する、請求項2に記載の刺激システム。   3. A stimulation system according to claim 2, wherein the stimulation and / or cues are applied before, during or after the individual's intention, imagination or thought. 上記デコーディングは、一回または複数回、行われてよい、請求項1に記載のデコーディングシステム。   The decoding system according to claim 1, wherein the decoding may be performed once or a plurality of times. 上記意思、想像、または思考と、上記適用された手がかりまたは刺激との相違をデコードする、請求項1に記載のコンピュータシステムまたはアルゴリズム。   The computer system or algorithm of claim 1, wherein the computer system or algorithm of claim 1 decodes a difference between the intention, imagination or thought and the applied clue or stimulus. 健康な個体、年配の個体、または罹患した個体とともに用いられて、該個体の意思、想像、または思考をデコードする、請求項1に記載のデコーディングシステム。   The decoding system according to claim 1, wherein the decoding system is used with a healthy individual, an elderly individual, or an affected individual to decode the individual's will, imagination, or thought.
JP2019500670A 2016-07-13 2016-07-13 A new way to accurately decode human intentions about movement from brain signals Active JP6884349B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2016/001185 WO2018011615A1 (en) 2016-07-13 2016-07-13 System for precise decoding of movement related human intention from brain signal

Publications (3)

Publication Number Publication Date
JP2019527416A true JP2019527416A (en) 2019-09-26
JP2019527416A5 JP2019527416A5 (en) 2021-01-14
JP6884349B2 JP6884349B2 (en) 2021-06-09

Family

ID=56877070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019500670A Active JP6884349B2 (en) 2016-07-13 2016-07-13 A new way to accurately decode human intentions about movement from brain signals

Country Status (3)

Country Link
EP (1) EP3484356A1 (en)
JP (1) JP6884349B2 (en)
WO (1) WO2018011615A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12118718B2 (en) 2021-01-27 2024-10-15 Canon Medical Systems Corporation Medical information processing apparatus, medical information processing method, and non-transitory computer-readable medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109078262B (en) * 2018-08-15 2022-11-01 北京机械设备研究所 MI-BCI training method based on peripheral nerve electrical stimulation
CN109359403B (en) * 2018-10-29 2023-04-18 上海市同济医院 Schizophrenia early diagnosis model based on facial expression recognition magnetic resonance imaging and application thereof
KR102276991B1 (en) * 2018-11-06 2021-07-13 고려대학교 산학협력단 Apparatus and method for controlling wearable robot by detecting motion intention of users based on brain machine interface

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011140303A1 (en) * 2010-05-05 2011-11-10 University Of Maryland, College Park Time domain-based methods for noninvasive brain-machine interfaces
AT515038B1 (en) * 2013-10-21 2015-12-15 Guger Christoph Dipl Ing Dr Techn Method for quantifying the perceptibility of a person

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12118718B2 (en) 2021-01-27 2024-10-15 Canon Medical Systems Corporation Medical information processing apparatus, medical information processing method, and non-transitory computer-readable medium

Also Published As

Publication number Publication date
WO2018011615A1 (en) 2018-01-18
EP3484356A1 (en) 2019-05-22
JP6884349B2 (en) 2021-06-09

Similar Documents

Publication Publication Date Title
Tieri et al. Virtual reality in cognitive and motor rehabilitation: facts, fiction and fallacies
Stangl et al. Mobile cognition: imaging the human brain in the ‘real world’
US11904101B2 (en) Digital virtual limb and body interaction
Findlater et al. Upper extremity proprioception after stroke: bridging the gap between neuroscience and rehabilitation
Paredes et al. CalmMeNow: exploratory research and design of stress mitigating mobile interventions
JP6884349B2 (en) A new way to accurately decode human intentions about movement from brain signals
Tidoni et al. Illusory movements induced by tendon vibration in right-and left-handed people
Keshner et al. The untapped potential of virtual reality in rehabilitation of balance and gait in neurological disorders
Avanzino et al. Action observation: mirroring across our spontaneous movement tempo
Hilt et al. Motor recruitment during action observation: effect of interindividual differences in action strategy
Bruno et al. How tool-use shapes body metric representation: Evidence from motor training with and without robotic assistance
Mohammadi Ziabari et al. An adaptive cognitive temporal-causal network model of a mindfulness therapy based on music
Mottura et al. A virtual reality system for strengthening awareness and participation in rehabilitation for post-stroke patients
Schoeller et al. Interoceptive technologies for clinical neuroscience
Russo et al. Highlights from the 30th Annual Meeting of the Society for the Neural Control of Movement
Ramadan et al. Unraveling the potential of brain-computer interface technology in medical diagnostics and rehabilitation: A comprehensive literature review
Kilteni Methods of somatosensory attenuation
Ensastiga et al. Speed controller-based fuzzy logic for a biosignal-feedbacked cycloergometer
Trocellier et al. Identifying factors influencing the outcome of BCI-based post stroke motor rehabilitation towards its personalization with Artificial Intelligence
Kavounoudias Sensation of movement: a multimodal perception
Mazurek et al. Highlights from the 28th Annual Meeting of the Society for the Neural Control of Movement
JP6973430B2 (en) Information processing equipment, methods for making information processing equipment simulate intellectual behavior, computer programs, and storage media that store them.
Graceshalini et al. A Review of Innovation to Human Augmentation in Brain‐Machine Interface–Potential, Limitation, and Incorporation of AI
Grünbaum et al. Sensation of movement
Ramezanzade et al. The effect of sonification of visual modeling on relative timing: The role in motor learning

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A525

Effective date: 20190304

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20201127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210427

R150 Certificate of patent or registration of utility model

Ref document number: 6884349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533