JP6850026B2 - 運動教示システム及び運動教示方法 - Google Patents
運動教示システム及び運動教示方法 Download PDFInfo
- Publication number
- JP6850026B2 JP6850026B2 JP2018521765A JP2018521765A JP6850026B2 JP 6850026 B2 JP6850026 B2 JP 6850026B2 JP 2018521765 A JP2018521765 A JP 2018521765A JP 2018521765 A JP2018521765 A JP 2018521765A JP 6850026 B2 JP6850026 B2 JP 6850026B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- teaching
- brain activity
- exercise
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 95
- 230000007177 brain activity Effects 0.000 claims description 289
- 230000033001 locomotion Effects 0.000 claims description 288
- 238000012549 training Methods 0.000 claims description 60
- 230000007704 transition Effects 0.000 claims description 55
- 230000000284 resting effect Effects 0.000 claims description 54
- 210000004556 brain Anatomy 0.000 claims description 45
- 230000000694 effects Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 7
- 230000009471 action Effects 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 description 37
- 238000012545 processing Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 30
- 238000003860 storage Methods 0.000 description 23
- 239000011159 matrix material Substances 0.000 description 16
- 238000004458 analytical method Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 15
- 238000002474 experimental method Methods 0.000 description 14
- 230000000007 visual effect Effects 0.000 description 12
- 230000010365 information processing Effects 0.000 description 10
- 230000000272 proprioceptive effect Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 210000001364 upper extremity Anatomy 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 238000013480 data collection Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000003387 muscular Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 210000003141 lower extremity Anatomy 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000000540 analysis of variance Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 210000003414 extremity Anatomy 0.000 description 3
- 238000012880 independent component analysis Methods 0.000 description 3
- 230000003155 kinesthetic effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000009012 visual motion Effects 0.000 description 3
- 238000004497 NIR spectroscopy Methods 0.000 description 2
- 208000006011 Stroke Diseases 0.000 description 2
- 238000001790 Welch's t-test Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000012850 discrimination method Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000002087 whitening effect Effects 0.000 description 2
- 238000000692 Student's t-test Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 210000003169 central nervous system Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000001320 hippocampus Anatomy 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007659 motor function Effects 0.000 description 1
- 230000036403 neuro physiology Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 108091008706 proprioceptors Proteins 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000002265 sensory receptor cell Anatomy 0.000 description 1
- 108091008691 sensory receptors Proteins 0.000 description 1
- 102000027509 sensory receptors Human genes 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012353 t test Methods 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H1/00—Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
- A61H1/02—Stretching or bending or torsioning apparatus for exercising
- A61H1/0274—Stretching or bending or torsioning apparatus for exercising for the upper limbs
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H1/00—Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
- A61H1/02—Stretching or bending or torsioning apparatus for exercising
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H1/00—Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
- A61H1/02—Stretching or bending or torsioning apparatus for exercising
- A61H1/0237—Stretching or bending or torsioning apparatus for exercising for the lower limbs
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B23/00—Exercising apparatus specially adapted for particular parts of the body
- A63B23/035—Exercising apparatus specially adapted for particular parts of the body for limbs, i.e. upper or lower limbs, e.g. simultaneously
- A63B23/04—Exercising apparatus specially adapted for particular parts of the body for limbs, i.e. upper or lower limbs, e.g. simultaneously for lower limbs
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B23/00—Exercising apparatus specially adapted for particular parts of the body
- A63B23/035—Exercising apparatus specially adapted for particular parts of the body for limbs, i.e. upper or lower limbs, e.g. simultaneously
- A63B23/12—Exercising apparatus specially adapted for particular parts of the body for limbs, i.e. upper or lower limbs, e.g. simultaneously for upper limbs or related muscles, e.g. chest, upper back or shoulder muscles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0006—Exoskeletons, i.e. resembling a human figure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1657—Movement of interface, i.e. force application means
- A61H2201/1659—Free spatial automatic movement of interface within a working area, e.g. Robot
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2230/00—Measuring physical parameters of the user
- A61H2230/08—Other bio-electrical signals
- A61H2230/10—Electroencephalographic signals
- A61H2230/105—Electroencephalographic signals used as a control parameter for the apparatus
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physical Education & Sports Medicine (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Epidemiology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Human Computer Interaction (AREA)
- Rehabilitation Therapy (AREA)
- Animal Behavior & Ethology (AREA)
- Pain & Pain Management (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Biophysics (AREA)
- Rehabilitation Tools (AREA)
- User Interface Of Digital Computer (AREA)
Description
まず、図1を用いて、本実施形態に係る運動教示システム1000の構成例について説明する。図1は、本実施形態に係る運動教示システム1000の構成を模式的に例示する。運動教示システム1000は、被験者2の脳活動を検知して、当該被験者2の運動の訓練を支援する。この被験者2は、本発明の「対象者」に相当する。
次に、図2を用いて、本実施形態に係るコンピュータ20のハードウェア構成の一例について説明する。図2は、本実施形態に係るコンピュータ20のハードウェア構成の一例を模式的に例示する。
次に、図3を用いて、被験者2に運動を教示する方法を説明する。図3は、力覚提示デバイス80により被験者2へ受動的な運動の教示を行う場面を例示する。
(1)力覚提示デバイス80による被験者2への受動的な運動の教示の期間中において、被験者2の脳活動が運動想像状態(運動想像のクラス)であると、運動の習得度合いが有意に向上する。
(2)運動の教示の期間中に被験者2の脳活動が運動想像の状態(運動想像のクラス)になるか否かは、運動の教示の期間の前段階で被験者2の脳活動がどの状態(クラス)となっていたかによって、被験者2毎に個別に依存している。
(A)運動教示前に脳活動が「運動想像状態」であると、運動教示期間中の脳活動が「運動想像状態」となる。一方、運動教示前に脳活動が「安静状態」であると、運動教示期間中の脳活動が「安静状態」となる。
(B)運動教示前に脳活動が「運動想像状態」であると、運動教示期間中の脳活動が「安静状態」となる。一方、運動教示前に脳活動が「安静状態」であると、運動教示期間中の脳活動が「運動想像状態」となる。
(C)運動教示前に脳活動がいずれのクラスであっても、運動教示期間中の脳活動が「運動想像状態」となる。
(D)運動教示前に脳活動がいずれのクラスであっても、運動教示期間中の脳活動が「安静状態」となる。
次に、図4を用いて、被験者2の脳活動のクラスを分類するためのコンピュータ20の機能構成について説明する。図4は、被験者2の脳活動のクラスを分類するためのコンピュータ20の機能構成の一例を模式的に例示する。
次に、脳活動の状態を分類可能なデコーダ、具体的には、上記デコーダ404が利用する空間フィルタ及び識別器の作成方法を説明する。例えば、以下の公知文献2および公知文献3には、適応的な線形判別分析(LDA)を用いた分類器と適応的な空間フィルタとを組み合わせた技術が開示されている。
・公知文献2:W. Wojcikiewicz, C. Vidaurre, and M. Kawanabe, ”Improving classification performance of bcis by using stationary common spatial patterns and unsupervised bias adaptation,” in Hybrid Artificial Intelligent Systems, ser. Lecture Notes in Computer Science. Springer Berlin Heidelberg, 2011, vol. 6679, pp. 34-41.
・公知文献3:R. Tomioka, J. Hill, B. Blankertz, and K. Aihara, ”Adapting spatial filtering methods for nonstationary bcis,” transformation, vol. 10, p. 1, 2006.
・公知文献4:X. Yong, R. K. Ward, and G. E. Birch, ”Robust common spatial patterns for eeg signal preprocessing.” Conference proceedings : Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society. Annual Conference, vol. 2008, pp. 2087-2090, 2008.
CSPアルゴリズムは、運動イメージによる律動変調に基づくBMIの2クラス(C1又はC2)の分類問題において、特徴量を抽出する手法として多用されている。例えば、運動想像状態がクラスC1であり、安静状態がクラスC2である。
次に、複数のCSPフィルタの中から、最適なCSPフィルタ、すなわち、脳活動の識別性能の最も高いCSPフィルタを選択する特徴選択アルゴリズムの一例について説明する。
・公知文献5:P. Geurts, D. Ernst., and L. Wehenkel, "Extremely randomized trees", Machine Learning, 63(1), 3-42, 2006.
次に、上記CSPアルゴリズム及び特徴選択アルゴリズムを利用して、コンピュータ20(学習処理部420)が、デコーダのCSPフィルタ及び識別器を作成する過程について説明する。
次に、図5を用いて、被験者2に運動を教示する手順について説明する。図5は、本実施形態に係る運動教示システム1000により被験者2に運動を教示する手順を示すフローチャートである。
まず、ステップS100では、コンピュータ20の演算装置210は、データ収集部60として機能して、力覚提示デバイス80による運動パターンの教示の前に、トレーニングデータセットを取得する。
次のステップS102では、演算装置210は、学習処理部420として機能し、トレーニングデータセットに基づいて、被験者2の脳活動をデコードするのに利用する空間フィルタ及び識別器を作成する。本実施形態では、演算装置210は、上記CSPアルゴリズム及び特徴選択アルゴリズムを利用した機械学習により、運動想像の検知に最適なCSPフィルタ及び識別器を生成する。そして、演算装置210は、生成したCSPフィルタ及び識別器を脳活動分析部40のデコーダ404に設定する。これにより、運動教示の準備が完了し、被験者2の脳活動の分析すること、具体的には、運動想像のクラス又は安静状態のクラスに被験者2の脳活動を分類することが可能となる。
次のステップS104では、演算装置210は、後述する運動パターンの教示の期間(ステップS110)中における被験者2の脳活動が運動想像のクラスに分類されるように、運動パターンの教示の前において被験者2に対して想起させる想起内容を出力する。本実施形態では、演算装置210は、訓練制御部30として機能して、プロジェクタ70により被験者2に想起させる想起内容(「前提想起内容」と称してもよい)をスクリーン84に投影する。これにより、演算装置210は、運動パターンの教示前において、当該想起内容を想起するように被験者2に指示する。
次のステップS106では、演算装置210は、想起内容を想起するように被験者2に指示している間に、脳波センサ10から当該被験者2のEEG信号を取得する。次に、演算装置210は、フィルタ処理部402として機能し、取得したEEG信号にバンドパスフィルタを適用して所定の周波数成分(7〜30Hz)を抽出する。そして、演算装置210は、デコーダ404として機能して、上記ステップS102で設定したCSPフィルタ及び識別器を抽出した周波数成分に適用する。これにより、演算装置210は、運動パターンの教示の前に取得される被験者2のEEG信号をデコードする。
被験者2の脳活動が想起内容に対応するクラスに分類されたこと(トリガ信号の出力)に応じて、次のステップS110では、演算装置210は、訓練制御部30として機能して、力覚提示デバイス80(制御モジュール50)に対して運動パターンを教示する動作の開始を指示するコマンドを出力する。これにより、被験者2に対して受動的な運動パターンの教示(固有受容性トレーニング)を実施する。
次のステップS114では、演算装置210は、運動パターンの教示が終了した後に、プロジェクタ70を制御して、ステップS112により運動パターンの教示期間中に脳波センサ10から取得したEEG信号をデコードした結果をスクリーン84に表示する。これにより、演算装置210は、運動パターンの教示期間中における被験者2の脳活動が運動想像のクラスに分類されるか否か、換言すると、被験者2の脳活動の分類されたクラスが運動想像のクラスであったか否かをスクリーン84に表示する。
次のステップS116では、演算装置210は、訓練制御部30として機能して、運動パターンの教示期間中において、脳波センサ10から取得された被験者2のEEG信号をデコードした結果、運動パターンの教示期間中における被験者2の脳活動が運動想像のクラスに分類されたか否かを判定する。被験者2の脳活動が運動想像以外のクラス(すなわち、安静状態のクラス)に分類された場合(ステップS116でN)、演算装置210は、次のステップS120に処理を進める。一方、被験者2の脳活動が運動想像のクラスに分類された場合、演算装置210は、次のステップS118に処理を進める。
次に、図6を用いて、空間フィルタのクラスタリングについて説明する。図6は、複数の被験者から得られた空間フィルタをクラスタリングし、運動の習得に適した空間フィルタの属するグループ(以下、最適グループと称する)を特定する処理手順の一例を示す。後述する実証実験では、上記(1)及び(2)の他、次の(3)の知見も得られた。
(3)各被験者の脳活動のタイプと運動教示中の脳活動の状態との相互作用により、運動の習得度合いに有意な差が生じる。
まず、ステップS200では、演算装置210は、複数の被験者それぞれについて、トレーニングデータセットを取得する。各被験者のトレーニングデータセットの取得は、上記ステップS100と同様に行うことができる。次のステップS202では、演算装置210は、上記ステップS102と同様に、各被験者のトレーニングデータセットに基づいて、各被験者の脳活動をデコードするデコーダに利用するCSPフィルタ及び識別器を作成する。
次のステップS204では、演算装置210は、力覚提示デバイス80に対して運動パターンを教示する動作を実行させることで、各被験者に対して受動的な運動パターンの教示(固有受容性トレーニング)を実施する。このとき、演算装置210は、脳波センサ10から各被験者のEEG信号を取得して、ステップS202で作成したCSPフィルタ及び識別器を用いて当該取得したEEG信号をデコードしてもよい。また、この運動パターンの教示は、上記ステップS104〜S122の処理に基づいて行われてもよい。これにより、各被験者の運動教示中の脳活動のクラスを特定することができる。また、繰り返しの運動教示の過程で、各被験者の運動教示中の脳活動が「運動想像」のクラスになるように誘導することができる。
次のステップS206では、演算装置210は、各被験者に操作部82を操作させて、教示した運動の再現を各被験者自身に行わせる。そして、次のステップS208では、演算装置210は、運動生成中における操作部82の位置情報を制御モジュール50から取得し、教示した運動パターンが運動生成でどの程度再現できたかを示す再現度を当該運動生成の評価値として算出する。再現度の算出方法は、教示した運動パターンに対して運動生成においてどの程度再現できたかを評価可能であれば、実施の形態に応じて適宜設定されてよく、例えば、後述する数9による計算方法を採用することができる。
次のステップS210では、演算装置210は、クラスタリングの対象とする全ての被験者に対して、ステップS200からS208までの処理が完了したか否かを判定する。ステップS200からS208までの処理が全ての被験者に対しては完了していない場合(S210でN)、演算装置210は、完了していない被験者について、ステップS200からS208までの処理を繰り返す。一方、ステップS200からS208までの処理が全ての被験者に対して完了した場合(S210でY)、演算装置210は、次のステップS212に処理を進める。
次のステップS212では、演算装置210は、各対象者のCSPフィルタをクラスタリングすることにより、各対象者のCSPフィルタを複数のグループ(「クラスタ」とも称する)に分類する。クラスタリングには公知の方法が用いられてよい。例えば、演算装置210は、各CSPフィルタ間の距離をユークリッド距離で定義する。そして、演算装置210は、距離が近接するCSPフィルタ同士を一つのグループに属するように、各CSPフィルタのクラスタリングを行う。このようなクラスタ分析には、例えば、ウォード(ward)法等を用いることができる。これにより、各対象者のCSPフィルタは、複数のグループに分類される。
次のステップS214では、演算装置210は、各被験者の運動パターンの再現度に基づいて、当該運動パターンの習得度合いの最も高い対象者のCSPフィルタが属する最適グループを上記複数のグループから特定する。例えば、演算装置210は、デコーダの出力及びCSPフィルタのグループを要因として各被験者の再現度に対して分散分析を行い、その分散分析の結果に基づいて、デコーダの出力に対する再現度の向上具合が最も高いCSPフィルタのグループを最適グループとして特定してもよい。向上具合については、例えば、出力値の傾き等により比較することができる。なお、デコーダの出力及びCSPフィルタの相互作用については、後述する実証実験においても説明する。
次に、図7を用いて、上記で特定した最適グループの情報を運動の教示に利用する方法について説明する。図7は、被験者2の脳活動のタイプを考慮した場合における運動教示システム1000の処理手順の一例を示す。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
以下では、上述したような運動教示システム1000による運動教示のシーケンスの妥当性を示す実証実験及び実験結果について説明する。
(a)運動教示ロボット
運動教示ロボットには、図1に示した力覚提示デバイスを用いた。力覚提示デバイスは、ハンドル(操作部)の位置を制御することができ、被験者が握った状態の当該ハンドルを、2次元平面内を目標軌道上でスムーズに動かすことが可能である。本実証実験では、被験者に対して、固有受容性のフィードバックのみが与えられ、視覚的な運動に関するフィードバックは無い。
被験者は、健常成人20名・右利きであった。
本実証実験では、運動の教示に関しては、力覚的なフィードバックのみを被験者に与えた。これは、学習において被験者が脳内で運動を生成する時に、力覚的なフィードバックと視覚のフィードバックとの双方を与えると、せっかく力覚的に学習した運動を視覚情報にとらわれることで忘れてしまうことが考えられるからである。各被験者には、運動教示前に、目標縁の大きさ及び目標軌道のカーソルをスクリーンに表示して、学習対象となる運動パターンの教示を行った。そして、ロボットに動かされている間(「Passive Movement: PM」と呼ぶ)は、目標円の大きさも、目標軌道のカーソルも表示しなかった。同様に、被験者が運動を生成する間(「Motor Execution: ME」と呼ぶ)は、目標円の大きさも、目標軌道のカーソルも表示しなかった。
図8は、実験の流れを示す概念図である。本実証実験では、図8に示す手順に従って、各被験者のデコーダを作成し、運動教示前及び運動教示中の脳活動を計測し、運動教示後の運動生成の評価を行った。
まず、ステップS300では、半径10cmの円を一周約1.5秒で描く2次元の目標軌道を決定し、被験者に対して、実験実施者が目標運動のデモンストレーションを5回行った。その後、被験者は、利き手と反対の手、すなわち左手で15回連続して目標運動を生成し、ベースラインの計測を行った。計測時間は1回当たり5秒間とした。このとき、被験者への視覚的フィードバックは、手先位置を知ることはできないようになっている。
次のS302では、システムに用いるデコーダを被験者毎に作成した。被験者には、安静状態を7秒間、運動想像を5秒間、交互に40回ずつ行わせた。このときの脳波を脳波センサで計測し、トレーニングデータセットを収集した。10回毎に休憩をはさんだ。運動想像を行う時間は、ベースライン計測時間と同じ時間とした。よって、被験者には、高得点だった時の運動を一回だけ想像するようインストラクションを与えた。この時の被験者への視覚的フィードバックは無い。安静状態時も運動想像時も注視点(+印)を見るようインストラクションした。
(1回目の脳状態のコントロール)
図8に戻り、デコーダを作成した後、運動学習フェーズを実施した。まず、本実証実験では、ロボットにより受動的に運動を教えられる前に、被験者に5秒間、システムを使って脳状態の操作を行わせた(S304〜S308)。
先の脳状態のバーコントロールで閾値をクリア(S308でY)した後、ロボットによる目標運動の教示が直ちに開始されるようにした(S310)。ロボットのアームはPID制御されており、被験者は受動的に手を動かされるようにした。安全のため一定以上の力を被験者がロボットに加えた場合は、ロボットは停止するように構成した。この時、被験者は描く円の大きさを視覚的に目視できず、また、ロボットの動きも目視することができない(図3)。したがって、本ステップS310では、視覚的な影響のない固有受容性トレーニングを実施した。
ロボットによる運動教示が終わったらすぐに、2回目の脳状態コントロールを行うようにした(S312)。しかし、このステップS312でのバーコントロールでは閾値評価を設けず、閾値をクリアしなくても次のステップS314に移行するようにした。ただし、各被験者には、このステップS312において閾値評価が無いことを知らせなかった。各被験者には、第1実験条件及び第2実験条件それぞれの脳状態に近づくようにバーコントロールを行わせた。
運動教示を行ったロボットのハンドル部分を教示した運動パターンと同じように動かすように被験者に指示して、被験者により動かされているハンドル部分の軌道を計測した(S314)。この時、被験者はロボットの重さをほぼ感じることなく、低抵抗で運動を再現できるようにロボットの制御を行った。また、この時、スクリーンにより、被験者は自分の手の位置を目視することができないようにした。運動を再現した後に、100点満点中何点の再現度であったかを被験者に提示した。
以上のS304からS314までの流れを繰り返し行った。被験者は少なくとも15回ロボットによる運動教示を受け、15回運動を再現する機会が与えられた。
図10は、第1実験条件の脳状態の操作及び第2実験条件の脳状態の操作をある被験者に行わせた際の識別器の出力を示す。上記のとおり、第1実験条件では、安静状態になるように被験者に脳状態をコントロールさせ、また第2実験条件では、運動想像になるように被験者に脳状態をコントロールさせた。図10に示すとおり、第2実験条件のコントロールでは平均値が閾値よりも上回り、第1実験条件のコントロールでは平均値が閾値よりも下回った。そのため、デコーダは正しく作成されており、被験者は、バーの操作、すなわち、脳状態のコントロールを行うことができたことが分かった。
図11は、目標軌道と被験者の再現した軌道との誤差を説明するための概念図である。目標運動の軌跡を基準に、被験者が再現した運動を評価した。目標軌道が12時のスタート位置から基準スタート円(半径3cm)を出た時点(t=ts)から、再び基準スタート円内に入るまでの時間(t=te)を評価期間とした。その評価期間は約1.5秒間であった。被験者が再現した手先軌道(図11中の実線)が12時のスタート位置から基準スタート円を出た時点から1.5秒間の目標軌道(図11中の点線)に対する平均誤差と標準誤差を、以下の式に従って計算した。そして、算出した平均誤差を、所定の計算式に従って100点満点に換算した。
図12は、上記ステップS304〜S314の過程において、運動教示の前後に被験者に指示する想起内容を説明するための概念図である。図12に示すように、上記の実験では、第1実験条件に指定した被験者には、運動教示の前後において脳状態を「安静状態」にコントロールするように指示した。一方、第2実験条件に指定した被験者には、運動教示の前後において脳状態を「運動想像」にコントロールするように指示した。各被験者には、運動教示の前後において、安静状態又は運動想像状態のいずれの状態であるとデコーダによりデコードされたかをスクリーン上のバーにより提示した。
第1に、以下の手順により、運動教示中の脳活動が運動の習得に影響を与えるか否かについて検討した。
まず、運動教示中に取得された脳波信号のデコード結果に基づいて、各被験者の運動教示中における脳活動のクラスを分類した。すなわち、ロボットによる運動教示(Passive Movement: PM)が行われている約2秒間の脳波信号を被験者毎に作成したデコーダによりデコードした。それぞれの被験者の識別確率の閾値に比べて、デコーダの出力が低い場合は当該被験者の運動教示中の脳活動は安静状態であったとし、そのような被験者を「Low group」に分類した。一方、デコーダの出力が閾値よりも高い場合は、当該被験者の運動教示中の脳活動は運動想像であったとし、そのような被験者を「High group」に分類した。
次に、各クラスについて、運動学習に差が生じるかを検討した。まず、個々の被験者がベースライン計測において15回の運動を行った時(「ベースライン」と記載)の運動軌跡の各誤差の平均値を平均誤差として計算した。次に、運動学習フェーズ中において運動再現を行った時(「運動生成」と記載)の運動軌跡の誤差を運動再現毎に計算した(15回分)。そして、各被験者の各運動再現の誤差とベースライン計測時の平均誤差との差分を算出し、算出した差分の平均値を運動成績として算出した。そのため、算出される値が小さくなるほど、運動再現(運動生成)がより精度よく行われたことを示す。
第2に、運動の教示前の脳活動と教示中の脳活動との関係を検討した。上記のとおり、各被験者に対して、両実験条件で運動の教示を行った。そして、各実験条件での運動教示中の脳活動のデコード結果に基づいて、各被験者の脳活動の遷移パターンを分類した。図13は、その結果を示す。
遷移パターンAは、教示前の脳活動の状態が「運動想像(MI)」状態であるときは、教示中の脳活動の状態も「運動想像(High(MI))」状態であり、教示前の脳活動の状態が「安静(Rest)」状態であるときは、教示中の脳活動の状態も「安静(Low(Rest))」状態であるグループである。この遷移パターンAには、20人中6人が該当した。
教示前の脳活動の状態が「運動想像」状態であるときは、教示中の脳活動の状態は「安静」状態であり、教示前の脳活動の状態が「安静」状態であるときは、教示中の脳活動の状態は「運動想像」状態であるグループである。この遷移パターンBには、20人中2人が該当した。
教示前の脳活動の状態が「運動想像」状態であるときは、教示中の脳活動の状態は「運動想像」状態であり、教示前の脳活動の状態が「安静」状態であるときも、教示中の脳活動の状態は「運動想像」状態であるグループである。この遷移パターンCには、20人中6人が該当した。
教示前の脳活動の状態が「運動想像」状態であるときは、教示中の脳活動の状態は「安静」状態であり、教示前の脳活動の状態が「安静」状態であるときも、教示中の脳活動の状態は「安静」状態であるグループである。この遷移パターンDには、20人中6人が該当した。
第3に、CSPフィルタを手動で選択した5名のデータを除外して、運動の教示前の脳活動と教示中の脳活動との関係を再度検討した。まず、各被験者について、上記のとおり、運動成績を算出した。次に、運動教示前の脳活動の状態の2つのクラスにより、15名の被験者を分類した。そして、クラス毎に運動成績の平均値を算出した。図17Aは、その結果を示す。すなわち、図17Aは、特徴選択アルゴリズムによりCSPフィルタの選択が行われた15名の被験者の運動教示前の脳活動の状態と運動再現の平均位置誤差(再現度)との関係を示す。
第4に、被験者の脳活動のタイプと運動教示中における脳活動の状態とが相互に作用し得るか否かを検討した。まず、各被験者の脳活動のタイプをグループ分けするため、特徴選択アルゴリズムによりCSPフィルタの選択が行われた15名の被験者について、各被験者のCSPフィルタのクラスタリングを行った。各CSPフィルタ間の距離は、ユークリッド距離により定義した。また、クラスタリングには、ウォード(ward)法を用いた。
・要因A:CSPフィルタのタイプ(Fグループ、NFグループ)
・要因B:運動教示中に取得された脳波信号のデコード結果
・変量効果:運動教示中の脳活動の状態(「運動想像」であったか「安静状態」であったか)
・公知文献6:ERD-Based Online Brain?Machine Interfaces (BMI)in the Context of Neurorehabilitation: Optimizing BMI Learning and Performance
なお、今回開示された実施の形態は、本発明を具体的に実施するための構成の例示であって、本発明の技術的範囲を制限するものではない。本発明の技術的範囲は、実施の形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲の文言上の範囲及び均等の意味の範囲内での変更が含まれることが意図される。
12…信号取得モジュール、
20…コンピュータ、
30…訓練制御部、40…脳活動分析部、
50…制御モジュール、
70…プロジェクタ、
80…力覚提示デバイス、82…操作部、
202…外部インタフェース、210…演算装置、
212…記憶装置、
402…フィルタ処理部、404…デコーダ、
406…特徴量抽出部、410…識別処理部、
412…判定部、420…学習処理部
Claims (12)
- 対象者の脳の活動を検知して、前記対象者の運動の訓練を支援する運動教示システムであって、
前記対象者に対して、前記対象者の身体の可動部位の動きを案内して、所定の運動パターンに従う運動の教示を実行するように構成された操作装置と、
前記対象者の脳活動を計測することで、脳活動信号を取得するように構成された計測装置と、
前記操作装置による前記運動パターンの教示の動作を制御し、かつ前記脳活動信号をデコードすることで、運動想像のクラスを含む複数のクラスのいずれかに前記対象者の脳活動を分類するように構成された1又は複数のコンピュータと、
を備え、
前記1又は複数のコンピュータは、前記運動パターンの教示の動作を前記操作装置に実行させている期間中に前記計測装置により取得された前記脳活動信号をデコードした結果、前記運動パターンの教示期間中における前記対象者の脳活動が前記運動想像のクラスに分類されるか否かを出力する、
前記1又は複数のコンピュータは、前記運動パターンの教示前から教示期間中への脳活動の複数の遷移パターンを示す情報を保持し、
前記1又は複数のコンピュータは、前記複数の遷移パターンの中から前記対象者の遷移パターンを特定し、
前記1又は複数のコンピュータは、特定した前記対象者の遷移パターンに基づいて、前記運動パターンの教示期間中における前記対象者の脳活動が前記運動想像のクラスに分類されるように、前記運動パターンの教示の前において前記対象者に対して想起させる想起内容を決定し、かつ
前記1又は複数のコンピュータは、前記運動パターンの教示前に、決定した前記想起内容を出力する、
運動教示システム。 - 前記1又は複数のコンピュータは、
前記運動パターンの教示の前において、前記想起内容を想起するように前記対象者に指示し、
前記運動パターンの教示の前に取得された前記脳活動信号をデコードした結果、前記対象者の脳活動が前記想起内容に対応するクラスに分類されたことに応じて、前記運動パターンを教示する動作の開始を前記操作装置に対して指示する、
請求項1に記載の運動教示システム。 - 前記1又は複数のコンピュータは、前記運動パターンの教示の前においては、前記対象者の脳活動を分類した結果をフィードバックし、前記運動パターンの教示の期間中においては、前記対象者の脳活動を分類した結果をフィードバックしない、
請求項1又は2に記載の運動教示システム。 - 前記1又は複数のコンピュータは、
前記想起内容の想起を前記対象者に指示した後、前記計測装置により取得される前記脳活動信号をデコードした結果、前記対象者の脳活動が前記想起内容に対応するクラスに分類されたことに応じて、前記運動パターンの教示の動作を前記操作装置に実行させ、
前記運動パターンの教示期間中において、前記計測装置により取得された前記脳活動信号をデコードした結果、前記対象者の脳活動が前記運動想像のクラス以外のクラスに分類された場合、前記対象者に指示する想起内容を変更し、
変更した前記想起内容の想起を前記対象者に指示し、
変更した前記想起内容の想起の指示の後、前記計測装置により取得される前記脳活動信号をデコードした結果、前記対象者の脳活動が変更した前記想起内容に対応するクラスに分類されたことに応じて、前記運動パターンの教示の動作を前記操作装置に再度実行させる、
請求項2記載の運動教示システム。 - 前記想起内容は、安静状態または運動想像状態のいずれかである、
請求項2から4のいずれか1項に記載の運動教示システム。 - 前記操作装置は、ロボットアームによる力覚提示装置である、
請求項1から5のいずれか1項に記載の運動教示システム。 - 前記操作装置は、外骨格型ロボットである、
請求項1から5のいずれか1項に記載の運動教示システム。 - 前記計測装置は、ドライ式電極を用いたワイヤレス型ヘッドセットを含む、
請求項1から7のいずれか1項に記載の運動教示システム。 - 対象者に対して、前記対象者の身体の可動部位の動きを案内して、所定の運動パターンに従う運動の教示を実行するように構成された操作装置と、前記対象者の脳活動を計測することで、脳活動信号を取得するように構成された計測装置と、前記運動パターンの教示前から教示期間中への脳活動の遷移パターンを示す情報を保持する1又は複数の演算装置とを備えるシステムにより、対象者の脳の活動を検知して、前記対象者の運動の訓練を支援する運動教示方法であって、
前記1又は複数の演算装置が、前記複数の遷移パターンの中から前記対象者の遷移パターンを特定するステップと、
前記1又は複数の演算装置が、特定した前記対象者の遷移パターンに基づいて、前記運動パターンの教示期間中における前記対象者の脳活動が前記運動想像のクラスに分類されるように、前記運動パターンの教示の前において前記対象者に対して想起させる想起内容を決定するステップと、
前記1又は複数の演算装置が、前記運動パターンの教示前に、決定した前記想起内容を前記対象者に対して想起するように指示するステップと、
前記1又は複数の演算装置が、前記計測装置により取得される前記脳活動信号をデコードすることで、運動想像のクラスを含む複数のクラスのいずれかに前記対象者の脳活動を分類するステップと、
前記1又は複数の演算装置が、前記運動パターンの教示の前に取得された前記脳活動信号をデコードした結果、前記対象者の脳活動が前記想起内容に対応するクラスに分類されたことに応じて、前記運動パターンを教示する動作を前記操作装置に対して実行させるステップと、
を備える、
運動教示方法。 - 対象者の脳の活動を検知して、前記対象者の運動の訓練を支援する運動教示システムであって、
前記対象者に対して、前記対象者の身体の可動部位の動きを案内して、所定の運動パターンに従う運動の教示を実行するように構成された操作装置と、
前記対象者の脳活動を計測することで、脳活動信号を取得するように構成された計測装置と、
前記操作装置による前記運動パターンの教示の動作を制御し、かつ前記脳活動信号をデコードすることで、運動想像のクラスを含む複数のクラスのいずれかに前記対象者の脳活動を分類するように構成された1又は複数のコンピュータと、
を備え、
前記1又は複数のコンピュータが、
前記操作装置による前記運動パターンの教示の前に、前記対象者について、前記運動想像を行っているときの脳活動信号とそれ以外の想像を行っているときの脳活動信号との組をトレーニングデータセットとして取得する第1ステップと、
前記トレーニングデータセットに基づいて、前記対象者の脳活動をデコードするのに利用する空間フィルタを作成する第2ステップと、
作成された前記空間フィルタが、前記運動パターンの習得度合いのもっとも高い対象者の空間フィルタが属するグループとして特定された最適グループに属するか否かを判定する第3ステップと、
作成された前記空間フィルタが前記最適グループに属する場合に、前記操作装置による前記運動パターンの教示を開始する第4ステップと、
を実行する、
運動教示システム。 - 前記1又は複数のコンピュータは、作成された前記空間フィルタが前記最適グループに属さない場合に、前記第1ステップ、前記第2ステップ、及び前記第3ステップを再度実行する、
請求項10に記載の運動教示システム。 - 前記最適グループには、前記運動パターンの教示期間中に推奨する脳活動が分類される推奨クラスが紐付けられており、
前記1又は複数のコンピュータは、前記運動パターンの教示期間中における前記対象者の脳活動が、前記最適グループに紐付けられた前記推奨クラスに分類されるように、前記運動パターンの教示の前において前記対象者に対して想起させる想起内容を出力する、
請求項10又は11に記載の運動教示システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016114200 | 2016-06-08 | ||
JP2016114200 | 2016-06-08 | ||
PCT/JP2017/021213 WO2017213202A1 (ja) | 2016-06-08 | 2017-06-07 | 運動教示システム及び運動教示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017213202A1 JPWO2017213202A1 (ja) | 2019-04-11 |
JP6850026B2 true JP6850026B2 (ja) | 2021-03-31 |
Family
ID=60577914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018521765A Active JP6850026B2 (ja) | 2016-06-08 | 2017-06-07 | 運動教示システム及び運動教示方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11890246B2 (ja) |
EP (1) | EP3470041A4 (ja) |
JP (1) | JP6850026B2 (ja) |
CN (1) | CN109310561B (ja) |
WO (1) | WO2017213202A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304068B (zh) * | 2018-01-30 | 2021-11-16 | 山东建筑大学 | 一种基于脑机接口的上肢康复训练机器人控制系统及方法 |
JP7072853B2 (ja) * | 2018-07-13 | 2022-05-23 | 学校法人 中村産業学園 | 運動訓練システム、制御方法、及びプログラム |
CN109925675B (zh) * | 2019-01-15 | 2020-08-25 | 河南翔宇医疗设备股份有限公司 | 智能磨砂板触摸屏视觉同步方法、装置、系统及移动终端 |
CN110038270A (zh) * | 2019-05-14 | 2019-07-23 | 上海大学 | 一种上肢单臂康复训练机器人人机交互系统及方法 |
WO2021072367A1 (en) * | 2019-10-11 | 2021-04-15 | Neurolutions, Inc. | Orthosis systems and rehabilitation of impaired body parts |
CN110900638B (zh) * | 2019-10-31 | 2022-10-14 | 东北大学 | 基于多信号融合的上肢可穿戴式搬运机器人运动识别系统 |
CN111728822B (zh) * | 2020-07-24 | 2021-11-26 | 清华大学 | 用于脑损伤后的脑机交互闭环康复机器人控制方法 |
WO2022145258A1 (ja) * | 2020-12-28 | 2022-07-07 | 国立研究開発法人科学技術振興機構 | 運動教示装置、運動教示システム、運動教示方法およびプログラム |
CN113398422B (zh) * | 2021-07-19 | 2022-08-19 | 燕山大学 | 基于运动想象-脑机接口和虚拟现实的康复训练系统及方法 |
DE102021208910A1 (de) * | 2021-08-13 | 2023-02-16 | Festool Gmbh | Exoskelett-Vorrichtung und Verfahren |
CN113908492A (zh) * | 2021-11-24 | 2022-01-11 | 滨州职业学院 | 一种体育舞蹈用下肢力量训练装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072606A (ja) * | 2004-09-01 | 2006-03-16 | National Institute Of Information & Communication Technology | インターフェイス装置、インターフェイス方法及びその装置を用いた制御訓練装置 |
JP2006247280A (ja) | 2005-03-14 | 2006-09-21 | Osaka Univ | 上肢リハビリ装置 |
EP2211986B1 (en) * | 2007-10-16 | 2013-11-20 | Medtronic, Inc. | Therapy control based on a patient movement state |
US8523792B2 (en) * | 2009-09-22 | 2013-09-03 | Mount Sinai School Of Medicine | Rehabilitative training devices for use by stroke patients |
JP5467267B2 (ja) | 2010-03-05 | 2014-04-09 | 国立大学法人大阪大学 | 機器制御装置、機器システム、機器制御方法、機器制御プログラム、および記録媒体 |
JP5320543B2 (ja) | 2011-11-08 | 2013-10-23 | 株式会社国際電気通信基礎技術研究所 | 脳機能亢進支援装置および脳機能亢進支援方法 |
KR101394953B1 (ko) * | 2012-09-24 | 2014-05-14 | 재단법인대구경북과학기술원 | 재활로봇 제어 장치 및 그 제어 방법 |
KR101566788B1 (ko) * | 2012-11-16 | 2015-11-09 | 삼육대학교산학협력단 | 하지기능 및 보행기능을 위한 뇌-컴퓨터 인터페이스를 기반한 기능적 전기자극치료기 |
JP6142146B2 (ja) | 2012-11-28 | 2017-06-07 | 株式会社国際電気通信基礎技術研究所 | 外骨格型ロボットおよびリハビリテーション装置 |
JP6489018B2 (ja) | 2013-10-10 | 2019-03-27 | 株式会社島津製作所 | リハビリテーション支援システムおよび脳機能計測装置 |
CN104706495A (zh) | 2013-12-11 | 2015-06-17 | 中国科学院宁波材料技术与工程研究所 | 基于脑机接口的肢体训练机器人及训练方法 |
US10111603B2 (en) | 2014-01-13 | 2018-10-30 | Vincent James Macri | Apparatus, method and system for pre-action therapy |
WO2015152122A1 (ja) | 2014-04-04 | 2015-10-08 | 北海道公立大学法人札幌医科大学 | リハビリテーション用装置、これを備えたリハビリテーションシステム、リハビリテーション用プログラムおよびリハビリテーション方法 |
JP6536870B2 (ja) | 2014-06-30 | 2019-07-03 | パナソニック株式会社 | リハビリテーションシステムおよびリハビリテーションシステムの制御方法 |
JP6297951B2 (ja) | 2014-09-11 | 2018-03-20 | トヨタ自動車株式会社 | 運動推定装置 |
-
2017
- 2017-06-07 WO PCT/JP2017/021213 patent/WO2017213202A1/ja active Application Filing
- 2017-06-07 EP EP17810376.8A patent/EP3470041A4/en active Pending
- 2017-06-07 JP JP2018521765A patent/JP6850026B2/ja active Active
- 2017-06-07 CN CN201780035764.6A patent/CN109310561B/zh active Active
- 2017-06-07 US US16/308,409 patent/US11890246B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2017213202A1 (ja) | 2017-12-14 |
EP3470041A1 (en) | 2019-04-17 |
EP3470041A4 (en) | 2020-06-17 |
CN109310561B (zh) | 2021-04-09 |
CN109310561A (zh) | 2019-02-05 |
US11890246B2 (en) | 2024-02-06 |
US20190125612A1 (en) | 2019-05-02 |
JPWO2017213202A1 (ja) | 2019-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6850026B2 (ja) | 運動教示システム及び運動教示方法 | |
JP7103078B2 (ja) | 作業支援装置、作業支援方法及び作業支援プログラム | |
Hong et al. | Feature extraction and classification methods for hybrid fNIRS-EEG brain-computer interfaces | |
Lee et al. | Using a low-cost electroencephalograph for task classification in HCI research | |
Krepki et al. | Berlin brain–computer interface—The HCI communication channel for discovery | |
JP2021511567A (ja) | 高速、正確、且つ直感的なユーザ対話のための適合を伴う脳−コンピュータインタフェース | |
Junwei et al. | Brain computer interface for neurodegenerative person using electroencephalogram | |
Sarac et al. | Brain computer interface based robotic rehabilitation with online modification of task speed | |
Amirabdollahian et al. | Application of support vector machines in detecting hand grasp gestures using a commercially off the shelf wireless myoelectric armband | |
JP7070253B2 (ja) | パフォーマンス計測装置、パフォーマンス計測方法及びパフォーマンス計測プログラム | |
Zou et al. | EEG feature extraction and pattern classification based on motor imagery in brain-computer interface | |
Marusic et al. | Evaluating Kinect, OpenPose and BlazePose for Human Body Movement Analysis on a Low Back Pain Physical Rehabilitation Dataset | |
Lee et al. | Motor imagery classification of single-arm tasks using convolutional neural network based on feature refining | |
Petoku et al. | Object movement motor imagery for EEG based BCI system using convolutional neural networks | |
Ahmed et al. | A non Invasive Brain-Computer-Interface for Service Robotics | |
Xing et al. | The development of EEG-based brain computer interfaces: potential and challenges | |
Shoryabi et al. | A Novel Neural Approach For Classification of EEG Signals for Brain-Computer Interface | |
He et al. | Channel and trials selection for reducing covariate shift in EEG-based brain-computer interfaces | |
Rakshit et al. | Robotic link position control using brain computer interface | |
Henshaw | Improved brain-computer interface methods with application to gaming | |
Jiralerspong et al. | Spectral analysis and artificial neural network based classification of three mental states for brain machine interface applications | |
Alzoubi | Automatic affect detection from physiological signals: Practical issues | |
Lin et al. | Lower limb rehabilitation exoskeleton using brain–computer interface based on multiband filtering with classifier fusion | |
Teich | Designing a Brain Computer Interface Using an Affordable EEG Headset | |
Kanumuru | Application of Deep Neural Networks in Electroencephalography (EEG): Classification of User Intention |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180703 |
|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A5211 Effective date: 20180703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200317 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200317 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6850026 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |