JP2004254876A - 運動機能補助装置及び方法 - Google Patents
運動機能補助装置及び方法 Download PDFInfo
- Publication number
- JP2004254876A JP2004254876A JP2003048314A JP2003048314A JP2004254876A JP 2004254876 A JP2004254876 A JP 2004254876A JP 2003048314 A JP2003048314 A JP 2003048314A JP 2003048314 A JP2003048314 A JP 2003048314A JP 2004254876 A JP2004254876 A JP 2004254876A
- Authority
- JP
- Japan
- Prior art keywords
- user
- motor function
- force
- self
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 0 C(C1)*11C2C1CC*2 Chemical compound C(C1)*11C2C1CC*2 0.000 description 4
- JFNLZVQOOSMTJK-UHFFFAOYSA-N C(C1)C2C=CC1C2 Chemical compound C(C1)C2C=CC1C2 JFNLZVQOOSMTJK-UHFFFAOYSA-N 0.000 description 1
- XWDLMQDCTIPQFS-MGURRDGZSA-N CC1C(CCC2)[C@@H]2CC1 Chemical compound CC1C(CCC2)[C@@H]2CC1 XWDLMQDCTIPQFS-MGURRDGZSA-N 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Manipulator (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Invalid Beds And Related Equipment (AREA)
- Prostheses (AREA)
- Eye Examination Apparatus (AREA)
- Accommodation For Nursing Or Treatment Tables (AREA)
Abstract
【解決手段】使用者11の筋力を補完する補助力を生成する駆動手段21と、この駆動手段を制御する制御手段33とを備えている運動機能補助装置20であって、使用者に関する眼電図で得られた上下及び左右方向の眼球運動による電位変化を計測する計測手段31と、この上下方向及び左右方向の電位変化に基づいて、使用者の意志情報を抽出する解析手段32と、を備えており、制御手段33が、解析手段32により抽出された意志情報に基づいて駆動手段21を駆動制御して、使用者の運動機能を補助するように運動機能補助装置10を構成する。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、運動機能の低下した人の運動機能を高めるようにした運動機能補助装置及び方法に関するものである。
【0002】
【従来の技術】
近年、平均寿命が長くなるに従って、高齢者が著しく増えてきており、これに伴って高齢者そして筋力低下による運動機能障害者等の介助が重要な問題になってきている。これに対して、他人の介助なしに高齢者等が自らの意志で所望の運動を行なうことができるように、食事補助,運動機能の回復・支援も目的とした各種研究が行なわれている。
【0003】
このような研究は三つの研究開発動向に大きく分類され、一つ目は義手等の代替部品の開発、二つ目はロボットによる介護装置の開発、そして三つ目は所謂FES(Functional Electrical Stimulation)等による運動機能回復に関する研究である。
特に、食事補助の分野では、使用者本人が顎によりジョイスティックを操作して、ロボットにより食物を使用者の口元まで運搬するようにした、食事補助装置が既に市販されている。しかしながら、このような顎による操作方法では、ジョイスティックの操作に熟練が必要とされることから、使用者にストレスを与えることになってしまう。
【0004】
これに対して、眼球運動により生ずる生体信号を検出して、この生体信号に基づいて、生活機器やロボット等の機器を制御するための制御信号を生成するようにした、生体信号利用型制御装置が開示されている(特許文献 1参照)。これによれば、使用者の眼球運動により生ずる生体信号を周波数解析して、10Hz以上の比較的高周波成分に基づいて、四種の基本信号を取り出す。そして、この四種の基本信号を任意に三つ組み合わせることによって、64種類の制御信号を生成するようにしている。
【0005】
【特許文献1】
特開2001−228949号(第2−3頁,第1図)
【0006】
【発明が解決しようとする課題】
しかしながら、上述した特許文献1による生体信号利用型制御装置においては、生体信号としては、実際には眼球を動かす筋肉の活動電位そして脳の前頭葉から発生する脳波成分、即ち具体的には13Hz以上の高周波成分であるβ波を検出しており、眼球の電位そのものの変化を検出しているのではない。
従って、このような生体信号の検出方法においては、眼球が上下左右の何れの方向に動いたかということのみを検出することになり、眼球が何れの方向にどの程度動くかという変化量を検出することはできない。このため、例えば64種類の制御信号では、あまり細かい制御を行なうことはできず、例えばロボットの正確な制御を行なうことは困難であるので、その利用範囲がロボット等の各種機器の補助的な制御に限定されてしまう。
【0007】
本発明は、以上の点に鑑み、使用者本人が他人の介助なしに容易に自分の意志で運動を行なうことができるようにした運動機能補助装置及び方法を提供することを目的としている。
【0008】
【課題を解決するための手段】
上記目的を達成するため、本発明の第一の構成によれば、使用者の筋力を補完する補助力を生成する駆動手段とこの駆動手段を制御する制御手段とを備えている運動機能補助装置であって、使用者に関する眼電図で得られた上下及び左右方向の眼球運動による電位変化を計測する計測手段と、この上下方向及び左右方向の電位変化に基づいて使用者の意志情報を抽出する解析手段と、を備えており、上記制御手段が、この解析手段により抽出された意志情報に基づいて駆動手段を駆動制御して使用者の運動機能を補助することを特徴とするものである。
【0009】
本発明による運動機能補助装置は、好ましくは、上記解析手段が、使用者の注視する方向を使用者の意志と判断する。
【0010】
本発明による運動機能補助装置は、好ましくは、上記計測手段が、眼球運動による電位変化に基づいて眼球の相対位置を算出し、上記解析手段が、使用者の意志情報として眼球による注視位置を抽出する。
【0011】
本発明による運動機能補助装置は、好ましくは、上記制御手段が、運動機能補助部を駆動制御する際に、速度を考慮した軌道制御により補助力を生成する。
【0012】
本発明による運動機能補助装置は、好ましくは、上記制御手段が、運動機能補助部を駆動制御する際に、フォースフリー制御により補助力を生成する。
【0013】
本発明による運動機能補助装置は、好ましくは、上記制御手段が、運動機能補助部を駆動制御する際に、使用者に過大な力が加わらないように力センサによりフォースフリー制御を行う。
【0014】
また、上記目的は、本発明の第二の構成によれば、使用者に関する眼電図で得られた上下及び左右方向の眼球運動による電位変化を計測する第一の段階と、この上下方向及び左右方向の電位変化に基づいて、使用者の意志を抽出する第二の段階と、この意志に基づいて運動機能補助部を駆動制御して使用者の運動機能を補助することを特徴とする、運動機能補助方法により達成される。
【0015】
上記構成によれば、使用者の眼球運動の上下左右の電位変化を計測して、この眼球運動による電位変化に基づいて使用者の意志情報、例えば注視点を抽出することによって、この意志情報に基づいて運動機能補助部を駆動制御することにより、使用者の意志に対応して運動機能補助部により補助力を生成し、使用者の運動を補助することができる。
【0016】
従って、本発明によれば、使用者の自ら発生する筋力を補助する補助力を発生させることにより、使用者が筋力の低下した部位の運動を行なおうとする際に、その低下した筋力を補助するので、使用者本人が他人の介助なしに容易に自分の意志で運動を行なうことができる。
その際、検出した眼球運動の上下方向及び左右方向の眼電図に基づいて、使用者の眼球の実質的な静止状態、即ち注視状態を検出することによって、眼球運動による二次元平面上の任意の座標位置を解析手段によって抽出して判定することができる。従って、使用者の注視点を確実に検出して、その座標位置に応じて多様な使用者の意志情報を検出することができる。
【0017】
上記計測手段が眼球運動による電位変化に基づいて眼球の相対位置を算出し、上記解析手段が、使用者の意志情報として眼球による注視位置を抽出する場合には、使用者の眼球運動による上下方向及び左右方向の相対位置を算出することによって、容易に二次元平面上にて注視位置を正確に抽出することが可能である。
【0018】
上記制御手段が、運動機能補助部を駆動制御する際に、速度を考慮した軌道制御により補助力を生成する場合には、使用者にとって、過不足のない適切な補助力を生成することが可能である。
【0019】
上記制御手段が、運動機能補助部を駆動制御する際に、フォースフリー制御により補助力を生成する場合には、使用者の力や人間や物体等の外部環境が衝突したときに、運動機能補助部の駆動によって、使用者から離反するように動作するので、使用者の安全が確保されることになる。
【0020】
上記制御手段が、運動機能補助部を駆動制御する際に、使用者に過大な力が加わらないように、力センサによりフォースフリー制御を行う場合には、同様に運動機能補助部の駆動によって使用者に過大な力が加えられるようなことがなく、使用者の安全性が確保される。
【0021】
【発明の実施の形態】
以下、図面に示した実施形態に基づいて、本発明を詳細に説明する。
図1及び図2は、本発明による運動機能補助装置を適用して、一例として食事動作を支援するロボットの一実施の形態の構成を示している。
図1は本発明による運動機能補助装置の一実施形態を組み込んだ食事動作支援ロボットの構成を示し、(A)は側面図及、(B)は平面図である。
図1において、食事動作支援ロボット10は、使用者11を支持する可倒式のベッド12と、テーブル13と、ベッド12の背部12aに備えられた運動機能補助装置20と、から構成されている。
【0022】
上記ベッド12は公知の構成であって、図示の場合、背部12aを立ち上げた状態で示されており、使用者11がこの背部12aに背中を当てるようにしてベッド12上に座っている。
上記テーブル13は、ベッド12上にて前後方向(X方向)に移動可能に支持されており、使用者11が食事を摂る際には、図示のように、ベッド12上に座った使用者11の直前に位置するように位置調整される。
【0023】
上記運動機能補助装置20は、自立支援ロボット機構21と制御部30とから構成されている。ここで、自立支援ロボット機構21は、公知の構成である。
図2は、図1の食事動作支援ロボットにおける自立支援ロボット機構の構成を示し、(A)側面図、(B)は平面図である。図2に示すように、固定部22に対して垂直軸(Z軸)の周りに回転可能に支持された第一軸23と、第一軸23の上端付近にて、横向きの水平軸(Y軸)の周りに揺動可能に支持された第二軸24と、第二軸24から前方に向かって張り出す第一のアーム25と、第一のアーム25の前端からさらに前方に向かって張り出す第二のアーム26と、から構成されている。
【0024】
上記第一軸23,第二軸24は、それぞれ駆動モータ23a,24aにより回転駆動される。また、第二のアーム26は、第一のアーム25の先端にて横向きの水平軸(Y軸)の周りに揺動可能に支持されていると共に、駆動モータ26aにより駆動ベルト26bを介して上下方向に揺動され得るようになっている。上記第二のアーム26は、さらにその先端に、使用者11の利き腕(図示の場合、右腕)の手首11aを吊り下げるためのフック26cを備えていると共に、吊り下げた手首にかかる力を検出するための力センサ26dを備えている。これにより、駆動モータ23a,24a,26aを適宜に駆動制御して、使用者11の右手首11aの移動を実行するための筋力を補助する補助力を発生させるようになっている。
【0025】
図3は、図1の食事動作支援ロボットにおける運動機能補助装置の構成を示すブロック図である。
上記制御部30は、図3に示すように、計測手段としての眼電図計測装置31と、使用者の意志情報を抽出する解析手段としてのDSPユニット32と、制御手段としてのサーボコントローラ33とから構成されている。駆動モータ23a,24a,26aは、DSPユニット32と力センサ26dからの信号により、サーボコントローラ33を介して駆動される。
【0026】
図4は、図3の運動機能補助装置における眼電図計測装置の具体的構成を示すもので、(A)は正面図、(B)は側面図である。
上記眼電図計測装置31は、図示するように、使用者11の装着感をできるだけ低減するために、メガネ型測定ユニットとして構成されている。
【0027】
図5は、図4の眼電図計測装置における電極位置を示す説明図である。使用者11がメガネを掛けるように当該メガネ型測定ユニットを装着したとき、例えば図5に示すように、使用者11の両眼11b,11cに関して、左眼11bの左側1.0cmの位置に第一の電極31a、右眼11cの右側1.0cmの位置に第二の電極31b、そして右眼11cの上下それぞれ3.0cmの位置に第三及び第四の電極31c,31dが配置されるようになっている。これにより、使用者11が食事の度に複数個の電極を顔面に装着する煩雑さ及び不快感から解放されることになる。
【0028】
上記解析手段としてのDSPユニット32は、計測手段としての眼電図計測装置31の各電極31a乃至31dからの検出電位に基づいて解析を行なって、使用者11の眼球運動を把握し、使用者11の眼球の注視位置を検出して、これを使用者の意志情報として抽出する。
【0029】
ここで、上記眼電図計測装置31の各電極31a乃至31dにより検出される電位をそれぞれX1 ,X2 ,X3 ,X4 とすると、左右方向の電位差(X1 −X2 )及び上下方向の電位差(X3 −X4 )は、使用者11の左右方向及び上下方向の眼球運動を表わすことになり、これらの電位差(X1 −X2 )及び(X3 −X4 )に基づいて、上記DSPユニット32は、使用者11の眼球の上下左右の二次元平面上での運動を把握し、これを使用者の意志情報として抽出することができる。
【0030】
ここで、上記眼電図計測装置31の各電極31a乃至31dにより検出された電位X1 ,X2 ,X3 ,X4 に基づいて、使用者11の眼球の運動を把握する実験例について参照して説明する。
図6は、図1の食事動作支援ロボットにおけるテーブル上に配置された皿の位置を示す概略図である。図示するように、テーブル13の上に、三つの皿41,42,43が並んで配置されている。そして、使用者11が、テーブル13上の自分が食べたい皿41,42または43を注視すると、使用者11の眼球運動が注視により実質的に静止することになる。
そこで、DSPユニット32が、この静止状態を検出することにより、そのときの眼球の方向に基づいて、使用者11がどの皿41,42または43を注視しているかを判定することができる。
【0031】
この判定アルゴリズムは、サッケード動作の検出,注視区間の検出そして注視点の判定の順に行なわれ、例えば以下のように構成されている。
第一に、注視点の移動を示すサッケード動作を検出する。
図7は、テーブル13上の基準点40または各皿41,42,43を注視しているときの眼電図、即ち眼球運動による水平方向の電位差(眼電図)Xh (t)=(X1 −X2 )及び垂直方向の電位差(眼電図)Xv (t)=(X3 −X4 )を、それぞれ+を上向きにて示している。
この場合、使用者11はまず基準点40を注視した後、いずれかの皿41,42または43を注視することとする。これにより、いずれの皿41,42または43を注視した場合にも、眼球は垂直方向に大きく動くので、垂直方向の眼電図Xh (t)は急峻な変化(所謂サッケード)を生ずることになる。その際、眼球が下方に動くことから、眼電図Xh (t)は少なくとも一時的に負の値となる。従って、区間[t0 −1.0,t0 +1.0]の2秒間における垂直方向の眼電図Xh (t)が最小値となる時刻をt0 とし、この時刻t0 を基準点40から皿41,42または43への移動の可能性が高い時刻とする。これにより、サッケード動作が検出されることになる。
【0032】
第二に、注視区間を検出する。
上述したサッケード動作の前後の注視中は、使用者11の眼球は基準点40あるいは皿41,42または43を注視していることから、眼球は実質的に静止しているが、実際には眼電図記録用の低域遮断フィルタの影響により緩やかな電位変動が生ずる。従って、DSPユニット32は、このような緩やかな電位変動を考慮して、注視区間を検出する。その際、上述したサッケード動作時t0 以前には、使用者11が基準点40を注視していて眼電図Xv (t)の変動が少ないことから、眼電図Xv (t)が以下の二つの条件式
【数1】
【数2】
を満たしているとき、即ち、それぞれ区間A[t0 −2.1,t0 −1.1]及び区間B[t0 −1.1,t0 −0.1]の間の1秒間に、眼電図Xv (t)の最大変化が200μV以下の場合に、注視している区間である可能性が高いとする。これにより、注視区間が検出されることになる。
【0033】
続いて、第三に、注視点の判定を行なう。
使用者11が基準点40から何れかの皿41,42または43を注視すると、垂直方向の眼電図Xv (t)だけでなく、水平方向の眼電図Xh (t)も変化する。従って、DSPユニット32は、これらの眼電図Xv (t)及びXh (t)の変化を捉えるために、以下の四つのパラメータ、
【数3】
【数4】
【数5】
【数6】
を計算する。
ここで、Δtは、サンプリング間隔で、この場合10msに設定されている。式3は時刻t0 以前の区間Bにおける垂直方向の眼電図Xv (t)の平均値、式4は時刻t0 以後の区間C[t0 +0.1,t0 +1.1]における垂直方向の眼電図Xv (t)の平均値、また、式5及び6は、それぞれ区間B,Cにおける水平方向の眼電図Xh (t)の平均値を表わす。
使用者11の注視点が、基準点40から皿41,42または43に移動すると、上記式3及び4による垂直方向の眼電図Xv (t)の平均値の差が大きくなると共に、皿41,42または43は水平方向に距離をおいて一列に並んでいるので、水平方向の眼電図Xh (t)の平均値は、各注視点によって異なることになる。
【0034】
図8は、図3の運動機能補助装置におけるDSPユニットによる注視点の判定のためのしきい値を示す図である。
従って、DSPユニット32は、各皿41,42,43における注視点に関して、図8に示すように、垂直方向に関して式3及び4による垂直方向の眼電図Xv (t)の平均値の差αが50μV以上であるときに、且つ式5及び6による水平方向の眼電図Xh (t)の平均値の差βに応じて、注視点が皿41,42または43であると判定する。
即ち、DSPユニット32は、式5及び6による水平方向の眼電図Xh (t)の平均値の差βが−100μVから100μVでは注視点が皿41であると判定し、βが100μV以上では注視点が皿42であると判定し、さらにβが−100μV以下では、注視点が皿43であると判定する。
これに対して、これらの条件の何れも満たさない場合には、DSPユニット32は、何れの皿41,42または43も注視していないと判定する。
【0035】
次に、上述した注視点の判定の具体的な実験結果を図9を参照して示す。図9は、図6の皿を使用者が順次に注視したときの、(A)は眼電図を示すグラフ、(B)は眼電図から得られる注視点の二次元平面上の位置を示す図である。
実験では、使用者11がそれぞれ基準点40の注視後それぞれ上記各皿41,42及び43を注視している。
図9(A)は、実験による使用者11の水平方向及び垂直方向の眼電図Xv (t)及びXh (t)を示しており、基準点40または皿41,42,43の注視区間において、各眼電図Xv (t)及びXh (t)がそれぞれサッケード動作を挟んで緩やかに変動しており、その座標位置は図6に示した皿41,42,43の配置に近似していることが分かる。また、図9(B)から、上記各皿41,42及び43の注視点により、二次元平面上の位置が変化していることが分かる。このようにして、使用者11の注視点を眼電図により判定し、具体的には使用者11がどの皿41,42,43を注視しているかを判定することが可能である。
【0036】
ところで、特許文献1においては、眼球運動により生ずる生体信号を検出して、ロボット等の機器を制御する方法が提案されているが、眼球がどの方向に移動しているかを検出するだけであって、眼球がどの方向にどの程度移動して、何れの方向に向いているかを判定することはできない。そのため、多彩な制御を行なうことは不可能であった。
これに対して、上述したように本発明の実施形態による運動機能補助装置30においては、使用者11の眼球運動の眼電図により、サッケード動作,注視動作そして電位に基づいて、使用者11の眼球運動を左右方向及び上下方向に関して検出し、注視点の二次元平面上の位置を判定するようにしているので、任意に配置された複数の注視点を区別して判定することができる。
【0037】
上記サーボコントローラ33は、DSPユニット32からの判定結果、即ち何れの皿41,42,43を注視しているかに基づいて自立支援ロボット機構21に対してコマンドを出力するようになっている。即ち、サーボコントローラ33は、使用者11の注視点である皿41,42または43に向かって使用者11の右手首11aを皿41,42または43に向かって移動させるように、各駆動モータ23a,24a,26aを駆動制御する。
【0038】
その際、自立支援ロボット機構21は、使用者11の右腕の筋力を補助する補助力のみを発生させると共に、この補助力によって使用者11に対して危害を加えないように、当該補助力が大きくなり過ぎた場合には、サーボコントローラ33は、駆動制御を切り換えて補助力を小さくすることにより、安全性を確保するようになっている。即ち、サーボコントローラ33は、自立支援ロボット機構21の第二のアーム26の先端のフック26cに備えられた力センサ26dの検出出力がフィードバックされており、この力センサ26dの検出出力によって、自立支援ロボット機構21の駆動制御にて使用者11の右手首11aに加えられる力を検出して、この力が所定値を超えたとき駆動制御を切り換えて、自立支援ロボット機構21の駆動制御により使用者11の右手首11aに加えられる力を低減するようになっている。
【0039】
このような補助力生成の制御手法の具体例について、図10を参照して説明する。図10は、図3の運動機能補助装置における制御手法を示すブロック図である。図10において、制御手法は五個のブロックに分かれており、使用者11の右腕を示す第一ブロック51、サーボコントローラ33と自立支援ロボット機構21を示す第二のブロック52、使用者11の右腕と自立支援ロボット機構21の連結部を示す第三のブロック53、注視点からサーボコントローラ33への入力を与える第四のブロック54、そして、上記安全性を確保するための第五のブロック55を備えている。そして、この制御手法においては、自立支援ロボット機構21の第二のアーム26の先端の移動速度を考慮しながら軌道制御を行なうことにより、補助力を生成するようになっている。
【0040】
ここで、まず符号A1で示すように、第四のブロック54にて、DSPユニット32により判定された注視点(眼電図情報EOG)が、目標点として入力される。
具体的には、自立支援ロボット機構21の第二のアーム26の先端の位置(現在点)をPR =(xR ,yR ,zR )、
入力された目標点をPd R =(xd R ,yd R ,zd R )とすると、二点間の距離は、
【数7】
となる。
【0041】
次に、図10にて符号A2で示すように、移動速度の大きさをvとして、現在点から目標点までのベクトルを求めて、自立支援ロボット機構21の第二のアーム26の先端の移動速度を導出する。
図11は、図10の制御手法における自立支援ロボット機構の第二のアームの先端の移動速度を示すグラフである。図において、横軸が時間(t)で、縦軸が速度Vである。即ち、二点間の移動速度の最大値をv0 として、図11に示すような所謂台形型の移動速度vを求める。
具体的には、移動速度vの傾きをaとすると、二点間の移動速度vは、
【数8】
となり、作業座標系にてX,Y,Zに分解すると、
【数9】
【数10】
【数11】
となる。ここで、v* =[vx ,v y vz ]T である。
これらの式9乃至11を、自立支援ロボット機構21のヤコビアンの逆行列(JR )−1を用いて、自立支援ロボット機構21の目標関節角速度に変換すると、目標関節角速度は、
【数12】
となる。
【0042】
次に、図10の符号A3で示すように、上記目標関節角速度の積分によって、支援ロボットを駆動するためのサーボコントローラ33への関節位置指令qd R を算出する。
具体的には、上記式12を
【数13】
と積分することにより、自立支援ロボット機構21を駆動制御するための目標関節位置指令qd R が得られる。
【0043】
続いて、図10にて符号A4で示すように、自立支援ロボット機構21の第二のアーム26のトルクτR が生成され、使用者11から自立支援ロボット機構21に加えられる外乱トルクτHRを減算して、実際に自立支援ロボット機構21の第二のアーム26への入力トルクτu R を演算する。
具体的には、自立支援ロボット機構21の第二のアーム26の目標関節位置指令qd R と現在の関節位置qR 、そして関節角速度q・ R を用いて、自立支援ロボット機構の第二のアーム26の関節に生成されるトルクτR は、
【数14】
となる。ここで、KP ,KV ,KT は、それぞれ位置ループゲイン,速度ループゲイン,トルク定数である。
さらに、使用者11の右腕から外乱トルクτHRを減算することにより、自立支援ロボット機構21に加えられる総トルクτu R は、
【数15】
となる。
【0044】
次に、図10の符号A5で示すように、上記入力トルクτu R により、自立支援ロボット機構21が動作して、その第二のアーム26のアーム関節角度qR から当該自立支援ロボット機構21のキネマティクスによって、自立支援ロボット機構21のアーム先端位置PR に変換される。
ここで、自立支援ロボット機構21の動力学方程式は、一般的には
【数16】
で表わされる。ここで、第一項は慣性項,第二項は非線形項,第三項は摩擦項そして第四項は重力項である。
従って、具体的には式15及び16により、自立支援ロボット機構21の動作を表現することが可能であり、式16から自立支援ロボット機構21の第二のアーム26のアーム関節位置qR が得られ、さらに自立支援ロボット機構21のキネマティクスにより、自立支援ロボット機構21の第二のアーム26の先端位置PR が得られることになる。
【0045】
次に、図10にて符号A6で示すように、自立支援ロボット機構21の動作がバネ・ダンパ(後述)を介して使用者11の右手首11aに伝達され、そのときの伝達力FRHが、力センサ26dにより得られる。
具体的には、自立支援ロボット機構21の第二のアーム26の先端位置PR と使用者11の右腕の先端位置PH との距離をPe RHとすると、この距離は、
【数17】
となる。ここで、自立支援ロボット機構21と使用者11の右腕の先端位置PH とは予め距離P0 に保持されていることを考慮して、その間をバネ・ダンパで表現すると、自立支援ロボット機構21から使用者11の右腕に伝達される伝達力FRHは、
【数18】
となる。
このようにして、自立支援ロボット機構21の駆動制御による動作が、バネ・ダンパを介して伝達力FRHとして使用者11の右腕に加えられることになる。
【0046】
次に、図10にて符号A7で示すように、バネ・ダンパを介して使用者11の右腕の先端にかかる自立支援ロボット機構21からの伝達力FRHを、使用者11の右腕のヤコビアン転置(JH )T を用いて、使用者11の右腕の関節トルクτRHに変換する。
続いて、図10にて符号A8で示すように、使用者11が自ら出力した右腕の関節トルクτH と上記自立支援ロボット機構21による関節トルクτRHを加算して、使用者11の右腕にかかる総トルクτu H を算出する。
即ち、総トルクτu H は、
【数19】
となる。
【0047】
次に、図10にて符号A9で示すように、上記総トルクτu H によって、使用者11の右腕が動作するので、使用者11の右腕の関節角度qH から使用者11の右腕のキネマティクス変換によって、使用者11の右腕の先端位置PH を算出する。
即ち、使用者11の右腕を多関節のロボットアームとみなして、ラグランジュの運動方程式により、その動力学方程式を求めると、一般的に
【数20】
となる。ここで、第一項は慣性項,第二項は非線形項,第三項は摩擦項そして第四項は重力項である。
従って、式19及び20により、使用者11の右腕の動きを表現することが可能である。
【0048】
次に、図10にて符号A10で示すように、バネ・ダンパを介して自立支援ロボット機構21から使用者11の右腕に加えられたトルクτRHは、作用反作用の法則によって、使用者11の右腕から自立支援ロボット機構21にも加えられることになるため、伝達力FRHを自立支援ロボット機構21にフィードバックし、その際自立支援ロボット機構21のヤコビアン転置(JR )T を用いて使用者11の右腕から自立支援ロボット機構21に加えられる伝達トルクτHRとなる。
即ち、式20に基づいて使用者11の右腕が動作すると、バネ・ダンパによる伝達力FRHが変化することにより、この伝達力FRHをヤコビアン転置(JR )T によりフィードバックする自立支援ロボット機構21にも、伝達トルクτHRの影響を与えることになる。
【0049】
また、図10にて符号A11で示すように、使用者11が自ら発生したトルクτH によって、伝達力FRHの大きさも変化するので、フィードバックにより自立支援ロボット機構21に入力される外乱トルクτHRも変化することになる。
その際、外乱トルクτHRがある閾値を超えた場合、スイッチSwがフォースフリー制御に切り替わる。ここで、フォースフリー制御とは、外部から加えられた力に従って、対象となる装置を駆動させる公知の制御手法であって、この場合フォースフリー制御が、外乱トルクτHRに従って動作するようなサーボ系への関節位置指令を生成する。これによって、自立支援ロボット21を無重力・無摩擦な空間に存在しているかのように制御することにより、自立支援ロボット機構21が使用者11から離反するように動作することになり、使用者11の安全性が確保されることになる。
【0050】
このため、フォースフリー制御は、使用者11の右腕からのトルクτHRに基づいて、
【数21】
のアルゴリズムにより行なわれる。ここで、τd は摩擦補償トルク,τg は重力補償トルクであり、それぞれ好ましくは、τd =gR (qR ),τg =FR (qR ,qu ・R )
により与えられる。
このようにして、式21により得られた目標関節位置qd R は、第四のブロック54により生成された目標関節位置qd R と、スイッチSwにより排他的に切り替えられることにより、使用者11の右腕と自立支援ロボット機構21の間の力を逃がして、あるいは自立支援ロボット機構21が人間や物体等の外部環境が衝突した場合の安全性を確保することができる。
【0051】
本発明の実施形態による食事動作支援ロボット10は、以上のように構成されており、使用者11が食したい食物の載っている皿41,42または43を注視することによって、運動機能補助装置20が、使用者11の眼電図計測装置31により計測された眼電図に基づいて使用者11の注視点を検出し、サーボコントローラ33により自立支援ロボット機構21を駆動制御する。
これにより、使用者11が、自分の右手首を自立支援ロボット機構21により注視点となる皿41,42または43に向かって移動させようとする際に、自立支援ロボット機構21が使用者11の右手首を当該注視点に向かうような使用者11の右腕の運動を補助するように移動させる。この際、自立支援ロボット機構21の第二のアーム26の先端の移動速度を考慮しながら軌道制御を行なうことにより、過不足のない適切な補助力が生成できる。
これにより、力が弱すぎて十分な補助力が得られないということもなく、また、使用者に過剰な力が加わらないので安全である。従って、使用者11の右腕の筋力が低下していたとしても、使用者11は自らの意志に基づいて、右腕を注視点となる皿41,42または43に向かって移動させることができる。
さらに、使用者11に無理な力が加えられた場合には、フォースフリー制御に切り替えられることから、使用者11に危害が加えられてしまうようなことはなく、安全性が確保される。
【0052】
図12は、図10に関連して説明した補助力生成の制御手法の別の具体例を示すもので、図3の運動機能補助装置における制御手法の変形例を示すブロック図である。図12において、制御手法は、四個のブロックに分かれており、使用者11の右腕を示す第一ブロック61、サーボコントローラ33と自立支援ロボット機構21を示す第二のブロック62、使用者11の右腕と自立支援ロボット機構21の連結部を示す第三のブロック63、注視点からサーボコントローラ33への入力を与える第四のブロック64を備えている。
そして、この制御手法においては、自立支援ロボット機構21の第二のアーム26の先端を移動させるために必要なトルクを求めて、このトルクに基づいてフォースフリー制御を行なうことにより、補助力を生成するようになっている。
【0053】
ここで、まず符号B1で示すように、第四のブロック64にて、DSPユニット32により判定された注視点(眼電図情報EOG)が、目標点として入力される。具体的には、眼電図から得られた注視点を目標点として、この目標点と現在点から目標軌道Pd H (x,y,z)を演算する。
【0054】
次に、図12にて符号B2で示すように、上記目標点に対応する目標関節位置qd R を逆キネマティックにより演算する。
具体的には、上記目標軌道Pd H (x,y,z)から逆キネマティックを用いて、自立支援ロボット機構21の目標関節位置qd R は、
【数22】
【数23】
【数24】
となる。ここで、c=(x2 +y2 )1/2 −L2 R であり、L1 R ,L2 R およびL3 R は、自立支援ロボット機構21の各軸のリンク長である。
【0055】
次に、図12にて符号B3で示すように、上記目標関節位置qd R から、自立支援ロボット機構21のラグランジュの運動方程式
【数25】
を用いて、トルク指令τd R を生成して、自立支援ロボット機構21に入力する。ここで、H(qd R )は、自立支援ロボット機構21の慣性項である。
【0056】
続いて、図12にて符号B4で示すように、上記トルク指令τd R と使用者11から自立支援ロボット機構21に加えられるトルクτHRにより、フォースフリー制御によって、位置指令qd R*を生成して、自立支援ロボット機構21に入力する。
具体的には、上記トルク指令τd R と使用者11の右腕から自立支援ロボット機構21に加えられた力をトルクに変換したトルクτHRにより、自立支援ロボット機構21に必要なトルクτd R*を演算し、このトルクτd R*から、以下の式
【数26】
【数27】
によって、フォースフリー制御による位置指令qd R*を求める。ここで、KP ,KV ,K は、それぞれ自立支援ロボット機構21のサーボコントローラ33の位置ループゲイン,速度ループゲイン,トルク定数であり、qd ・R は、自立支援ロボット機構21の関節角速度である。
【0057】
次に、図12の符号B5で示すように、上記位置指令qd R*をサーボコントローラ33に入力して、自立支援ロボット機構21のラグランジュの運動方程式
【数28】
により、自立支援ロボット21の関節位置qR を演算する。
【0058】
次に、図12の符号B6で示すように、上記自立支援ロボット機構21の関節位置qR から、自立支援ロボット機構21の第二のアーム26の先端の軌跡PR をキネマティクス
【数29】
【数30】
【数31】
を用いて演算する。ここで、PR =[Px R ,Py R ,Pz R ]T である。
【0059】
次に、図12にて符号B7で示すように、バネ・ダンパによりモデル化して、バネ・ダンパを介して使用者11の右腕の先端にかかる自立支援ロボット機構21からの伝達力FRHを演算する。
即ち、自立支援ロボット機構21の第二のアーム26の先端位置PR と使用者11の右腕の先端位置PH から、
【数32】
【数33】
を用いて、使用者11の右腕に加えられる伝達力FRHを演算する。ここで、K,Dは、それぞれバネ定数及びダンパ係数である。
【0060】
続いて、図12にて符号B8で示すように、使用者11の右腕に加えられる力FRHを、使用者11の右腕のヤコビアン転置(JH )T を用いて、
【数34】
により、使用者11の右腕の関節トルクτRHに変換する。
【0061】
次に、図12にて符号B9で示すように、上記使用者11の右腕の関節トルクτRHから、使用者の右腕のラグランジュの運動方程式
【数35】
を用いて、使用者11の右腕の関節位置qH を演算する。ここで、D,μは、それぞれ粘性摩擦係数,クローン摩擦係数である。
【0062】
次に、図12にて符号B10により示すように、使用者11の右腕の関節位置qH から、使用者11の右腕の先端の軌跡PH を、キネマティクス変換
【数36】
【数37】
【数38】
により演算する。ここで、PH =[Px H ,Py H ,Pz H ]T である。
【0063】
続いて、図12にて符号B11で示すように、使用者11が自ら発生したトルクτH によって、伝達力FRHの大きさも変化するので、フィードバックにより自立支援ロボット機構21に入力される外乱トルクτHRも変化することになる。その際、外乱トルクτHRがある閾値を超えた場合、スイッチSwが切り替わって、トルク指令τd R からの入力を遮断する。これにより、フォースフリー制御が、外乱トルクτHRに従って動作するようなサーボ系への関節位置指令を生成する。
これによって、自立支援ロボット21を無重力・無摩擦な空間に存在しているかのように制御することにより、自立支援ロボット機構21が使用者11から離反するように動作することになる。従って、使用者11の右腕と自立支援ロボット機構21の間の力を逃がして、あるいは自立支援ロボット機構21が人間や物体等の外部環境が衝突した場合の安全性を確保することができる。
【0064】
上述した実施形態においては、運動機能補助装置20は、使用者11の右腕の運動を補助する自立支援ロボット機構21を備えているが、これに限らず、使用者11の筋力低下の部位に応じて、適宜の運動機能補助装置を構成してもよいことは明らかである。
また、上述した実施形態においては、使用者11として寝たきり患者を想定しているが、これに限らず、例えば関節リウマチ等の一時的または慢性的に関節が痛むような患者、さらには高齢、筋ジストロフィーやALS等の全身の筋力が低下し運動が困難となった患者等も含むことは明らかである。
【0065】
【発明の効果】
以上述べたように、本発明によれば、使用者の自ら発生する筋力を補助する補助力を発生させることにより、使用者が筋力の低下した部位の運動を行なおうとする際に、その低下した筋力を補助するので、使用者本人が他人の介助なしに又は軽減して自分の意志で運動を行なうことができる。
その際、検出した眼球運動の上下方向及び左右方向の眼電図に基づいて、使用者の眼球の実質的な静止状態、即ち注視状態を検出することによって、眼球運動による二次元平面上の任意の座標位置を判定することができる。従って、使用者の注視点を確実に検出することによって、その座標位置に応じて多様な使用者の意志情報を検出することができる。
このようにして、本発明によれば、使用者本人が他人の介助なしに容易に自分の意志で運動を行なうことができるようにした、極めて優れた運動機能補助装置及び方法が提供される。
【図面の簡単な説明】
【図1】本発明による運動機能補助装置の一実施形態を組み込んだ食事動作支援ロボットの構成を示すもので、(A)は側面図、(B)は平面図である。
【図2】図1の食事動作支援ロボットにおける自立支援ロボット機構の構成を示すもので、(A)は側面図、(B)は平面図である。
【図3】図1の食事動作支援ロボットにおける運動機能補助装置の構成を示すブロック図である。
【図4】図3の運動機能補助装置における眼電図計測装置の具体的構成を示すもので、(A)は正面図、(B)は側面図である。
【図5】図4の眼電図計測装置における電極位置を示す説明図である。
【図6】図1の食事動作支援ロボットにおけるテーブル上に配置された皿の位置を示す概略図である。
【図7】図4の眼電図計測装置にて使用者が注視しているときの眼電図波形を示すグラフである。
【図8】図3の運動機能補助装置におけるDSPユニットによる注視点の判定のためのしきい値を示す図である。
【図9】図6の皿を使用者が順次に注視したときの、(A)は眼電図を示すグラフ、(B)は眼電図から得られる注視点の二次元平面上の位置を示す図である。
【図10】図3の運動機能補助装置における制御手法を示すブロック図である。
【図11】図10の制御手法における自立支援ロボット機構の第二のアームの先端の移動速度を示すグラフである。
【図12】図3の運動機能補助装置における制御手法の変形例を示すブロック図である。
【符号の説明】
10 食事動作支援ロボット
11 使用者
11a 右手首
11b 左眼
11c 右目
12 ベッド
13 テーブル
20 運動機能補助装置
21 自立支援ロボット機構
22 固定部
23 第一軸
24 第二軸
25 第一のアーム
26 第二のアーム
23a,24a,26a 駆動モータ
26b 駆動ベルト
26c フック
26d 力センサ
30 制御部
31 眼電図計測装置
31a,31b,31c,31d 電極
32 DSPユニット(解析手段)
33 サーボコントローラ(制御手段)
40 基準点
41,42,43 皿(注視点)
51,61 使用者の右腕を示す第一ブロック
52,62 サーボコントローラと自立支援ロボット機構を示す第二のブロック
53,63 使用者の右腕と自立支援ロボット機構の連結部を示す第三のブロック
54,64 注視点からサーボコントローラへの入力を与える第四のブロック
55 安全性を確保するための第五のブロック
Claims (7)
- 使用者の筋力を補完する補助力を生成する駆動手段と、この駆動手段を制御する制御手段と、を備えている運動機能補助装置であって、
使用者に関する眼電図で得られた上下及び左右方向の眼球運動による電位変化を計測する計測手段と、
この上下方向及び左右方向の電位変化に基づいて、使用者の意志情報を抽出する解析手段と、
を備えており、
上記制御手段が、この解析手段により抽出された意志情報に基づいて駆動手段を駆動制御して、使用者の運動機能を補助することを特徴とする、運動機能補助装置。 - 前記解析手段が、使用者の注視する方向を使用者の意志と判断することを特徴とする、請求項1に記載の運動機能補助装置。
- 前記計測手段が、眼球運動による電位変化に基づいて眼球の相対位置を算出し、前記解析手段が、使用者の意志情報として眼球による注視位置を抽出することを特徴とする、請求項2に記載の運動機能補助装置。
- 前記制御手段が、運動機能補助部を駆動制御する際に、速度を考慮した軌道制御により補助力を生成することを特徴とする、請求項1から3の何れかに記載の運動機能補助装置。
- 前記制御手段が、運動機能補助部を駆動制御する際に、フォースフリー制御により補助力を生成することを特徴とする、請求項1から3の何れかに記載の運動機能補助装置。
- 前記制御手段が、運動機能補助部を駆動制御する際に、使用者に過大な力が加わらないように、力センサによりフォースフリー制御を行うことを特徴とする、請求項1から3の何れかに記載の運動機能補助装置。
- 使用者に関する眼電図で得られた上下及び左右方向の眼球運動による電位変化を計測する第一の段階と、
この上下方向及び左右方向の電位変化に基づいて、使用者の意志を抽出する第二の段階と、
この意志に基づいて、運動機能補助部を駆動制御して、使用者の運動機能を補助することを特徴とする、運動機能補助方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003048314A JP4120008B2 (ja) | 2003-02-25 | 2003-02-25 | 運動機能補助装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003048314A JP4120008B2 (ja) | 2003-02-25 | 2003-02-25 | 運動機能補助装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004254876A true JP2004254876A (ja) | 2004-09-16 |
JP4120008B2 JP4120008B2 (ja) | 2008-07-16 |
Family
ID=33114299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003048314A Expired - Fee Related JP4120008B2 (ja) | 2003-02-25 | 2003-02-25 | 運動機能補助装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4120008B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010140975A1 (en) * | 2009-06-02 | 2010-12-09 | Agency For Science, Technology And Research | A system and method for motor learning |
CN103182159A (zh) * | 2012-08-30 | 2013-07-03 | 胡琦逸 | 一种基于眼电信号控制的下肢康复训练装置 |
EP2668898A1 (en) | 2012-05-29 | 2013-12-04 | Jin Co., Ltd. | Eyewear |
WO2014098494A1 (ko) * | 2012-12-20 | 2014-06-26 | 한국과학기술연구원 | 인공 의수 제어 장치 |
JP2015027730A (ja) * | 2006-07-17 | 2015-02-12 | レイセオン カンパニー | ロボット変位装置 |
JP2015514251A (ja) * | 2012-03-22 | 2015-05-18 | センソモトリック インストゥルメンツ ゲゼルシャフト フューア イノヴァティヴ センソリク エムビーエイチ | 視線追跡の結果を評価する方法および装置 |
-
2003
- 2003-02-25 JP JP2003048314A patent/JP4120008B2/ja not_active Expired - Fee Related
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015027730A (ja) * | 2006-07-17 | 2015-02-12 | レイセオン カンパニー | ロボット変位装置 |
WO2010140975A1 (en) * | 2009-06-02 | 2010-12-09 | Agency For Science, Technology And Research | A system and method for motor learning |
US9125788B2 (en) | 2009-06-02 | 2015-09-08 | Agency For Science Technology And Research | System and method for motor learning |
JP2015514251A (ja) * | 2012-03-22 | 2015-05-18 | センソモトリック インストゥルメンツ ゲゼルシャフト フューア イノヴァティヴ センソリク エムビーエイチ | 視線追跡の結果を評価する方法および装置 |
EP2668898A1 (en) | 2012-05-29 | 2013-12-04 | Jin Co., Ltd. | Eyewear |
EP2926729A1 (en) | 2012-05-29 | 2015-10-07 | Jin Co., Ltd. | Apparatus and method for processing eye potential |
US9433369B2 (en) | 2012-05-29 | 2016-09-06 | Jin Co., Ltd. | Eyewear |
US9706941B2 (en) | 2012-05-29 | 2017-07-18 | Jin Co., Ltd. | Eyewear |
CN103182159A (zh) * | 2012-08-30 | 2013-07-03 | 胡琦逸 | 一种基于眼电信号控制的下肢康复训练装置 |
WO2014098494A1 (ko) * | 2012-12-20 | 2014-06-26 | 한국과학기술연구원 | 인공 의수 제어 장치 |
US10166122B2 (en) | 2012-12-20 | 2019-01-01 | Korea Institute Of Science And Technology | Apparatus for controlling prosthetic arm |
Also Published As
Publication number | Publication date |
---|---|
JP4120008B2 (ja) | 2008-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6742196B2 (ja) | 生体活動検出装置および生体活動検出システム | |
JP4686681B2 (ja) | 歩行介助システム | |
KR101221046B1 (ko) | 지능형 외골격 로봇기반의 일상생활 보조 및 재활훈련 시스템 | |
JP5117726B2 (ja) | リハビリテーション並びにトレーニングのための方法及び器械 | |
US20160235323A1 (en) | Physiological parameter measurement and feedback system | |
Sarac et al. | Brain computer interface based robotic rehabilitation with online modification of task speed | |
JP6340528B2 (ja) | Bmi運動補助装置 | |
Yin et al. | Processing surface EMG signals for exoskeleton motion control | |
WO2007128225A1 (fr) | Système robotique et procédé de formation pour rehabilitation utilisant des signaux emg afin d'assurer une assistance mécanique | |
Simonetti et al. | Multimodal adaptive interfaces for 3D robot-mediated upper limb neuro-rehabilitation: An overview of bio-cooperative systems | |
CN106618965A (zh) | 一种穿戴式肢体康复训练系统及控制方法 | |
Hussain | State-of-the-art robotic gait rehabilitation orthoses: design and control aspects | |
Kusoffsky et al. | Reaching-lifting-placing task during standing after stroke: coordination among ground forces, ankle muscle activity, and hand movement | |
Liu et al. | A home-based bilateral rehabilitation system with sEMG-based real-time variable stiffness | |
CN106389068A (zh) | 用于上肢单侧偏瘫患者自主康复训练的设备和控制方法 | |
KR101458002B1 (ko) | 생체인식기반 지능형 상·하지 재활 휠체어 로봇 | |
Wehner | Man to machine, applications in electromyography | |
JP5057314B2 (ja) | 歩容評価システム及び歩容評価方法 | |
Banerjee et al. | Single channel electrooculogram (EOG) based interface for mobility aid | |
Guo et al. | Human–robot interaction for rehabilitation robotics | |
JP4120008B2 (ja) | 運動機能補助装置 | |
Saint-Bauzel et al. | A reactive robotized interface for lower limb rehabilitation: clinical results | |
Simonetti et al. | Reprint of “Multimodal adaptive interfaces for 3D robot-mediated upper limb neuro-rehabilitation: An overview of bio-cooperative systems” | |
Jakopin et al. | An unobtrusive measurement method for assessing physiological response in physical human–robot interaction | |
EP3167798A1 (en) | Biological signal measuring device, biological signal measuring method, mounted-type motion assist device, and motion assist method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071204 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080401 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080411 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110509 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |