JP4120008B2 - 運動機能補助装置 - Google Patents

運動機能補助装置 Download PDF

Info

Publication number
JP4120008B2
JP4120008B2 JP2003048314A JP2003048314A JP4120008B2 JP 4120008 B2 JP4120008 B2 JP 4120008B2 JP 2003048314 A JP2003048314 A JP 2003048314A JP 2003048314 A JP2003048314 A JP 2003048314A JP 4120008 B2 JP4120008 B2 JP 4120008B2
Authority
JP
Japan
Prior art keywords
user
self
robot mechanism
motor function
force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003048314A
Other languages
English (en)
Other versions
JP2004254876A (ja
Inventor
政俊 中村
聡 後藤
剛直 杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2003048314A priority Critical patent/JP4120008B2/ja
Publication of JP2004254876A publication Critical patent/JP2004254876A/ja
Application granted granted Critical
Publication of JP4120008B2 publication Critical patent/JP4120008B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Prostheses (AREA)
  • Eye Examination Apparatus (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、運動機能の低下した人の運動機能を高めるようにした運動機能補助装置関するものである。
【0002】
【従来の技術】
近年、平均寿命が長くなるに従って、高齢者が著しく増えてきており、これに伴って高齢者そして筋力低下による運動機能障害者等の介助が重要な問題になってきている。これに対して、他人の介助なしに高齢者等が自らの意志で所望の運動を行なうことができるように、食事補助,運動機能の回復・支援も目的とした各種研究が行なわれている。
【0003】
このような研究は三つの研究開発動向に大きく分類され、一つ目は義手等の代替部品の開発、二つ目はロボットによる介護装置の開発、そして三つ目は所謂FES(Functional Electrical Stimulation)等による運動機能回復に関する研究である。
特に、食事補助の分野では、使用者本人が顎によりジョイスティックを操作して、ロボットにより食物を使用者の口元まで運搬するようにした、食事補助装置が既に市販されている。しかしながら、このような顎による操作方法では、ジョイスティックの操作に熟練が必要とされることから、使用者にストレスを与えることになってしまう。
【0004】
これに対して、眼球運動により生ずる生体信号を検出して、この生体信号に基づいて、生活機器やロボット等の機器を制御するための制御信号を生成するようにした、生体信号利用型制御装置が開示されている(特許文献 1参照)。これによれば、使用者の眼球運動により生ずる生体信号を周波数解析して、10Hz以上の比較的高周波成分に基づいて、四種の基本信号を取り出す。そして、この四種の基本信号を任意に三つ組み合わせることによって、64種類の制御信号を生成するようにしている。
【0005】
【特許文献1】
特開2001−228949号(第2−3頁,第1図)
【0006】
【発明が解決しようとする課題】
しかしながら、上述した特許文献1による生体信号利用型制御装置においては、生体信号としては、実際には眼球を動かす筋肉の活動電位そして脳の前頭葉から発生する脳波成分、即ち具体的には13Hz以上の高周波成分であるβ波を検出しており、眼球の電位そのものの変化を検出しているのではない。
従って、このような生体信号の検出方法においては、眼球が上下左右の何れの方向に動いたかということのみを検出することになり、眼球が何れの方向にどの程度動くかという変化量を検出することはできない。このため、例えば64種類の制御信号では、あまり細かい制御を行なうことはできず、例えばロボットの正確な制御を行なうことは困難であるので、その利用範囲がロボット等の各種機器の補助的な制御に限定されてしまう。
【0007】
本発明は、以上の点に鑑み、使用者本人が他人の介助なしに容易に自分の意志で運動を行なうことができるようにした運動機能補助装置提供することを目的としている。
【0008】
【課題を解決するための手段】
上記目的を達成するため、本発明は、使用者の筋力を補完する補助力を生成する駆動手段とこの駆動手段を制御する制御手段と、使用者の上下及び左右方向の眼球運動による電位変化を眼電図で計測する計測手段と、計測手段で計測した電位変位に基づいて使用者の意志情報を抽出する解析手段と、を備え、解析手段が、計測手段で計測した電位変化から、使用者の注視点の移動を示すサッケード動作と、眼電図における注視区間と、注視点の二次元平面上の位置とを求めることで、使用者の意志情報として眼球による注視位置を抽出し、制御手段が、解析手段により抽出した使用者の意志情報に基づいて駆動手段を駆動制御して、使用者の運動機能を補助する構成としたものである。
上記構成において、制御手段が、駆動手段を駆動制御する際に速度を考慮した軌道制御により補助力を生成する。
【0021】
【発明の実施の形態】
以下、図面に示した実施形態に基づいて、本発明を詳細に説明する。
図1及び図2は、本発明による運動機能補助装置を適用して、一例として食事動作を支援するロボットの一実施の形態の構成を示している。
図1は本発明による運動機能補助装置の一実施形態を組み込んだ食事動作支援ロボットの構成を示し、(A)は側面図及、(B)は平面図である。
図1において、食事動作支援ロボット10は、使用者11を支持する可倒式のベッド12と、テーブル13と、ベッド12の背部12aに備えられた運動機能補助装置20と、から構成されている。
【0022】
上記ベッド12は公知の構成であって、図示の場合、背部12aを立ち上げた状態で示されており、使用者11がこの背部12aに背中を当てるようにしてベッド12上に座っている。
上記テーブル13は、ベッド12上にて前後方向(X方向)に移動可能に支持されており、使用者11が食事を摂る際には、図示のように、ベッド12上に座った使用者11の直前に位置するように位置調整される。
【0023】
上記運動機能補助装置20は、自立支援ロボット機構21と制御部30とから構成されている。ここで、自立支援ロボット機構21は、公知の構成である。
図2は、図1の食事動作支援ロボットにおける自立支援ロボット機構の構成を示し、(A)側面図、(B)は平面図である。図2に示すように、固定部22に対して垂直軸(Z軸)の周りに回転可能に支持された第一軸23と、第一軸23の上端付近にて、横向きの水平軸(Y軸)の周りに揺動可能に支持された第二軸24と、第二軸24から前方に向かって張り出す第一のアーム25と、第一のアーム25の前端からさらに前方に向かって張り出す第二のアーム26と、から構成されている。
【0024】
上記第一軸23,第二軸24は、それぞれ駆動モータ23a,24aにより回転駆動される。また、第二のアーム26は、第一のアーム25の先端にて横向きの水平軸(Y軸)の周りに揺動可能に支持されていると共に、駆動モータ26aにより駆動ベルト26bを介して上下方向に揺動され得るようになっている。上記第二のアーム26は、さらにその先端に、使用者11の利き腕(図示の場合、右腕)の手首11aを吊り下げるためのフック26cを備えていると共に、吊り下げた手首にかかる力を検出するための力センサ26dを備えている。これにより、駆動モータ23a,24a,26aを適宜に駆動制御して、使用者11の右手首11aの移動を実行するための筋力を補助する補助力を発生させるようになっている。
【0025】
図3は、図1の食事動作支援ロボットにおける運動機能補助装置の構成を示すブロック図である。
上記制御部30は、図3に示すように、計測手段としての眼電図計測装置31と、使用者の意志情報を抽出する解析手段としてのDSPユニット32と、制御手段としてのサーボコントローラ33とから構成されている。駆動モータ23a,24a,26aは、DSPユニット32と力センサ26dからの信号により、サーボコントローラ33を介して駆動される。
【0026】
図4は、図3の運動機能補助装置における眼電図計測装置の具体的構成を示すもので、(A)は正面図、(B)は側面図である。
上記眼電図計測装置31は、図示するように、使用者11の装着感をできるだけ低減するために、メガネ型測定ユニットとして構成されている。
【0027】
図5は、図4の眼電図計測装置における電極位置を示す説明図である。使用者11がメガネを掛けるように当該メガネ型測定ユニットを装着したとき、例えば図5に示すように、使用者11の両眼11b,11cに関して、左眼11bの左側1.0cmの位置に第一の電極31a、右眼11cの右側1.0cmの位置に第二の電極31b、そして右眼11cの上下それぞれ3.0cmの位置に第三及び第四の電極31c,31dが配置されるようになっている。これにより、使用者11が食事の度に複数個の電極を顔面に装着する煩雑さ及び不快感から解放されることになる。
【0028】
上記解析手段としてのDSPユニット32は、計測手段としての眼電図計測装置31の各電極31a乃至31dからの検出電位に基づいて解析を行なって、使用者11の眼球運動を把握し、使用者11の眼球の注視位置を検出して、これを使用者の意志情報として抽出する。
【0029】
ここで、上記眼電図計測装置31の各電極31a乃至31dにより検出される電位をそれぞれX1 ,X2 ,X3 ,X4 とすると、左右方向の電位差(X1 −X2 )及び上下方向の電位差(X3 −X4 )は、使用者11の左右方向及び上下方向の眼球運動を表わすことになり、これらの電位差(X1 −X2 )及び(X3 −X4 )に基づいて、上記DSPユニット32は、使用者11の眼球の上下左右の二次元平面上での運動を把握し、これを使用者の意志情報として抽出することができる。
【0030】
ここで、上記眼電図計測装置31の各電極31a乃至31dにより検出された電位X1 ,X2 ,X3 ,X4 に基づいて、使用者11の眼球の運動を把握する実験例について参照して説明する。
図6は、図1の食事動作支援ロボットにおけるテーブル上に配置された皿の位置を示す概略図である。図示するように、テーブル13の上に、三つの皿41,42,43が並んで配置されている。そして、使用者11が、テーブル13上の自分が食べたい皿41,42または43を注視すると、使用者11の眼球運動が注視により実質的に静止することになる。
そこで、DSPユニット32が、この静止状態を検出することにより、そのときの眼球の方向に基づいて、使用者11がどの皿41,42または43を注視しているかを判定することができる。
【0031】
この判定アルゴリズムは、サッケード動作の検出,注視区間の検出そして注視点の判定の順に行なわれ、例えば以下のように構成されている。
第一に、注視点の移動を示すサッケード動作を検出する。
図7は、テーブル13上の基準点40または各皿41,42,43を注視しているときの眼電図、即ち眼球運動による水平方向の電位差(眼電図)Xh (t)=(X1 −X2 )及び垂直方向の電位差(眼電図)Xv (t)=(X3 −X4 )を、それぞれ+を上向きにて示している。
この場合、使用者11はまず基準点40を注視した後、いずれかの皿41,42または43を注視することとする。これにより、いずれの皿41,42または43を注視した場合にも、眼球は垂直方向に大きく動くので、垂直方向の眼電図Xh (t)は急峻な変化(所謂サッケード)を生ずることになる。その際、眼球が下方に動くことから、眼電図Xh (t)は少なくとも一時的に負の値となる。従って、区間[t0 −1.0,t0 +1.0]の2秒間における垂直方向の眼電図Xh (t)が最小値となる時刻をt0 とし、この時刻t0 を基準点40から皿41,42または43への移動の可能性が高い時刻とする。これにより、サッケード動作が検出されることになる。
【0032】
第二に、注視区間を検出する。
上述したサッケード動作の前後の注視中は、使用者11の眼球は基準点40あるいは皿41,42または43を注視していることから、眼球は実質的に静止しているが、実際には眼電図記録用の低域遮断フィルタの影響により緩やかな電位変動が生ずる。従って、DSPユニット32は、このような緩やかな電位変動を考慮して、注視区間を検出する。その際、上述したサッケード動作時t0 以前には、使用者11が基準点40を注視していて眼電図Xv (t)の変動が少ないことから、眼電図Xv (t)が以下の二つの条件式
【数1】
Figure 0004120008
【数2】
Figure 0004120008
を満たしているとき、即ち、それぞれ区間A[t0 −2.1,t0 −1.1]及び区間B[t0 −1.1,t0 −0.1]の間の1秒間に、眼電図Xv (t)の最大変化が200μV以下の場合に、注視している区間である可能性が高いとする。これにより、注視区間が検出されることになる。
【0033】
続いて、第三に、注視点の判定を行なう。
使用者11が基準点40から何れかの皿41,42または43を注視すると、垂直方向の眼電図Xv (t)だけでなく、水平方向の眼電図Xh (t)も変化する。従って、DSPユニット32は、これらの眼電図Xv (t)及びXh (t)の変化を捉えるために、以下の四つのパラメータ、
【数3】
Figure 0004120008
【数4】
Figure 0004120008
【数5】
Figure 0004120008
【数6】
Figure 0004120008
を計算する。
ここで、Δtは、サンプリング間隔で、この場合10msに設定されている。式3は時刻t0 以前の区間Bにおける垂直方向の眼電図Xv (t)の平均値、式4は時刻t0 以後の区間C[t0 +0.1,t0 +1.1]における垂直方向の眼電図Xv (t)の平均値、また、式5及び6は、それぞれ区間B,Cにおける水平方向の眼電図Xh (t)の平均値を表わす。
使用者11の注視点が、基準点40から皿41,42または43に移動すると、上記式3及び4による垂直方向の眼電図Xv (t)の平均値の差が大きくなると共に、皿41,42または43は水平方向に距離をおいて一列に並んでいるので、水平方向の眼電図Xh (t)の平均値は、各注視点によって異なることになる。
【0034】
図8は、図3の運動機能補助装置におけるDSPユニットによる注視点の判定のためのしきい値を示す図である。
従って、DSPユニット32は、各皿41,42,43における注視点に関して、図8に示すように、垂直方向に関して式3及び4による垂直方向の眼電図Xv (t)の平均値の差αが50μV以上であるときに、且つ式5及び6による水平方向の眼電図Xh (t)の平均値の差βに応じて、注視点が皿41,42または43であると判定する。
即ち、DSPユニット32は、式5及び6による水平方向の眼電図Xh (t)の平均値の差βが−100μVから100μVでは注視点が皿41であると判定し、βが100μV以上では注視点が皿42であると判定し、さらにβが−100μV以下では、注視点が皿43であると判定する。
これに対して、これらの条件の何れも満たさない場合には、DSPユニット32は、何れの皿41,42または43も注視していないと判定する。
【0035】
次に、上述した注視点の判定の具体的な実験結果を図9を参照して示す。図9は、図6の皿を使用者が順次に注視したときの、(A)は眼電図を示すグラフ、(B)は眼電図から得られる注視点の二次元平面上の位置を示す図である。
実験では、使用者11がそれぞれ基準点40の注視後それぞれ上記各皿41,42及び43を注視している。
図9(A)は、実験による使用者11の水平方向及び垂直方向の眼電図Xv (t)及びXh (t)を示しており、基準点40または皿41,42,43の注視区間において、各眼電図Xv (t)及びXh (t)がそれぞれサッケード動作を挟んで緩やかに変動しており、その座標位置は図6に示した皿41,42,43の配置に近似していることが分かる。また、図9(B)から、上記各皿41,42及び43の注視点により、二次元平面上の位置が変化していることが分かる。このようにして、使用者11の注視点を眼電図により判定し、具体的には使用者11がどの皿41,42,43を注視しているかを判定することが可能である。
【0036】
ところで、特許文献1においては、眼球運動により生ずる生体信号を検出して、ロボット等の機器を制御する方法が提案されているが、眼球がどの方向に移動しているかを検出するだけであって、眼球がどの方向にどの程度移動して、何れの方向に向いているかを判定することはできない。そのため、多彩な制御を行なうことは不可能であった。
これに対して、上述したように本発明の実施形態による運動機能補助装置30においては、使用者11の眼球運動の眼電図により、サッケード動作,注視動作そして電位に基づいて、使用者11の眼球運動を左右方向及び上下方向に関して検出し、注視点の二次元平面上の位置を判定するようにしているので、任意に配置された複数の注視点を区別して判定することができる。
【0037】
上記サーボコントローラ33は、DSPユニット32からの判定結果、即ち何れの皿41,42,43を注視しているかに基づいて自立支援ロボット機構21に対してコマンドを出力するようになっている。即ち、サーボコントローラ33は、使用者11の注視点である皿41,42または43に向かって使用者11の右手首11aを皿41,42または43に向かって移動させるように、各駆動モータ23a,24a,26aを駆動制御する。
【0038】
その際、自立支援ロボット機構21は、使用者11の右腕の筋力を補助する補助力のみを発生させると共に、この補助力によって使用者11に対して危害を加えないように、当該補助力が大きくなり過ぎた場合には、サーボコントローラ33は、駆動制御を切り換えて補助力を小さくすることにより、安全性を確保するようになっている。即ち、サーボコントローラ33は、自立支援ロボット機構21の第二のアーム26の先端のフック26cに備えられた力センサ26dの検出出力がフィードバックされており、この力センサ26dの検出出力によって、自立支援ロボット機構21の駆動制御にて使用者11の右手首11aに加えられる力を検出して、この力が所定値を超えたとき駆動制御を切り換えて、自立支援ロボット機構21の駆動制御により使用者11の右手首11aに加えられる力を低減するようになっている。
【0039】
このような補助力生成の制御手法の具体例について、図10を参照して説明する。図10は、図3の運動機能補助装置における制御手法を示すブロック図である。図10において、制御手法は五個のブロックに分かれており、使用者11の右腕を示す第一ブロック51、サーボコントローラ33と自立支援ロボット機構21を示す第二のブロック52、使用者11の右腕と自立支援ロボット機構21の連結部を示す第三のブロック53、注視点からサーボコントローラ33への入力を与える第四のブロック54、そして、上記安全性を確保するための第五のブロック55を備えている。そして、この制御手法においては、自立支援ロボット機構21の第二のアーム26の先端の移動速度を考慮しながら軌道制御を行なうことにより、補助力を生成するようになっている。
【0040】
ここで、まず符号A1で示すように、第四のブロック54にて、DSPユニット32により判定された注視点(眼電図情報EOG)が、目標点として入力される。
具体的には、自立支援ロボット機構21の第二のアーム26の先端の位置(現在点)をPR =(xR ,yR ,zR )、
入力された目標点をPd R =(xd R ,yd R ,zd R )とすると、二点間の距離は、
【数7】
Figure 0004120008
となる。
【0041】
次に、図10にて符号A2で示すように、移動速度の大きさをvとして、現在点から目標点までのベクトルを求めて、自立支援ロボット機構21の第二のアーム26の先端の移動速度を導出する。
図11は、図10の制御手法における自立支援ロボット機構の第二のアームの先端の移動速度を示すグラフである。図において、横軸が時間(t)で、縦軸が速度Vである。即ち、二点間の移動速度の最大値をv0 として、図11に示すような所謂台形型の移動速度vを求める。
具体的には、移動速度vの傾きをaとすると、二点間の移動速度vは、
【数8】
Figure 0004120008
となり、作業座標系にてX,Y,Zに分解すると、
【数9】
Figure 0004120008
【数10】
Figure 0004120008
【数11】
Figure 0004120008
となる。ここで、v* =[vx ,v yz T である。
これらの式9乃至11を、自立支援ロボット機構21のヤコビアンの逆行列(JR -1を用いて、自立支援ロボット機構21の目標関節角速度に変換すると、目標関節角速度は、
【数12】
Figure 0004120008
となる。
【0042】
次に、図10の符号A3で示すように、上記目標関節角速度の積分によって、支援ロボットを駆動するためのサーボコントローラ33への関節位置指令qd R を算出する。
具体的には、上記式12を
【数13】
Figure 0004120008
と積分することにより、自立支援ロボット機構21を駆動制御するための目標関節位置指令qd R が得られる。
【0043】
続いて、図10にて符号A4で示すように、自立支援ロボット機構21の第二のアーム26のトルクτR が生成され、使用者11から自立支援ロボット機構21に加えられる外乱トルクτHRを減算して、実際に自立支援ロボット機構21の第二のアーム26への入力トルクτu R を演算する。
具体的には、自立支援ロボット機構21の第二のアーム26の目標関節位置指令qd R と現在の関節位置qR 、そして関節角速度q・ R を用いて、自立支援ロボット機構の第二のアーム26の関節に生成されるトルクτR は、
【数14】
Figure 0004120008
となる。ここで、KP ,KV ,KT は、それぞれ位置ループゲイン,速度ループゲイン,トルク定数である。
さらに、使用者11の右腕から外乱トルクτHRを減算することにより、自立支援ロボット機構21に加えられる総トルクτu R は、
【数15】
Figure 0004120008
となる。
【0044】
次に、図10の符号A5で示すように、上記入力トルクτu R により、自立支援ロボット機構21が動作して、その第二のアーム26のアーム関節角度qR から当該自立支援ロボット機構21のキネマティクスによって、自立支援ロボット機構21のアーム先端位置PR に変換される。
ここで、自立支援ロボット機構21の動力学方程式は、一般的には
【数16】
Figure 0004120008
で表わされる。ここで、第一項は慣性項,第二項は非線形項,第三項は摩擦項そして第四項は重力項である。
従って、具体的には式15及び16により、自立支援ロボット機構21の動作を表現することが可能であり、式16から自立支援ロボット機構21の第二のアーム26のアーム関節位置qR が得られ、さらに自立支援ロボット機構21のキネマティクスにより、自立支援ロボット機構21の第二のアーム26の先端位置PR が得られることになる。
【0045】
次に、図10にて符号A6で示すように、自立支援ロボット機構21の動作がバネ・ダンパ(後述)を介して使用者11の右手首11aに伝達され、そのときの伝達力FRHが、力センサ26dにより得られる。
具体的には、自立支援ロボット機構21の第二のアーム26の先端位置PR と使用者11の右腕の先端位置PH との距離をPe RHとすると、この距離は、
【数17】
Figure 0004120008
となる。ここで、自立支援ロボット機構21と使用者11の右腕の先端位置PH とは予め距離P0 に保持されていることを考慮して、その間をバネ・ダンパで表現すると、自立支援ロボット機構21から使用者11の右腕に伝達される伝達力FRHは、
【数18】
Figure 0004120008
となる。
このようにして、自立支援ロボット機構21の駆動制御による動作が、バネ・ダンパを介して伝達力FRHとして使用者11の右腕に加えられることになる。
【0046】
次に、図10にて符号A7で示すように、バネ・ダンパを介して使用者11の右腕の先端にかかる自立支援ロボット機構21からの伝達力FRHを、使用者11の右腕のヤコビアン転置(JH T を用いて、使用者11の右腕の関節トルクτRHに変換する。
続いて、図10にて符号A8で示すように、使用者11が自ら出力した右腕の関節トルクτH と上記自立支援ロボット機構21による関節トルクτRHを加算して、使用者11の右腕にかかる総トルクτu H を算出する。
即ち、総トルクτu H は、
【数19】
Figure 0004120008
となる。
【0047】
次に、図10にて符号A9で示すように、上記総トルクτu H によって、使用者11の右腕が動作するので、使用者11の右腕の関節角度qH から使用者11の右腕のキネマティクス変換によって、使用者11の右腕の先端位置PH を算出する。
即ち、使用者11の右腕を多関節のロボットアームとみなして、ラグランジュの運動方程式により、その動力学方程式を求めると、一般的に
【数20】
Figure 0004120008
となる。ここで、第一項は慣性項,第二項は非線形項,第三項は摩擦項そして第四項は重力項である。
従って、式19及び20により、使用者11の右腕の動きを表現することが可能である。
【0048】
次に、図10にて符号A10で示すように、バネ・ダンパを介して自立支援ロボット機構21から使用者11の右腕に加えられたトルクτRHは、作用反作用の法則によって、使用者11の右腕から自立支援ロボット機構21にも加えられることになるため、伝達力FRHを自立支援ロボット機構21にフィードバックし、その際自立支援ロボット機構21のヤコビアン転置(JR T を用いて使用者11の右腕から自立支援ロボット機構21に加えられる伝達トルクτHRとなる。
即ち、式20に基づいて使用者11の右腕が動作すると、バネ・ダンパによる伝達力FRHが変化することにより、この伝達力FRHをヤコビアン転置(JR T によりフィードバックする自立支援ロボット機構21にも、伝達トルクτHRの影響を与えることになる。
【0049】
また、図10にて符号A11で示すように、使用者11が自ら発生したトルクτH によって、伝達力FRHの大きさも変化するので、フィードバックにより自立支援ロボット機構21に入力される外乱トルクτHRも変化することになる。
その際、外乱トルクτHRがある閾値を超えた場合、スイッチSwがフォースフリー制御に切り替わる。ここで、フォースフリー制御とは、外部から加えられた力に従って、対象となる装置を駆動させる公知の制御手法であって、この場合フォースフリー制御が、外乱トルクτHRに従って動作するようなサーボ系への関節位置指令を生成する。これによって、自立支援ロボット21を無重力・無摩擦な空間に存在しているかのように制御することにより、自立支援ロボット機構21が使用者11から離反するように動作することになり、使用者11の安全性が確保されることになる。
【0050】
このため、フォースフリー制御は、使用者11の右腕からのトルクτHRに基づいて、
【数21】
Figure 0004120008
のアルゴリズムにより行なわれる。ここで、τd は摩擦補償トルク,τg は重力補償トルクであり、それぞれ好ましくは、τd =gR (qR ),τg =FR (qR ,qu R
により与えられる。
このようにして、式21により得られた目標関節位置qd R は、第四のブロック54により生成された目標関節位置qd R と、スイッチSwにより排他的に切り替えられることにより、使用者11の右腕と自立支援ロボット機構21の間の力を逃がして、あるいは自立支援ロボット機構21が人間や物体等の外部環境が衝突した場合の安全性を確保することができる。
【0051】
本発明の実施形態による食事動作支援ロボット10は、以上のように構成されており、使用者11が食したい食物の載っている皿41,42または43を注視することによって、運動機能補助装置20が、使用者11の眼電図計測装置31により計測された眼電図に基づいて使用者11の注視点を検出し、サーボコントローラ33により自立支援ロボット機構21を駆動制御する。
これにより、使用者11が、自分の右手首を自立支援ロボット機構21により注視点となる皿41,42または43に向かって移動させようとする際に、自立支援ロボット機構21が使用者11の右手首を当該注視点に向かうような使用者11の右腕の運動を補助するように移動させる。この際、自立支援ロボット機構21の第二のアーム26の先端の移動速度を考慮しながら軌道制御を行なうことにより、過不足のない適切な補助力が生成できる。
これにより、力が弱すぎて十分な補助力が得られないということもなく、また、使用者に過剰な力が加わらないので安全である。従って、使用者11の右腕の筋力が低下していたとしても、使用者11は自らの意志に基づいて、右腕を注視点となる皿41,42または43に向かって移動させることができる。
さらに、使用者11に無理な力が加えられた場合には、フォースフリー制御に切り替えられることから、使用者11に危害が加えられてしまうようなことはなく、安全性が確保される。
【0052】
図12は、図10に関連して説明した補助力生成の制御手法の別の具体例を示すもので、図3の運動機能補助装置における制御手法の変形例を示すブロック図である。図12において、制御手法は、四個のブロックに分かれており、使用者11の右腕を示す第一ブロック61、サーボコントローラ33と自立支援ロボット機構21を示す第二のブロック62、使用者11の右腕と自立支援ロボット機構21の連結部を示す第三のブロック63、注視点からサーボコントローラ33への入力を与える第四のブロック64を備えている。
そして、この制御手法においては、自立支援ロボット機構21の第二のアーム26の先端を移動させるために必要なトルクを求めて、このトルクに基づいてフォースフリー制御を行なうことにより、補助力を生成するようになっている。
【0053】
ここで、まず符号B1で示すように、第四のブロック64にて、DSPユニット32により判定された注視点(眼電図情報EOG)が、目標点として入力される。具体的には、眼電図から得られた注視点を目標点として、この目標点と現在点から目標軌道Pd H (x,y,z)を演算する。
【0054】
次に、図12にて符号B2で示すように、上記目標点に対応する目標関節位置qd R を逆キネマティックにより演算する。
具体的には、上記目標軌道Pd H (x,y,z)から逆キネマティックを用いて、自立支援ロボット機構21の目標関節位置qd R は、
【数22】
Figure 0004120008
【数23】
Figure 0004120008
【数24】
Figure 0004120008
となる。ここで、c=(x2 +y2 1/2 −L2 R であり、L1 R ,L2 R およびL3 R は、自立支援ロボット機構21の各軸のリンク長である。
【0055】
次に、図12にて符号B3で示すように、上記目標関節位置qd R から、自立支援ロボット機構21のラグランジュの運動方程式
【数25】
Figure 0004120008
を用いて、トルク指令τd R を生成して、自立支援ロボット機構21に入力する。ここで、H(qd R )は、自立支援ロボット機構21の慣性項である。
【0056】
続いて、図12にて符号B4で示すように、上記トルク指令τd R と使用者11から自立支援ロボット機構21に加えられるトルクτHRにより、フォースフリー制御によって、位置指令qd R*を生成して、自立支援ロボット機構21に入力する。
具体的には、上記トルク指令τd R と使用者11の右腕から自立支援ロボット機構21に加えられた力をトルクに変換したトルクτHRにより、自立支援ロボット機構21に必要なトルクτd R*を演算し、このトルクτd R*から、以下の式
【数26】
Figure 0004120008
【数27】
Figure 0004120008
によって、フォースフリー制御による位置指令qd R*を求める。ここで、KP ,KV ,K は、それぞれ自立支援ロボット機構21のサーボコントローラ33の位置ループゲイン,速度ループゲイン,トルク定数であり、qd R は、自立支援ロボット機構21の関節角速度である。
【0057】
次に、図12の符号B5で示すように、上記位置指令qd R*をサーボコントローラ33に入力して、自立支援ロボット機構21のラグランジュの運動方程式
【数28】
Figure 0004120008
により、自立支援ロボット21の関節位置qR を演算する。
【0058】
次に、図12の符号B6で示すように、上記自立支援ロボット機構21の関節位置qR から、自立支援ロボット機構21の第二のアーム26の先端の軌跡PR をキネマティクス
【数29】
Figure 0004120008
【数30】
Figure 0004120008
【数31】
Figure 0004120008
を用いて演算する。ここで、PR =[Px R ,Py R ,Pz R T である。
【0059】
次に、図12にて符号B7で示すように、バネ・ダンパによりモデル化して、バネ・ダンパを介して使用者11の右腕の先端にかかる自立支援ロボット機構21からの伝達力FRHを演算する。
即ち、自立支援ロボット機構21の第二のアーム26の先端位置PR と使用者11の右腕の先端位置PH から、
【数32】
Figure 0004120008
【数33】
Figure 0004120008
を用いて、使用者11の右腕に加えられる伝達力FRHを演算する。ここで、K,Dは、それぞれバネ定数及びダンパ係数である。
【0060】
続いて、図12にて符号B8で示すように、使用者11の右腕に加えられる力FRHを、使用者11の右腕のヤコビアン転置(JH T を用いて、
【数34】
Figure 0004120008
により、使用者11の右腕の関節トルクτRHに変換する。
【0061】
次に、図12にて符号B9で示すように、上記使用者11の右腕の関節トルクτRHから、使用者の右腕のラグランジュの運動方程式
【数35】
Figure 0004120008
を用いて、使用者11の右腕の関節位置qH を演算する。ここで、D,μは、それぞれ粘性摩擦係数,クローン摩擦係数である。
【0062】
次に、図12にて符号B10により示すように、使用者11の右腕の関節位置qH から、使用者11の右腕の先端の軌跡PH を、キネマティクス変換
【数36】
Figure 0004120008
【数37】
Figure 0004120008
【数38】
Figure 0004120008
により演算する。ここで、PH =[Px H ,Py H ,Pz H T である。
【0063】
続いて、図12にて符号B11で示すように、使用者11が自ら発生したトルクτH によって、伝達力FRHの大きさも変化するので、フィードバックにより自立支援ロボット機構21に入力される外乱トルクτHRも変化することになる。その際、外乱トルクτHRがある閾値を超えた場合、スイッチSwが切り替わって、トルク指令τd R からの入力を遮断する。これにより、フォースフリー制御が、外乱トルクτHRに従って動作するようなサーボ系への関節位置指令を生成する。これによって、自立支援ロボット21を無重力・無摩擦な空間に存在しているかのように制御することにより、自立支援ロボット機構21が使用者11から離反するように動作することになる。従って、使用者11の右腕と自立支援ロボット機構21の間の力を逃がして、あるいは自立支援ロボット機構21が人間や物体等の外部環境が衝突した場合の安全性を確保することができる。
【0064】
上述した実施形態においては、運動機能補助装置20は、使用者11の右腕の運動を補助する自立支援ロボット機構21を備えているが、これに限らず、使用者11の筋力低下の部位に応じて、適宜の運動機能補助装置を構成してもよいことは明らかである。
また、上述した実施形態においては、使用者11として寝たきり患者を想定しているが、これに限らず、例えば関節リウマチ等の一時的または慢性的に関節が痛むような患者、さらには高齢、筋ジストロフィーやALS等の全身の筋力が低下し運動が困難となった患者等も含むことは明らかである。
【0065】
【発明の効果】
以上述べたように、本発明によれば、使用者の自ら発生する筋力を補助する補助力を発生させることにより、使用者が筋力の低下した部位の運動を行なおうとする際に、その低下した筋力を補助するので、使用者本人が他人の介助なしに又は軽減して自分の意志で運動を行なうことができる。
その際、検出した眼球運動の上下方向及び左右方向の眼電図に基づいて、使用者の眼球の実質的な静止状態、即ち注視状態を検出することによって、眼球運動による二次元平面上の任意の座標位置を判定することができる。従って、使用者の注視点を確実に検出することによって、その座標位置に応じて多様な使用者の意志情報を検出することができる。
このようにして、本発明によれば、使用者本人が他人の介助なしに容易に自分の意志で運動を行なうことができるようにした、極めて優れた運動機能補助装置及び方法が提供される。
【図面の簡単な説明】
【図1】本発明による運動機能補助装置の一実施形態を組み込んだ食事動作支援ロボットの構成を示すもので、(A)は側面図、(B)は平面図である。
【図2】図1の食事動作支援ロボットにおける自立支援ロボット機構の構成を示すもので、(A)は側面図、(B)は平面図である。
【図3】図1の食事動作支援ロボットにおける運動機能補助装置の構成を示すブロック図である。
【図4】図3の運動機能補助装置における眼電図計測装置の具体的構成を示すもので、(A)は正面図、(B)は側面図である。
【図5】図4の眼電図計測装置における電極位置を示す説明図である。
【図6】図1の食事動作支援ロボットにおけるテーブル上に配置された皿の位置を示す概略図である。
【図7】図4の眼電図計測装置にて使用者が注視しているときの眼電図波形を示すグラフである。
【図8】図3の運動機能補助装置におけるDSPユニットによる注視点の判定のためのしきい値を示す図である。
【図9】図6の皿を使用者が順次に注視したときの、(A)は眼電図を示すグラフ、(B)は眼電図から得られる注視点の二次元平面上の位置を示す図である。
【図10】図3の運動機能補助装置における制御手法を示すブロック図である。
【図11】図10の制御手法における自立支援ロボット機構の第二のアームの先端の移動速度を示すグラフである。
【図12】図3の運動機能補助装置における制御手法の変形例を示すブロック図である。
【符号の説明】
10 食事動作支援ロボット
11 使用者
11a 右手首
11b 左眼
11c 右目
12 ベッド
13 テーブル
20 運動機能補助装置
21 自立支援ロボット機構
22 固定部
23 第一軸
24 第二軸
25 第一のアーム
26 第二のアーム
23a,24a,26a 駆動モータ
26b 駆動ベルト
26c フック
26d 力センサ
30 制御部
31 眼電図計測装置
31a,31b,31c,31d 電極
32 DSPユニット(解析手段)
33 サーボコントローラ(制御手段)
40 基準点
41,42,43 皿(注視点)
51,61 使用者の右腕を示す第一ブロック
52,62 サーボコントローラと自立支援ロボット機構を示す第二のブロック
53,63 使用者の右腕と自立支援ロボット機構の連結部を示す第三のブロック
54,64 注視点からサーボコントローラへの入力を与える第四のブロック
55 安全性を確保するための第五のブロック

Claims (2)

  1. 使用者の筋力を補完する補助力を生成する駆動手段と、
    この駆動手段を制御する制御手段と
    使用者の上下及び左右方向の眼球運動による電位変化を眼電図で計測する計測手段と、
    上記計測手段で計測した電位変位に基づいて使用者の意志情報を抽出する解析手段と、を備え
    上記解析手段が、上記計測手段で計測した電位変化から、使用者の注視点の移動を示すサッケード動作と、眼電図における注視区間と、注視点の二次元平面上の位置とを求めることで、使用者の意志情報として眼球による注視位置を抽出し、
    上記制御手段が、上記解析手段により抽出した使用者の意志情報に基づいて上記駆動手段を駆動制御して、使用者の運動機能を補助する運動機能補助装置。
  2. 前記制御手段が、前記駆動手段を駆動制御する際に、速度を考慮した軌道制御により補助力を生成する、請求項に記載の運動機能補助装置。
JP2003048314A 2003-02-25 2003-02-25 運動機能補助装置 Expired - Fee Related JP4120008B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003048314A JP4120008B2 (ja) 2003-02-25 2003-02-25 運動機能補助装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003048314A JP4120008B2 (ja) 2003-02-25 2003-02-25 運動機能補助装置

Publications (2)

Publication Number Publication Date
JP2004254876A JP2004254876A (ja) 2004-09-16
JP4120008B2 true JP4120008B2 (ja) 2008-07-16

Family

ID=33114299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003048314A Expired - Fee Related JP4120008B2 (ja) 2003-02-25 2003-02-25 運動機能補助装置

Country Status (1)

Country Link
JP (1) JP4120008B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8849457B2 (en) * 2006-07-17 2014-09-30 Raytheon Company Contact displacement actuator system
SG176662A1 (en) * 2009-06-02 2012-01-30 Agency Science Tech & Res A system and method for motor learning
EP2642425A1 (de) * 2012-03-22 2013-09-25 SensoMotoric Instruments GmbH Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung
JP5661067B2 (ja) 2012-05-29 2015-01-28 株式会社ジェイアイエヌ アイウエア
CN103182159A (zh) * 2012-08-30 2013-07-03 胡琦逸 一种基于眼电信号控制的下肢康复训练装置
KR101465020B1 (ko) 2012-12-20 2014-11-27 한국과학기술연구원 인공 의수 제어 장치

Also Published As

Publication number Publication date
JP2004254876A (ja) 2004-09-16

Similar Documents

Publication Publication Date Title
Guo et al. Human–robot interaction for rehabilitation robotics
JP4686681B2 (ja) 歩行介助システム
US8359123B2 (en) Robotic system and training method for rehabilitation using EMG signals to provide mechanical help
KR101221046B1 (ko) 지능형 외골격 로봇기반의 일상생활 보조 및 재활훈련 시스템
US20080288020A1 (en) Neuromuscular Stimulation
JP6340528B2 (ja) Bmi運動補助装置
KR20140001946A (ko) 장착식 동작 보조장치, 그 인터페이스장치 및 프로그램
WO2005105203A1 (en) Neuromuscular stimulation
Liu et al. A home-based bilateral rehabilitation system with sEMG-based real-time variable stiffness
Hussain State-of-the-art robotic gait rehabilitation orthoses: design and control aspects
JP5057314B2 (ja) 歩容評価システム及び歩容評価方法
KR101458002B1 (ko) 생체인식기반 지능형 상·하지 재활 휠체어 로봇
JP4120008B2 (ja) 運動機能補助装置
Yeong et al. ReachMAN: a personal robot to train reaching and manipulation
Luo et al. Research of intent recognition in rehabilitation robots: a systematic review
Law et al. A cap as interface for wheelchair control
Karunakaran et al. A novel user control for lower extremity rehabilitation exoskeletons
Saint-Bauzel et al. A reactive robotized interface for lower limb rehabilitation: clinical results
Huo et al. Wireless control of powered wheelchairs with tongue motion using tongue drive assistive technology
Simonetti et al. Reprint of “Multimodal adaptive interfaces for 3D robot-mediated upper limb neuro-rehabilitation: An overview of bio-cooperative systems”
Huang et al. Cable-driven robotic interface for lower limb neuromechanics identification
US11957475B2 (en) Biometric information processing device, biometric information processing method and program
Swami et al. A novel embedded approach for the development of wireless electro-oculogram based human-computer interface
Van Der Burg et al. The effect of timing of a perturbation on the execution of a lifting movement
Zhang et al. biomechatronics: harmonizing mechatronic systems with human beings

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080411

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110509

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees