JP2012120798A - Wearable input device, human assistance device, and control method for the human assistance device - Google Patents
Wearable input device, human assistance device, and control method for the human assistance device Download PDFInfo
- Publication number
- JP2012120798A JP2012120798A JP2010276288A JP2010276288A JP2012120798A JP 2012120798 A JP2012120798 A JP 2012120798A JP 2010276288 A JP2010276288 A JP 2010276288A JP 2010276288 A JP2010276288 A JP 2010276288A JP 2012120798 A JP2012120798 A JP 2012120798A
- Authority
- JP
- Japan
- Prior art keywords
- wearer
- head
- movement
- movement direction
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Rehabilitation Tools (AREA)
- Prostheses (AREA)
Abstract
Description
本発明は装着型入力装置及び人支援装置及び人支援装置の制御方法に係り、特に装着者の動作を支援するのに適した装着型入力装置及び人支援装置及び人支援装置の制御方法に関する。 The present invention relates to a wearable input device, a human support device, and a control method for the human support device, and more particularly, to a wearable input device, a human support device, and a control method for the human support device that are suitable for supporting the operation of the wearer.
例えば、関節の病気により腕や足が動作しにくかったり、あるいは筋力の低下により関節が動作しにくい場合、動作補助具を腕や足に装着して関節の動作を補助する装着式動作補助装置が開発されている(特許文献1参照)。 For example, if the arm or leg is difficult to move due to a joint disease, or if the joint is difficult to move due to a decrease in muscle strength, a wearable movement assist device that assists the movement of the joint by attaching a movement assist tool to the arm or leg is available. It has been developed (see Patent Document 1).
この装着式動作補助装置は、装着者の意思に基づいて発生する生体電位を検出し、この生体信号から当該装着者の両足の各関節に配されたモータを制御する制御信号を生成する構成であるので、動作補助具の駆動力を自分の筋力と同じように腕や足に伝達することが可能になる。 The wearable movement assist device is configured to detect a bioelectric potential generated based on the wearer's intention and generate a control signal for controlling a motor disposed in each joint of the wearer's both feet from the biosignal. As a result, the driving force of the motion assisting tool can be transmitted to the arms and legs in the same manner as the muscle strength of the user.
また、装着式動作補助装置は、装着者から検出された生体電位が入力され、且つ足の裏側の重心の移動を重心センサにより検出することで当該装着者が何らかの動作(例えば、歩行動作、椅子からの立ち上がり動作)を開始しようとしていることを推測し、その推測結果に基づいてモータの駆動力を制御している。 In addition, the wearable movement assist device receives a bioelectric potential detected from the wearer, and detects the movement of the center of gravity on the back side of the foot using a center of gravity sensor, so that the wearer can perform any action (for example, walking action, chair, etc. It is estimated that the starting operation is started, and the driving force of the motor is controlled based on the estimation result.
上記特許文献1に記載された制御方法では、装着者の重心移動を安定的に行えるようにモータの制御を行なっているため、装着者が例えば、上体を傾けるように歩行する場合には、足の裏の重心位置が大きく変動するため、歩行支援するモータトルクの制御により、装着者の歩行バランスを安定化することが難しかった。
In the control method described in
また、装着者が前方向に歩行する場合、右方向または左方向に進行方向を変更する場合、左右両足の筋電位の変化が検出されてから左右両足にアシスト力を発生する各関節のモータトルクを制御するため、直進から左折または右折する際に内側となる足(左足又は右足)のモータトルクと外側となる足(右足又は左足)のモータトルクとをそれぞれ異なる値に演算しなければならず、左右のバランスをとることが難しく、左右の各関節のモータを個別に制御する際に制御遅れが発生するおそれがある。 In addition, when the wearer walks forward, when the direction of travel changes to the right or left, the motor torque of each joint that generates assist force on both left and right legs after a change in myoelectric potential on both left and right legs is detected Therefore, when turning left or right from straight, the motor torque of the inner foot (left foot or right foot) and the motor torque of the outer foot (right foot or left foot) must be calculated to different values. It is difficult to balance the left and right, and there is a possibility that a control delay occurs when the motors of the left and right joints are individually controlled.
そこで、本発明は上記事情に鑑み、装着者の頭部及び眼球の動きから当該装着者の次の動作を予測することで上記課題を解決した装着型入力装置及び人支援装置及び人支援装置の制御方法を提供することを目的とする。 Therefore, in view of the above circumstances, the present invention provides a wearable input device, a human support device, and a human support device that have solved the above problems by predicting the next movement of the wearer from the movements of the head and eyeball of the wearer. An object is to provide a control method.
上記課題を解決するため、本発明は以下のような手段を有する。
(1)本発明は、装着者に装着される装着型入力装置であって、
前記装着者の眼球の動作方向に応じた外眼筋生体信号を検出する外眼筋生体信号検出手段と、
前記装着者の頭部の動作方向を検出する頭部動作検出手段と、
前記装着者の体幹位置を検出する体幹位置検出手段と、
前記外眼筋生体信号検出手段により得られた外眼筋検出信号に基づいて眼球の動作方向を判別する視線方向判別手段と、
前記頭部動作検出手段により得られた頭部検出信号と前記体幹位置検出手段により得られた体幹位置検出信号との差に基づいて前記頭部の動作方向を判別する頭部動作方向判別手段と、
前記視線方向判別手段の判別結果による視線方向と前記頭部動作方向判別手段の判別結果による頭部動作方向とが一致した場合に当該装着者が当該方向に移動するものと推定する動作方向推定手段と、
前記動作方向推定手段による推定結果を人支援装置に入力する入力手段と、
を有することを特徴とする。
(2)本発明の前記外眼筋生体信号検出手段は、前記頭部の前記眼球の側方に位置する部分に設けられ、前記眼球を動作させる際の眼電位を検出することを特徴とする。
(3)本発明の前記頭部動作検出手段は、前記装着者の頭部の動作に応じた検出信号を出力する加速度センサ又は位置変位センサからなり、
前記体幹位置検出手段は、前記装着者の背中の中心部分に対向する位置に配置され、前記装着者の背中の動作に応じた3次元の検出信号を出力するジャイロセンサからなり、
前記頭部動作方向判別手段は、前記加速度センサ又は位置変位センサにより検出された前記装着者の頭部の動作と、前記ジャイロセンサにより検出された前記装着者の体幹位置との差に基づいて前記装着者の頭部の動作位置を判別することを特徴とする。
(4)本発明の前記体幹位置検出手段は、
前記装着者の背中の中心部分に対向する位置に配置され、前記装着者の体幹位置に応じた3次元の検出信号を出力する第1のジャイロセンサからなり、
前記頭部動作方向判別手段は、前記装着者の頭部の動作に応じた検出信号を出力する3次元の検出信号を出力する第2のジャイロセンサからなり、
前記頭部動作方向判別手段は、前記第1のジャイロセンサにより検出された前記装着者の頭部の動作と、前記第2のジャイロセンサにより検出された前記装着者の体幹位置との差に基づいて前記装着者の頭部の動作位置を判別することを特徴とする。
(5)本発明の前記視線方向判別手段は、
前記外眼筋生体信号検出手段により検出された検出信号に基づいて前記眼球を左右方向に動作させる際の眼電位の検出信号を抽出する眼電位抽出手段と、
該眼電位抽出手段により抽出された検出信号が予め設定された所定時間以上継続して検出された場合に、前記眼電位抽出手段により抽出された検出信号に基づいて前記眼球の動作方向が正面か或いは左右方向の何れかであるかを判定する眼球動作方向判定手段と、
を有することを特徴とする。
(6)本発明は、(1)乃至(5)の何れかに記載の装着型入力装置に接続され、前記入力手段から前記動作方向推定手段による推定結果を入力される制御手段と、
当該装着者の歩行動作を支援するように当該装着者の脚部に装着されるフレームと、
該フレームを駆動する駆動手段と、
当該装着者の脚部生体信号を検出する脚部生体信号検出手段と、
を有し、
前記制御手段は、前記動作方向推定手段による推定結果及び前記脚部生体信号検出手段から得られた脚部生体信号に基づき前記駆動手段を駆動制御するための制御信号を生成することを特徴とする。
(7)本発明の前記制御手段は、前記動作方向推定手段により当該装着者が歩行方向を変更することが推定された場合には、当該推定された方向に応じて前記駆動手段による膝関節の駆動力を当該変更される方向に応じた制御パラメータを演算し、前記脚部生体信号検出手段が脚部生体信号を検出したタイミングで前記駆動手段を当該制御パラメータに基づいて駆動させることを特徴とする。
(8)本発明の前記制御手段は、前記動作方向推定手段により当該装着者が歩行動作方向を変更することが推定された場合には、変更する方向に応じて右脚の膝関節と左脚の膝関節と駆動力に差を生じさせることを特徴とする。
(9)本発明は、装着者に装着される装着型入力装置と、前記装着者の歩行動作を支援するように当該装着者の脚部に駆動力をアシストする駆動手段を有する人支援装置とを備えた人支援装置の制御方法において、
前記装着者の視線方向と前記装着者の頭部動作方向とが一致した場合に当該装着者が当該方向に移動するものと推定するステップと、
前記推定処理による推定結果に基づき前記駆動手段を駆動制御するステップと、
を有することを特徴とする。
In order to solve the above problems, the present invention has the following means.
(1) The present invention is a wearable input device worn by a wearer,
An extraocular muscle biosignal detection means for detecting an extraocular muscle biosignal according to the movement direction of the eyeball of the wearer;
Head movement detecting means for detecting the movement direction of the head of the wearer;
Trunk position detecting means for detecting the trunk position of the wearer;
Eye-gaze direction determining means for determining the movement direction of the eyeball based on the extraocular muscle detection signal obtained by the extraocular muscle biosignal detection means;
Head movement direction determination for determining the movement direction of the head based on the difference between the head detection signal obtained by the head movement detection means and the trunk position detection signal obtained by the trunk position detection means Means,
Motion direction estimation means for estimating that the wearer moves in the direction when the line-of-sight direction according to the determination result of the line-of-sight direction determination means matches the head movement direction according to the determination result of the head movement direction determination means When,
Input means for inputting an estimation result by the motion direction estimation means to a human support device;
It is characterized by having.
(2) The extraocular muscle biosignal detection means of the present invention is provided in a portion of the head located on the side of the eyeball, and detects an electrooculogram when the eyeball is operated. .
(3) The head movement detection means of the present invention comprises an acceleration sensor or a position displacement sensor that outputs a detection signal corresponding to the movement of the wearer's head,
The trunk position detection means is a gyro sensor that is arranged at a position facing a central portion of the wearer's back and outputs a three-dimensional detection signal corresponding to the movement of the wearer's back,
The head movement direction determining means is based on a difference between the movement of the wearer's head detected by the acceleration sensor or the position displacement sensor and the trunk position of the wearer detected by the gyro sensor. The operating position of the head of the wearer is determined.
(4) The trunk position detecting means of the present invention comprises:
The first gyro sensor is disposed at a position facing the center portion of the wearer's back and outputs a three-dimensional detection signal corresponding to the trunk position of the wearer.
The head movement direction determination means includes a second gyro sensor that outputs a three-dimensional detection signal that outputs a detection signal corresponding to the movement of the wearer's head.
The head movement direction discriminating means is based on the difference between the movement of the wearer's head detected by the first gyro sensor and the trunk position of the wearer detected by the second gyro sensor. The operating position of the wearer's head is determined based on the determination.
(5) The line-of-sight direction determining means of the present invention comprises:
An electrooculogram extraction unit that extracts an electrooculogram detection signal when the eyeball is operated in the left-right direction based on the detection signal detected by the extraocular muscle biosignal detection unit;
If the detection signal extracted by the electrooculogram extraction means is detected continuously for a predetermined time or more, whether the movement direction of the eyeball is front based on the detection signal extracted by the electrooculogram extraction means Alternatively, eye movement direction determination means for determining whether the direction is the left-right direction,
It is characterized by having.
(6) The present invention is a control unit that is connected to the wearable input device according to any one of (1) to (5), and that receives an estimation result from the motion direction estimation unit from the input unit;
A frame that is worn on the legs of the wearer so as to support the walking movement of the wearer;
Drive means for driving the frame;
Leg biosignal detection means for detecting the wearer's leg biosignal;
Have
The control means generates a control signal for controlling driving of the drive means based on the estimation result by the motion direction estimation means and the leg biological signal obtained from the leg biological signal detection means. .
(7) When it is estimated that the wearer changes the walking direction by the movement direction estimation unit, the control unit of the present invention is configured so that the knee joint is driven by the driving unit according to the estimated direction. A control parameter corresponding to the direction in which the driving force is changed is calculated, and the driving unit is driven based on the control parameter at a timing when the leg biological signal detection unit detects the leg biological signal. To do.
(8) When it is estimated by the movement direction estimation means that the wearer changes the walking movement direction, the control means of the present invention is configured such that the knee joint and the left leg of the right leg according to the changed direction. It is characterized in that a difference is generated between the knee joint and the driving force.
(9) The present invention relates to a wearable input device worn by a wearer, and a human support device having a driving means for assisting a driving force in a leg portion of the wearer so as to support the walking motion of the wearer. In a method for controlling a human support device comprising:
Estimating that the wearer moves in the direction when the wearer's line-of-sight direction matches the wearer's head movement direction;
Driving the drive means based on the estimation result of the estimation process;
It is characterized by having.
本発明によれば、視線方向判別手段の判別結果による検出方向と頭部動作方向判別手段の判別結果による判別方向とが一致した場合に当該装着者が当該方向に移動するものと推定することができ、当該推定結果を人支援装置に入力することにより、制御の動作遅れを解消し、人支援装置を安定した状態に制御することが可能になると共に、当該装着者の動作支援をスムーズに行なうことができる。 According to the present invention, when the detection direction based on the determination result of the line-of-sight direction determination unit matches the determination direction based on the determination result of the head movement direction determination unit, it is estimated that the wearer moves in the direction. By inputting the estimation result to the human support device, it is possible to eliminate the control operation delay, control the human support device in a stable state, and smoothly perform the operation support of the wearer. be able to.
以下、図面を参照して本発明を実施するための形態について説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
〔制御システムの構成〕
図1は本発明による装着型入力装置の一実施例の制御システムの系統図である。図1に示されるように、装着型入力装置100は、装着者12の頭部に装着される頭部検出ユニット110と、当該装着者12の背中に装着された体幹位置検出手段120と、制御部130とを有する。尚、体幹位置検出手段120及び制御部130は、図2Bに示されるように、装着者12の背中でサスペンダ14に支持されている。
[Configuration of control system]
FIG. 1 is a system diagram of a control system of an embodiment of a wearable input device according to the present invention. As shown in FIG. 1, the
頭部検出ユニット110は、外眼筋生体信号検出手段140と、頭部動作検出手段150と、表示部160とを有する。外眼筋生体信号検出手段140は、装着者12の眼球の動作方向に応じた外眼筋生体信号を検出し、当該外眼筋生体信号を出力する電極よりなる。頭部動作検出手段150は、例えば、位置変位センサ、又は加速度センサ、またはジャイロセンサなどからなり、装着者12の頭部13の動作方向(首振り方向)を検出し、頭部13の動作方向に応じた検出信号を出力する。表示部160は、動作方向の推定結果に応じて点灯または点滅する複数の表示灯(LED:発光ダイオード)からなる。
The
体幹位置検出手段120は、例えば、ジャイロセンサなどからなり、装着者12の体幹位置を検出し、装着者12の背中の中心位置に応じた検出信号を出力する。
The trunk position detection means 120 includes, for example, a gyro sensor and the like, detects the trunk position of the
また、制御部130は、視線方向判別手段170と、頭部動作方向判別手段180と、動作方向推定手段190と、入力手段200と、充電式バッテリ210とを有する。また、視線方向判別手段170は、眼電位抽出手段220と、眼球動作方向検出手段230とを有する。
In addition, the
視線方向判別手段170は、眼電位抽出手段172と、眼球動作方向判定手段174とを有し、外眼筋生体信号検出手段140により得られた外眼筋検出信号に基づいて当該装着者12の眼球が左右方向の何れかに動作したかを判別する。眼電位抽出手段172は、外眼筋生体信号検出手段140により検出された検出信号に基づいて眼球を動作させる際の眼電位の検出信号を抽出する。また、眼球動作方向判定手段174は、眼電位抽出手段172により抽出された検出信号が予め設定された所定時間以上継続して検出された場合に、眼電位抽出手段172により抽出された検出信号に基づいて眼球の動作方向が正面か或いは左右方向の何れかであるかを判定する。
The line-of-sight
頭部動作方向判別手段180は、頭部動作検出手段150により得られた頭部検出信号と体幹位置検出手段120により得られた体幹位置検出信号との差に基づいて当該装着者12の頭部13の向き(首振り方向)を判別する。すなわち、頭部動作方向判別手段180は、体幹位置検出手段120(第1のジャイロセンサ)により得られた体幹位置検出信号(3次元信号)を基準値として頭部動作検出手段150(位置変位センサ、又は加速度センサ、又は第2のジャイロセンサ)から得られた頭部検出信号との差に基づいて頭部13の動作方向を判別する。
The head movement direction discriminating means 180 is based on the difference between the head detection signal obtained by the head movement detection means 150 and the trunk position detection signal obtained by the trunk position detection means 120. The direction of head 13 (swing direction) is determined. That is, the head movement direction determination means 180 uses the trunk position detection signal (three-dimensional signal) obtained by the trunk position detection means 120 (first gyro sensor) as a reference value for the head movement detection means 150 (position Based on a difference from a head detection signal obtained from a displacement sensor, an acceleration sensor, or a second gyro sensor), the movement direction of the
動作方向推定手段190は、視線方向判別手段170の判別結果による眼球動作方向と頭部動作方向判別手段180の判別結果による頭部動作方向とが一致した場合に当該装着者12が当該方向に移動するものと推定し、その推定結果を出力する。
The movement
入力手段200は、動作方向推定手段190による推定結果を装着式動作補助装置10の制御装置36に入力する。充電式バッテリ210は、制御部130の各機器及び頭部検出ユニット110に電源を供給しており、電源消費量に応じて定期的に充電される。
The input means 200 inputs the estimation result by the motion direction estimation means 190 to the
装着式動作補助装置10(以下「動作補助装置」と称する)は、装着者12の腰より下方の脚部に装着されて歩行動作を支援する人支援装置の一例である。
〔動作補助装置10の構成〕
図2Aは装着型入力装置100が装着式動作補助装置10と接続された場合の装着状態を前側からみた斜視図である。図2Bは装着型入力装置100が装着式動作補助装置10と接続された場合の装着状態を後側からみた斜視図である。
The wearable movement assist device 10 (hereinafter referred to as “motion assist device”) is an example of a person support device that is mounted on a leg portion below the waist of the
[Configuration of Motion Auxiliary Device 10]
FIG. 2A is a perspective view of the wearing state when the
図2A及び図2Bに示されるように、動作補助装置10は、例えば、骨格筋の筋力低下により歩行が不自由な下肢運動機能障害者、あるいは、歩行運動のリハビリを行う患者などのように自力歩行が困難な人の歩行動作を補助(アシスト)する装置である。また、動作補助装置10は、脳からの信号により筋力を発生させる際に生じる生体信号(表面筋電位)を検出し、生体信号に基づいてアクチュエータからの駆動力を付与するように作動する。
As shown in FIGS. 2A and 2B, the
動作補助装置10を装着した装着者12は、自らの意思で歩行動作を行う際に発生した生体信号に応じた駆動トルクが補助動力として動作補助装置10から付与され、例えば、通常歩行で必要とされる筋力の半分の力で歩行することが可能になる。従って、装着者12は、自身の筋力と駆動部(本実施例では、電動式の駆動モータを用いる)からの駆動トルクとの合力によって全体重を支えながら歩行することができる。
The
動作補助装置10は、装着型入力装置100から入力された推定結果に基づいて動作方向を予測し、装着者12の歩行動作に伴う重心の移動に応じて付与されるアシスト力(モータトルク)が装着者12の意思を反映するように制御している。
The
また、動作補助装置10は、歩行動作以外にも、例えば、装着者12が椅子に座った状態から立ち上がる際の動作、あるいは立った状態から椅子に腰掛ける際の動作も補助することができる。さらには、装着者12が階段を上がったり、階段を下りる場合にもパワーアシストすることができる。特に筋力が弱っている場合には、階段の上がり動作や、椅子から立ち上がる動作を行うことが難しいが、動作補助装置10を装着した装着者12は、自らの意思に応じて駆動トルクを付与されて筋力の低下を気にせずに動作することが可能になる。
In addition to the walking motion, the
ここで、動作補助装置10の構成の一例について説明する。動作補助装置10は、図2A及び図2Bに示されるように、装着者12に装着される動作補助装着フレーム18に駆動部を設けたものである。駆動部としては、装着者12の右側股関節に位置する右腿駆動モータ20と、装着者12の左側股関節に位置する左腿駆動モータ22と、装着者12の右膝関節に位置する右膝駆動モータ24と、装着者12の左膝関節に位置する左膝駆動モータ26とを有する。これらの駆動モータ20,22,24,26は、制御装置36からの制御信号により駆動トルクを制御されるDCモータまたはACモータなどの電動モータからなる。また、各駆動モータ20,22,24,26は、モータ回転を所定の減速比で減速する減速機構(駆動部に内蔵)を有しており、小型ではあるが十分な駆動力を付与することができる。また、駆動モータとしては、設置スペースが小さく済むように薄型化された超音波モータを用いても良いのは勿論である。
Here, an example of the configuration of the
また、装着者12の腰の周囲に装着される腰締結部材30には、駆動モータ20,22,24,26を駆動させるための電源として機能するバッテリ32,34が取り付けられている。バッテリ32、34は、充電式バッテリであり、装着者12の歩行動作を妨げないように左右に分散配置されている。
また、装着者12の背面側となる腰締結部材30の後側には、制御装置36が取り付けられている。
A
そして、動作補助装置10は、装着者12の右腿の動きに伴う生体電位を検出する脚部生体信号検出センサ38a,38bと、装着者12の左腿の動きに伴う生体電位を検出する脚部生体信号検出センサ40a,40bと、右膝の動きに伴う生体電位を検出する脚部生体信号検出センサ42a,42bと、左膝の動きに伴う生体電位を検出する脚部生体信号検出センサ44a,44bとを有する。
The
これらの各脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44bは、筋電位信号や神経伝達信号などの生体信号を検出する生体信号検出手段であり、微弱電位を検出するための電極(図示せず)を有する。尚、本実施例では、各脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44bは、電極の周囲を覆う粘着シールにより装着者12の皮膚表面に貼着するように取り付けられる。
Each of these leg biological
人体においては、脳からの指令によって骨格筋を形成する筋肉の表面にシナプス伝達物質のアセチルコリンが放出される結果、筋線維膜のイオン透過性が変化して活動電位が発生する。そして、活動電位によって筋線維の収縮が発生し、筋力を発生させる。そのため、骨格筋の電位を検出することにより、歩行動作の際に生じる筋力を推測することが可能になり、推測された筋力に基づく仮想トルクから歩行動作に必要な補助動力を求めることが可能になる。 In the human body, acetylcholine, a synaptic transmitter, is released on the surface of muscles that form skeletal muscles according to instructions from the brain. As a result, the ionic permeability of muscle fiber membranes changes and action potentials are generated. The action potential causes contraction of muscle fibers and generates muscle force. Therefore, by detecting the potential of skeletal muscle, it is possible to estimate the muscular strength generated during the walking motion, and it is possible to obtain the auxiliary power necessary for the walking motion from the virtual torque based on the estimated muscular strength. Become.
従って、動作補助装置10では、制御装置36により脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44bによって検出された生体信号に基づいて4個の駆動モータ20,22,24,26に供給する駆動電流を求め、演算された駆動電流の供給により駆動モータ20,22,24,26を駆動制御する。これにより、動作補助装着フレーム18は、各駆動モータ20,22,24,26のトルクが伝達されて装着者12の歩行動作を補助するように駆動される。
Accordingly, in the
また、制御装置36は、前述した装着型入力装置100の制御部130と信号線132を介して接続されている。尚、制御装置36と制御部130との間の通信は、信号線132による有線方式でも良いし、電波を用いた近接無線方式としても良い。
The
また、歩行動作による重心移動をスムーズに行うため、足の裏にかかる荷重を検出する必要がある。そのため、装着者12の左右足の裏に対応する位置には、床反力センサ50a,50b,52a,52b(図2A及び図2B中、破線で示す)が設けられている。
In addition, in order to smoothly move the center of gravity by a walking motion, it is necessary to detect a load applied to the sole of the foot. Therefore, floor
また、床反力センサ50aは、右足前側の荷重に対する反力を検出し、床反力センサ50bは、右足後側の荷重に対する反力を検出する。床反力センサ52aは、左足前側の荷重に対する反力を検出し、床反力センサ52bは、左足後側の荷重に対する反力を検出する。各床反力センサ50a,50b,52a,52bは、例えば、印加された荷重に応じた電圧を出力する圧電素子などからなり、体重移動に伴う荷重変化、及び装着者12の脚と地面との接地の有無を夫々検出することができる。
〔頭部検出ユニット110の構成〕
図3Aは装着型入力装置100の頭部検出ユニット110の一例を示す斜視図である。図3Bは頭部検出ユニット110の装着状態を示す正面図である。図3Cは頭部検出ユニット110の装着状態を示す側面図である。
The floor
[Configuration of Head Detection Unit 110]
FIG. 3A is a perspective view illustrating an example of the
図3A〜図3Cに示されるように、頭部検出ユニット110は、例えば、樹脂製のフレーム112と、フレーム112の両端より下方に向けて曲げられた一対の当接部114L、114Rとを有する。フレーム112は装着者12の頭部13の後側に沿うようにU字状に形成されている。一対の当接部114L、114Rは、フレーム112によって一体に連結されており、装着者12の頭部13を左右両側から挟持するように設けられている。
As shown in FIGS. 3A to 3C, the
当接部114L、114Rの当接位置は、装着者12の頭部13の耳と目との間に設定されている。この位置は、眼球を動作させる外眼筋の生体信号(眼電位)を検出しやすい位置である。
The contact positions of the
フレーム112の後部中央には、頭部動作検出手段150が設けられている。また、頭部動作検出手段150は、光ファイバまたはケーブルなどからなる信号線240を介して制御部130と接続されている。
Head motion detecting means 150 is provided at the center of the rear part of the
図3Dは頭部検出ユニット10の外眼筋生体信号検出手段140を示す斜視図である。図3Dに示されるように、当接部114L、114Rの内面には、外眼筋生体信号検出手段140が設けられている。外眼筋生体信号検出手段140は、当該装着者12の眼球の動きに応じた外眼筋生体信号(眼電位)を検出する4つの電極140−1〜140−4を有する。また、各電極140−1〜140−4は、フレーム112の内部に挿通された信号線142(図3D中、破線で示す)及び上記信号線240を介して制御部130と接続されている。
FIG. 3D is a perspective view showing the extraocular muscle biosignal detection means 140 of the
図3Eは頭部検出ユニット110の当接部114L、114Rを示す斜視図である。図3Eに示されるように、当接部114L、114Rの外面には、表示部160L、160Rと、小型スピーカ250L、250Rとが設けられている。この表示部160L、160Rは、複数のLED(発光ダイオード)160−1、160−2からなり、外眼筋生体信号検出手段140によって検出された眼電位に基づいて歩行方向が左方向(左折)又は右方向(右折)と推定された場合に左側のLED160−1、160−2又は右側のLED160−1、160−2が点灯または点滅して報知することができる。LED160−1、160−2は、フレーム112の内部の挿通された信号線162を介して制御部130と接続されている。
FIG. 3E is a perspective view showing the
また、小型スピーカ250L、250Rは、外眼筋生体信号検出手段140によって検出された眼電位に基づいて歩行方向が左方向(左折)又は右方向(右折)と推定された場合に、曲がる方向に確認音(例えば、ピッピなどの電子音)を発する。小型スピーカ250L、250Rは、フレーム112の内部の挿通された信号線232を介して制御部130と接続されている。
The
尚、LED160−1、160−2の点滅と小型スピーカ250L、250Rの確認音は、どちらか一方を選択することもでき、両方とも作動させるように設定することもできる。表示部160L、160Rは、周囲の人に曲がる方向を表示することができるので、例えば、リハビリテーションを行なう際に介護士や訓練士に曲がる方向を予告することができる。また、小型スピーカ250L、250Rの確認音によって、装着者12が盲人あるいは視力の弱い弱視の場合に、装着型入力装置100が曲がる方向を認知したことを確認音で報知することができる。
Note that either one of the blinking LEDs 160-1 and 160-2 and the confirmation sound of the
図4は眼球300を動かす外眼筋310と眼電位を検出する各電極140−1〜140−4との位置関係を示す図である。図4に示されるように、本実施形態では、頭部13のこめかみ付近の被検出領域(図4中、破線で示す所定領域)Aに各電極140−1〜140−4を配置する。
FIG. 4 is a diagram showing the positional relationship between the
眼球300は、外眼筋310の筋力によって動作して視線の向きを変えることができる。そして、眼球300を動かす際に外眼筋310から発生する外眼筋生体信号(眼電位)は、1対の電極間、すなわち2つの電極で取得した信号間の電位差により取得される。したがって、図4に示ように電極140−1と140−2とで1つの生体信号取得部(1チャンネル)を構成し、電極140−3と140−4とで1つの生体信号取得部(1チャンネル)を構成する。なお、本実施形態では、外眼筋生体信号検出手段140は、左右それぞれに2つずつ、左右両側で合計4チャンネルの生体信号を取得する。なお、本発明における電極の設置個数については、これに限定されるわけではない。
The
上述した図4に示すように、各電極140−1〜140−4の位置は、こめかみ付近の被検出領域Aに設定されることにより、対面している人には、違和感を与えずに眼球300の動作方向に応じた外眼筋生体信号(眼電位)を取得することができる。 As shown in FIG. 4 described above, the positions of the electrodes 140-1 to 140-4 are set in the detection area A in the vicinity of the temples, so that the eyeballs do not give a strange feeling to the person facing them. External eye muscle biosignals (ocular potentials) corresponding to 300 operating directions can be acquired.
また、各電極140−1〜140−4から得られる検出位置と信号の位相差及び、取得した信号の周波数(例えば、1Hz〜15Hz、600Hz〜700Hzの範囲)から外眼筋310の何処の筋肉の信号であるかを特定することができ、直接的にノイズ等の影響を受けずに外眼筋生体信号(眼電位)を取得することができる。
Further, any muscle of the
なお、本実施形態における外眼筋生体信号のチャンネル取得数は、複数であればよく、本発明においては特に制限されるものではないが、多すぎると装着時に顔面に邪魔になるため、2〜8チャンネル程度でよく、特に4チャンネルが好ましい。 It should be noted that the number of acquired external eye muscle biosignal channels in the present embodiment may be plural, and is not particularly limited in the present invention. It may be about 8 channels, and 4 channels are particularly preferable.
また、装着者12の顔面に対して視界の邪魔にならない配置を実現するという観点から、1つの電極は、例えば直径が約2〜10mm程度が好ましく、対を形成する各電極間の距離は、例えば約20mm程度が好ましい。また、各電極140−1〜140−4は、装着者12の顔面に対して縦に略直線的に配置されることが好ましいが、本発明においては特に制限されるものではない。
〔眼球300を動かす外眼筋310について〕
ここで、眼球300を動かす外眼筋310の種類及び動作方向との関係について説明する。図5は外眼筋310による眼球300の動作方向を示す図である。尚、図5では、装着者12の左目を正面からみた眼球300を拡大して示しており、右目の各外眼筋の配置は左目の外眼筋310の配置と左右対称になる。
Further, from the viewpoint of realizing an arrangement that does not obstruct the field of view of the
[Regarding the
Here, the relationship between the type of
図5に示されるように、眼球300を動かす外眼筋310は、上直筋、下直筋、内側直筋、外側直筋、上斜筋、下斜筋の6つの筋力に組み合わせによって各方向に動作して視線方向を変化させる。(1)上直筋は上内側(UR方向)に動作させる筋肉、(2)下直筋は下内側(DR方向)に動作させる筋肉、(3)内側直筋は内側(R方向)に動作させる筋肉、(4)外側直筋は外側(L方向)に動作させる筋肉、(5)上斜筋は下外側(DL方向)に動作させる筋肉、(6)下斜筋は上外側(UL方向)に動作させる筋肉である。
As shown in FIG. 5, the
尚、右目の場合、上記左目の外眼筋310の(1)〜(6)の筋肉の左右方向が逆になり、内側が外側に、外側が内側に置き換わる。
In the case of the right eye, the left and right muscles (1) to (6) of the left eye
また、外眼筋310の6種類の各筋力発生時には、(1)〜(6)の筋肉において、各外眼筋生体信号(眼電位)が発生する。
Further, when each of the six types of muscle strength of the
図6は外眼筋の動作に伴う眼電位の検出信号を示す波形図である。図6に示されるように、前述した左目の外眼筋310を構成する(1)〜(6)の筋肉は、眼球300の動作方向に応じた外眼筋生体信号(眼電位)を発生する。
FIG. 6 is a waveform diagram showing an ocular potential detection signal accompanying the operation of the extraocular muscles. As shown in FIG. 6, the muscles (1) to (6) constituting the left eye
図6のT1で眼球300が内側(R方向)に動作するときは、内側直筋が外眼筋生体信号(眼電位)を発生する。
When the
図6のT2で、眼球300が内側の上側(UR方向)に動作するときは、内側直筋及び上直筋が外眼筋生体信号(眼電位)を発生する。
At T2 in FIG. 6, when the
図6のT3で、眼球300が内側の下側(DR方向)に動作するときは、内側直筋及び下直筋が外眼筋生体信号(眼電位)を発生する。
At T3 in FIG. 6, when the
図6のT4で、眼球300が外側(L方向)に動作するときは、外側直筋が外眼筋生体信号(眼電位)を発生する。
When the
図6のT5で、眼球300が外側の上側(UL方向)に動作するときは、外側直筋及び下斜筋が外眼筋生体信号(眼電位)を発生する。
At T5 in FIG. 6, when the
図6のT6で、眼球300が外側の下側(DL方向)に動作するときは、外側直筋及び上斜筋が外眼筋生体信号(眼電位)を発生する。
At T6 in FIG. 6, when the
このように、外眼筋310を構成する(1)〜(6)の筋肉からの外眼筋生体信号(眼電位)を外眼筋生体信号検出手段140により検出することで、当該装着者12の眼球300の動作方向(視線方向)を検出することができる。
As described above, the external eye muscle biosignal (ocular potential) from the muscles (1) to (6) constituting the
本実施の形態では、頭部検出ユニット110の外眼筋生体信号検出手段140が頭部13の両側のこめかみ付近を被検出領域A(図4を参照)としているため、頭部検出ユニット110の当接部114L、114Rの内側に配された各電極140−1〜140−4は、左目の外側の眼電位、右目の外側の外眼筋生体信号(眼電位)を検出することになる。従って、左側の当接部114Lの各電極140−1〜140−4が外眼筋生体信号(眼電位)を検出した場合は、眼球300が左方向をみるように動作し、右側の接部114Rの各電極140−1〜140−4が外眼筋生体信号(眼電位)を検出した場合は、眼球300が右方向をみるように動作したことを検出できる。また、一対の当接部114L、114Rの各電極140−1〜140−4が検出した外眼筋生体信号(眼電位)が等しい場合には、左右の眼球300が共に正面をみていることを検出できる。
In the present embodiment, the extraocular muscle biosignal detection means 140 of the
そのため、装着者12の眼球300の動作方向(視線方向)を各電極140−1〜140−4によって検出することができるので、これらの検出信号に基づいて装着者12の歩行動作方向を予測することが可能になる。
〔動作補助装置10による歩行支援の動作〕
図7Aは装着者12が前方へ歩行する様子を模式的に示す平面図である。図7Aに示されるように、装着者12が前方へ歩行する場合、進行方向である前方をみながら歩行動作を行なう。そのため、頭部13の顔面が正面(進行方向)を向いていると共に、左右の両目も正面(進行方向)を向いている。
Therefore, since the movement direction (gaze direction) of the
[Operation of walking support by movement assist device 10]
FIG. 7A is a plan view schematically showing the
この場合、視線方向判別手段170では、頭部検出ユニット110の一対の当接部114L、114Rに設けられた各電極140−1〜140−4から得られた外眼筋生体信号(眼電位)が等しくなるため、左右の眼球300が共に正面をみていることを判別できる。
In this case, the gaze direction discriminating means 170 is an extraocular muscle biosignal (ocular potential) obtained from the electrodes 140-1 to 140-4 provided on the pair of
また、頭部動作方向判別手段180は、頭部検出ユニット110の後部に設けられた頭部動作検出手段150により得られた頭部検出信号と装着者12の背中に配された体幹位置検出手段120により得られた体幹位置検出信号との差がなく、殆ど等しいことから当該装着者12の頭部13の向き(首振り方向)が正面であると判別する。
The head movement direction discriminating means 180 also detects the head position detected by the head movement detection means 150 provided at the rear of the
図7Bは装着者12が前方へ歩行しながら左方向を視認する様子を模式的に示す平面図である。図7Bに示されるように、装着者12は歩行中に左方向をみた場合、頭部13が左方向に向くと共に、左右の両目も左方向を向いている。
FIG. 7B is a plan view schematically showing how the
この場合、視線方向判別手段170では、頭部検出ユニット110の左側の当接部114Lに設けられた各電極140−1〜140−4から外眼筋生体信号(眼電位)が得られるため、左右の眼球300が共に左方向をみていることを判別できる。
In this case, the gaze direction discriminating means 170 obtains an external eye muscle biosignal (ocular potential) from each of the electrodes 140-1 to 140-4 provided on the
また、頭部動作方向判別手段180は、頭部検出ユニット110の後部に設けられた頭部動作検出手段150により得られた頭部検出信号と装着者12の背中に配された体幹位置検出手段120により得られた体幹位置検出信号との水平方向の差が角度α1になるため、当該装着者12の頭部13が左方向を向いていると判別する。
The head movement direction discriminating means 180 also detects the head position detected by the head movement detection means 150 provided at the rear of the
図7Cは装着者12が視認した左方向へ曲がる様子を模式的に示す平面図である。図7に示されるように、装着者12が左方向へ曲がる場合、内側となる左足の歩幅が小さくなり、外側となる右足の歩幅が大きくなると共に、内側の左足の蹴る力が弱く外側の右足が蹴る力が強くなる。そして、装着者12の体全体が左方向に向くため、左右の眼球300が共に左方向をみたまま、頭部検出ユニット110の後部に設けられた頭部動作検出手段150により得られた頭部検出信号と装着者12の背中に配された体幹位置検出手段120により得られた体幹位置検出信号との水平方向の差が角度α2になる(α1>α2)。
FIG. 7C is a plan view schematically showing a state of turning to the left as viewed by the
そして、装着者12の体全体が左方向に向くと、頭部13及び両目の視線方向が体の正面を向いた状態(図7Aを参照)になる。
〔装着型入力装置の制御部が実行する制御処理〕
図8は装着型入力装置100の制御部130が実行する制御処理を説明するためのフローチャートである。図8に示されるように、S11では、頭部検出ユニット110の当接部114L、114Rに設けられた各電極140−1〜140−4から得られた外眼筋生体信号(眼電位)を読み込む(眼電位抽出手段172)。
And when the wearer's 12 whole body turns to the left direction, it will be in the state (refer FIG. 7A) to which the gaze direction of the
[Control processing executed by the control unit of the wearable input device]
FIG. 8 is a flowchart for explaining control processing executed by the
続いて、S12に進み、各電極140−1〜140−4により検出された外眼筋生体信号(眼電位)が予め設定された所定時間経過(例えば、1秒以上)しても一定値以上であるか否かをチェックする。S12において、各電極140−1〜140−4により検出された外眼筋生体信号(眼電位)が予め設定された所定時間経過(例えば、1秒以上)しても一定値以上でない場合(NOの場合)は、視線を動かしただけなので、S11の処理に戻る。また、S12において、各電極140−1〜140−4により検出された外眼筋生体信号(眼電位)が予め設定された所定時間経過(例えば、1秒以上)しても一定値以上である場合(YESの場合)は、S13の処理に進み、眼球の動作方向を判別する(眼球動作方向判定手段174)。尚、眼球動作方向の判定処理方法は、前述した図5及び図6を参照して説明したように、頭部検出ユニット110の当接部114L、114Rに設けられた各電極140−1〜140−4で検出された外眼筋生体信号に基づいて判定される。
Subsequently, the process proceeds to S12, and the extraocular muscle biosignal (ocular potential) detected by each of the electrodes 140-1 to 140-4 exceeds a predetermined value even if a predetermined time elapses (for example, 1 second or more). It is checked whether or not. In S12, when the extraocular muscle biosignal (ocular potential) detected by each of the electrodes 140-1 to 140-4 does not exceed a predetermined value even after a predetermined time has elapsed (for example, 1 second or longer) (NO) In the case of (), since the line of sight has only been moved, the process returns to S11. In S12, the extraocular muscle biosignal (ocular potential) detected by each of the electrodes 140-1 to 140-4 is equal to or greater than a predetermined value even after a predetermined time elapses (for example, 1 second or longer). In the case (in the case of YES), the process proceeds to S13, and the movement direction of the eyeball is determined (eyeball movement direction determination means 174). As described with reference to FIG. 5 and FIG. 6 described above, the eyeball movement direction determination processing method uses the electrodes 140-1 to 140-1 provided in the
左側の当接部114Lの各電極140−1〜140−4が外眼筋生体信号を検出し、右側の当接部114Rの各電極140−1〜140−4が外眼筋生体信号を検出しなかった場合は、眼球動作方向が左方向と判定される。また、右側の当接部114Rの各電極140−1〜140−4が外眼筋生体信号を検出し、左側の当接部114Lの各電極140−1〜140−4が外眼筋生体信号を検出しなかった場合は、眼球動作方向が右方向と判定される。また、左右の各電極140−1〜140−4が共に外眼筋生体信号を検出しなかった場合は、眼球動作方向が正面(前方)と判定される。
Each electrode 140-1 to 140-4 of the
続いて、S14では、当該装着者12の背中に配された体幹位置検出手段120(第1のジャイロセンサ)により検出された3次元信号(検出信号A)を読み込む。次のS15では、頭部検出ユニット110のフレーム112の後部に設けられた頭部動作検出手段150(第2のジャイロセンサ)により検出された頭部動作位置信号(検出信号B)を読み込む。尚、頭部動作検出手段150は、頭部の動作方向が検出できればよいので、ジャイロセンサに限らず、例えば、位置変位センサ、加速度センサでも良い。
Subsequently, in S14, a three-dimensional signal (detection signal A) detected by the trunk position detection means 120 (first gyro sensor) arranged on the back of the
S16では、各検出信号AとBとの差から頭部動作方向を判別する(頭部動作方向判別手段180)。尚、S16における頭部動作方向判別処理においては、例えば、頭部動作検出手段150に位置変位センサを用いた場合、位置変位センサにより頭部13の変位量と変位方向(検出信号B)が検出されるため、体幹位置検出手段120の第1のジャイロセンサから得られた3次元信号(検出信号A)を基準値(体幹位置)として頭部13の動作方向(変位方向)を判別できる。また、S16における頭部動作方向判別処理においては、例えば、頭部動作検出手段150に加速度センサを用いた場合、加速度センサにより頭部13の動作に応じた加速度信号(検出信号B)が得られるため、加速度と加速方向が検出されるため、体幹位置検出手段120の第1のジャイロセンサから得られた3次元信号(検出信号A)を基準値(体幹)として頭部13の動作方向(加速方向)を判別できる。
In S16, the head movement direction is determined from the difference between the detection signals A and B (head movement direction determination means 180). In the head movement direction determination processing in S16, for example, when a position displacement sensor is used for the head movement detection means 150, the displacement amount and the displacement direction (detection signal B) of the
また、S16における頭部動作方向判別処理においては、例えば、頭部動作検出手段150に第2のジャイロセンサを用いた場合、体幹位置検出手段120の第1のジャイロセンサから得られた3次元信号(検出信号A)を基準値として頭部動作検出手段150の第2のジャイロセンサから得られた3次元信号(検出信号B)との差から頭部13の動作方向を左右方向及び上下方向で判別することが可能になる。従って、装着者12が前進、左折、右折などの歩行動作だけでなく、階段の昇り降りの動作や、椅子に座った状態から立ち上がる場合の上下方向の動作にも対応することができる。
Further, in the head movement direction determination process in S16, for example, when the second gyro sensor is used for the head
続いて、S17に進み、上記S13で判別された眼球動作方向と、上記S16で判別された頭部動作方向とが一致するか否かをチェックする。S17において、上記S13で判別された眼球動作方向と、上記S16で判別された頭部動作方向とが一致しない場合(NOの場合)は、当該装着者12が歩行方向を変更せず、前進を維持するものとしてS11の処理に戻る。
Subsequently, the process proceeds to S17, and it is checked whether or not the eye movement direction determined in S13 matches the head movement direction determined in S16. In S17, when the eye movement direction determined in S13 and the head movement direction determined in S16 do not match (in the case of NO), the
また、S17において、上記S13で判別された眼球動作方向と、上記S16で判別された頭部動作方向とが一致する場合は、S18に進み、当該装着者12がその一致する方向(前進、左折、右折の何れか)に歩行するものと推定する(動作方向推定手段190)。
In S17, if the eye movement direction determined in S13 matches the head movement direction determined in S16, the process proceeds to S18 and the
次のS19では、上記S18の推定結果を動作補助装置10の制御装置36に入力する。これにより、動作補助装置10の制御装置36では、当該装着者12の歩行動作方向を予測することが可能になる。
〔装着式動作補助装置10の制御処理〕
次に動作補助装置10のおける制御処理について説明する。
In next S19, the estimation result in S18 is input to the
[Control processing of the wearable motion assist device 10]
Next, control processing in the
図9は装着式動作補助装置10の制御装置36が実行する制御処理を説明するためのフローチャートである。図9に示されるように、制御装置36は、S21で装着型入力装置100の制御部130から動作方向の推定結果が入力されたか否かをチェックする。S21において、制御部130から動作方向の推定結果(前進、左折、右折の何れか)が入力された場合(YESの場合)は、S22に進み、動作方向の推定結果(前進、左折、右折の何れか)に応じた動作プログラム及び制御パラメータをデータベースから読み込み、当該推定された動作方向に応じた制御処理の事前準備を行なう。
FIG. 9 is a flowchart for explaining a control process executed by the
次のS23では、当該装着者12の脚部に装着された各脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44b(図2A、図2Bを参照)により検出された筋電位信号や神経伝達信号などの生体信号、及び床反力センサ50a,50b,52a,52bの検出信号を読み込む。
In the next S23, the leg
続いて、S24では、各脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44bにより検出された脚部生体信号及び床反力センサ50a,50b,52a,52bの検出信号(重心位置)に基づいて各モータ20,22,24,26のトルクを演算する。次のS25では、前述した動作方向の推定結果が前進の場合は、S24の演算結果に基づいて右側の各モータ20,24のトルクと左側の各モータ22,26のトルクとが等しくなるように制御する。また、動作方向の推定結果が左折の場合は、S24の演算結果に基づいて左方向に曲がる際の内側となるモータ22,26のトルクが小さくなるように制御し、外側となるモータ20、24のトルクが大きくなるように制御する。
Subsequently, in S24, detection of leg biosignals and floor
また、動作方向の推定結果が右折の場合は、S24の演算結果に基づいて右方向に曲がる際の外側となるモータ22,26のトルクが大きくなるように制御し、内側となるモータ20、24のトルクが小さくなるように制御する。このように、装着者12は、歩行動作方向を目視するように動作(眼球動作及び頭部動作)することで、装着型入力装置100より歩行動作方向の推定結果が動作補助装置10に入力されるため、動作補助装置10により直進の場合も、左折、右折の場合も安定的且つスムーズに歩行動作がアシストされる。
Further, when the motion direction estimation result is a right turn, control is performed so that the torque of the
また、制御部130から動作方向の推定結果(前進、左折、右折の何れか)が入力された場合は、動作方向を変更する前に予告されるため、制御装置36によるモータ制御が迅速に行えるので、急な歩行動作の場合でも制御遅れが発生せず、装着者12の歩行アシスト、歩行訓練(訓練士によるリハビリテーションを含む)を安定的且つスムーズに行える。
In addition, when the motion direction estimation result (forward, left turn, or right turn) is input from the
上記S21において、制御部130から動作方向の推定結果(前進、左折、右折の何れか)が入力されない場合(NOの場合)は、通常の制御処理が行なわれる。すなわち、S26に進み、当該装着者12の脚部に装着された各脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44b(図2A、図2Bを参照)により検出された筋電位信号や神経伝達信号などの生体信号を読み込む。
In S21, when the estimation result of the movement direction (any of forward, left turn, and right turn) is not input from the control unit 130 (in the case of NO), normal control processing is performed. That is, it progresses to S26 and is detected by each leg
次のS27では、各モータの回転角を検出する角度センサの検出信号、及び床反力センサ50a,50b,52a,52bの検出信号を読み込む。続いて、S28に進み、各脚部生体信号検出センサ及び各関節の角度センサの検出信号及び床反力センサ50a,50b,52a,52bの検出信号(重心位置)に基づいて動作パターン(各動作のフェーズ)に応じた制御プログラム及び制御パラメータをデータベースから読み込む。
In next S27, the detection signal of the angle sensor for detecting the rotation angle of each motor and the detection signals of the floor
S29では、S28で読み込まれた制御プログラム及び制御パラメータ及び各脚部生体信号を用いて各モータ20,22,24,26のトルクを演算する。次のS30では、S29の演算結果により脚部生体信号に基づいて各モータ20,22,24,26のトルクを制御する。このように、制御部130から動作方向の推定結果(前進、左折、右折の何れか)が入力されない場合は、装着者12が歩行動作を行なう際の脚部生体信号に基づいて各モータ20,22,24,26のトルクを制御するため、モータトルクの演算処理に時間がかかり、制御遅れが発生するおそれがある。
In S29, the torques of the
上記説明では、装着型入力装置100により歩行動作方向を推定する場合について説明したが、歩行動作以外にも、例えば、椅子に座った状態から立ち上がる動作を眼球300の上下方向の動きから予測することも可能であり、あるいは階段の昇り、降り動作を予測することも可能である。
In the above description, the case where the walking motion direction is estimated by the
上記実施の形態では、装着式動作補助装置10を人支援装置として用いた場合を一例として挙げたが、例えば、装着型入力装置100からの推定結果を電動車椅子あるいは介護用電気自動車等の車両の制御装置に入力する構成として良い。この場合、装着型入力装置100によって電動車椅子等の車両の進行方向を制御することが可能になる。
In the above-described embodiment, the case where the wearable movement assist
また、装着型入力装置100からの推定結果を介護ロボットや所定の作業を行なう作業ロボットの制御装置に入力することで、介護ロボットや作業ロボットの動作方向を予告することが可能になる。
In addition, by inputting the estimation result from the
10 装着式動作補助装置
12 装着者
13 頭部
18 動作補助装着フレーム
20,22,24,26 駆動モータ
30 腰締結部材
32、34 バッテリ
36 制御装置
38a,38b,40a,40b,42a,42b,44a,44b 脚部生体信号検出センサ
50a,50b,52a,52b 床反力センサ
100 装着型入力装置
110 頭部検出ユニット
112 フレーム
114L、114R 当接部
120 体幹位置検出手段
130 制御部
132、142、162、232、240 信号線
140 外眼筋生体信号検出手段
140−1〜140−4 電極
150 頭部動作検出手段
160 表示部
160−1、160−2 LED
170 視線方向判別手段
172 眼電位抽出手段
174 眼球動作方向判定手段
180 頭部動作方向判別手段
190 動作方向推定手段
200 入力手段
210 充電式バッテリ
220 眼電位抽出手段
230 眼球動作方向検出手段
250L、250R 小型スピーカ
300 眼球
310 外眼筋
DESCRIPTION OF
170 Gaze direction discrimination means 172 Ocular potential extraction means 174 Eye movement direction determination means 180 Head movement direction discrimination means 190 Movement direction estimation means 200 Input means 210
Claims (9)
前記装着者の眼球の動作方向に応じた外眼筋生体信号を検出する外眼筋生体信号検出手段と、
前記装着者の頭部の動作方向を検出する頭部動作検出手段と、
前記装着者の体幹位置を検出する体幹位置検出手段と、
前記外眼筋生体信号検出手段により得られた外眼筋検出信号に基づいて眼球の動作方向を判別する視線方向判別手段と、
前記頭部動作検出手段により得られた頭部検出信号と前記体幹位置検出手段により得られた体幹位置検出信号との差に基づいて前記頭部の動作方向を判別する頭部動作方向判別手段と、
前記視線方向判別手段の判別結果による視線方向と前記頭部動作方向判別手段の判別結果による頭部動作方向とが一致した場合に当該装着者が当該方向に移動するものと推定する動作方向推定手段と、
前記動作方向推定手段による推定結果を人支援装置に入力する入力手段と、
を有することを特徴とする装着型入力装置。 A wearable input device worn by a wearer,
An extraocular muscle biosignal detection means for detecting an extraocular muscle biosignal according to the movement direction of the eyeball of the wearer;
Head movement detecting means for detecting the movement direction of the head of the wearer;
Trunk position detecting means for detecting the trunk position of the wearer;
Eye-gaze direction determining means for determining the movement direction of the eyeball based on the extraocular muscle detection signal obtained by the extraocular muscle biosignal detection means;
Head movement direction determination for determining the movement direction of the head based on the difference between the head detection signal obtained by the head movement detection means and the trunk position detection signal obtained by the trunk position detection means Means,
Motion direction estimation means for estimating that the wearer moves in the direction when the line-of-sight direction according to the determination result of the line-of-sight direction determination means matches the head movement direction according to the determination result of the head movement direction determination means When,
Input means for inputting an estimation result by the motion direction estimation means to a human support device;
A wearable input device characterized by comprising:
前記体幹位置検出手段は、前記装着者の背中の中心部分に対向する位置に配置され、前記装着者の背中の動作に応じた3次元の検出信号を出力するジャイロセンサからなり、
前記頭部動作方向判別手段は、前記加速度センサ又は位置変位センサにより検出された前記装着者の頭部の動作と、前記ジャイロセンサにより検出された前記装着者の体幹位置との差に基づいて前記装着者の頭部の動作位置を判別することを特徴とする請求項1に記載の装着型入力装置。 The head movement detection means comprises an acceleration sensor or a position displacement sensor that outputs a detection signal corresponding to the movement of the wearer's head,
The trunk position detection means is a gyro sensor that is arranged at a position facing a central portion of the wearer's back and outputs a three-dimensional detection signal corresponding to the movement of the wearer's back,
The head movement direction determining means is based on a difference between the movement of the wearer's head detected by the acceleration sensor or the position displacement sensor and the trunk position of the wearer detected by the gyro sensor. The wearable input device according to claim 1, wherein an operation position of the head of the wearer is determined.
前記装着者の背中の中心部分に対向する位置に配置され、前記装着者の体幹位置に応じた3次元の検出信号を出力する第1のジャイロセンサからなり、
前記頭部動作方向判別手段は、前記装着者の頭部の動作に応じた検出信号を出力する3次元の検出信号を出力する第2のジャイロセンサからなり、
前記頭部動作方向判別手段は、前記第1のジャイロセンサにより検出された前記装着者の頭部の動作と、前記第2のジャイロセンサにより検出された前記装着者の体幹位置との差に基づいて前記装着者の頭部の動作位置を判別することを特徴とする請求項1に記載の装着型入力装置。 The trunk position detecting means is
The first gyro sensor is disposed at a position facing the center portion of the wearer's back and outputs a three-dimensional detection signal corresponding to the trunk position of the wearer.
The head movement direction determination means includes a second gyro sensor that outputs a three-dimensional detection signal that outputs a detection signal corresponding to the movement of the wearer's head.
The head movement direction discriminating means is based on the difference between the movement of the wearer's head detected by the first gyro sensor and the trunk position of the wearer detected by the second gyro sensor. The wearable input device according to claim 1, wherein an operation position of the head of the wearer is determined based on the wearer.
前記外眼筋生体信号検出手段により検出された検出信号に基づいて前記眼球を左右方向に動作させる際の眼電位の検出信号を抽出する眼電位抽出手段と、
該眼電位抽出手段により抽出された検出信号が予め設定された所定時間以上継続して検出された場合に、前記眼電位抽出手段により抽出された検出信号に基づいて前記眼球の動作方向が正面か或いは左右方向の何れかであるかを判定する眼球動作方向判定手段と、
を有することを特徴とする請求項1に記載の装着型入力装置。 The line-of-sight direction determining means includes
An electrooculogram extraction unit that extracts an electrooculogram detection signal when the eyeball is operated in the left-right direction based on the detection signal detected by the extraocular muscle biosignal detection unit;
If the detection signal extracted by the electrooculogram extraction means is detected continuously for a predetermined time or more, whether the movement direction of the eyeball is front based on the detection signal extracted by the electrooculogram extraction means Alternatively, eye movement direction determination means for determining whether the direction is the left-right direction,
The wearable input device according to claim 1, further comprising:
当該装着者の歩行動作を支援するように当該装着者の脚部に装着されるフレームと、
該フレームを駆動する駆動手段と、
当該装着者の脚部生体信号を検出する脚部生体信号検出手段と、
を有し、
前記制御手段は、前記動作方向推定手段による推定結果及び前記脚部生体信号検出手段から得られた脚部生体信号に基づき前記駆動手段を駆動制御するための制御信号を生成することを特徴とする人支援装置。 Control means connected to the wearable input device according to any one of claims 1 to 5, wherein the estimation result from the motion direction estimation means is input from the input means;
A frame that is worn on the legs of the wearer so as to support the walking movement of the wearer;
Drive means for driving the frame;
Leg biosignal detection means for detecting the wearer's leg biosignal;
Have
The control means generates a control signal for controlling driving of the drive means based on the estimation result by the motion direction estimation means and the leg biological signal obtained from the leg biological signal detection means. Person support device.
前記装着者の視線方向と前記装着者の頭部動作方向とが一致した場合に当該装着者が当該方向に移動するものと推定するステップと、
前記推定処理による推定結果に基づき前記駆動手段を駆動制御するステップと、
を有することを特徴とする人支援装置の制御方法。 A human support device comprising: a wearable input device worn by a wearer; and a human support device having a driving means for assisting a driving force in a leg portion of the wearer so as to support the walking motion of the wearer. In the control method,
Estimating that the wearer moves in the direction when the wearer's line-of-sight direction matches the wearer's head movement direction;
Driving the drive means based on the estimation result of the estimation process;
A method for controlling a human support apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010276288A JP2012120798A (en) | 2010-12-10 | 2010-12-10 | Wearable input device, human assistance device, and control method for the human assistance device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010276288A JP2012120798A (en) | 2010-12-10 | 2010-12-10 | Wearable input device, human assistance device, and control method for the human assistance device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012120798A true JP2012120798A (en) | 2012-06-28 |
Family
ID=46502895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010276288A Pending JP2012120798A (en) | 2010-12-10 | 2010-12-10 | Wearable input device, human assistance device, and control method for the human assistance device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012120798A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014197388A (en) * | 2013-03-11 | 2014-10-16 | イマージョン コーポレーションImmersion Corporation | Haptic sensations as function of eye gaze |
JP2015173739A (en) * | 2014-03-13 | 2015-10-05 | 株式会社東芝 | Knee joint movement support device |
CN105700676A (en) * | 2014-12-11 | 2016-06-22 | 现代自动车株式会社 | Wearable glasses, control method thereof, and vehicle control system |
CN109760015A (en) * | 2017-11-10 | 2019-05-17 | 三星电子株式会社 | Control method and control equipment for walking of turning |
JP2020066110A (en) * | 2018-10-25 | 2020-04-30 | 国立大学法人千葉大学 | Method for controlling work auxiliary tool |
-
2010
- 2010-12-10 JP JP2010276288A patent/JP2012120798A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9833697B2 (en) | 2013-03-11 | 2017-12-05 | Immersion Corporation | Haptic sensations as a function of eye gaze |
JP2018173983A (en) * | 2013-03-11 | 2018-11-08 | イマージョン コーポレーションImmersion Corporation | Haptic sensation as function of eye gaze |
US10220317B2 (en) | 2013-03-11 | 2019-03-05 | Immersion Corporation | Haptic sensations as a function of eye gaze |
JP2014197388A (en) * | 2013-03-11 | 2014-10-16 | イマージョン コーポレーションImmersion Corporation | Haptic sensations as function of eye gaze |
JP2015173739A (en) * | 2014-03-13 | 2015-10-05 | 株式会社東芝 | Knee joint movement support device |
CN105700676B (en) * | 2014-12-11 | 2021-03-12 | 现代自动车株式会社 | Wearable glasses, control method thereof, and vehicle control system |
CN105700676A (en) * | 2014-12-11 | 2016-06-22 | 现代自动车株式会社 | Wearable glasses, control method thereof, and vehicle control system |
CN109760015A (en) * | 2017-11-10 | 2019-05-17 | 三星电子株式会社 | Control method and control equipment for walking of turning |
JP2019088766A (en) * | 2017-11-10 | 2019-06-13 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Control method and control apparatus for turning walking |
KR20190053615A (en) * | 2017-11-10 | 2019-05-20 | 삼성전자주식회사 | Control method and control apparatus for turning walking |
KR102566114B1 (en) * | 2017-11-10 | 2023-08-14 | 삼성전자주식회사 | Control method and control apparatus for turning walking |
CN109760015B (en) * | 2017-11-10 | 2024-05-03 | 三星电子株式会社 | Control method and control apparatus for turning walking |
JP2020066110A (en) * | 2018-10-25 | 2020-04-30 | 国立大学法人千葉大学 | Method for controlling work auxiliary tool |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2912405T3 (en) | Machine-to-person interfaces for communication from a lower extremity orthosis | |
EP3417777B1 (en) | Body-worn gait detection device, walking ability improvement system, and body-worn gait detection system | |
KR101742350B1 (en) | Wearable motion assist device, interface device therefor, and program therefor | |
JP5313609B2 (en) | Frame structure of wearable motion assist device. | |
CN104825258B (en) | The wearable function auxiliary mechanical arm of shoulder | |
JP2012120798A (en) | Wearable input device, human assistance device, and control method for the human assistance device | |
KR101458002B1 (en) | Intelligent wheelchair robot based on biometrics for rehabilitation of upper limb and lower limb | |
WO2012118143A1 (en) | Ambulation training device and ambulation training system | |
CN112370305B (en) | Exoskeleton robot for lower limb rehabilitation training | |
Neto et al. | Smart walkers: Advanced robotic human walking-aid systems | |
JP4742263B2 (en) | Walking assist device | |
CN210205291U (en) | Follow-up lower limb gait training rehabilitation robot system | |
CN116018080A (en) | Gait adjustment assistance system | |
JP6035898B2 (en) | Wearable motion assist device | |
KR100555990B1 (en) | Walking Training Support Robot with the distributed control of Pneumatic actuator | |
KR200458671Y1 (en) | Apparatus for assisting muscular strength | |
KR20180008135A (en) | Gait training system utilizing tva sense | |
Law et al. | A cap as interface for wheelchair control | |
EP4108221A1 (en) | Wearable motion assist device | |
US12064390B2 (en) | Powered walking assistant and associated systems and methods | |
CN113230094A (en) | Single-leg exoskeleton robot and control method thereof | |
CN115634125A (en) | Rhythmic stimulation rehabilitation training system and method based on motion information | |
US20170127962A1 (en) | Biological-signal measurement device, biological-signal measurement method, wearable action assistance device, and action assistance method | |
WO2024095577A1 (en) | Device and method for improving movement function | |
TWM510162U (en) | Support device of rehabilitation machine |