JP2012120798A - Wearable input device, human assistance device, and control method for the human assistance device - Google Patents

Wearable input device, human assistance device, and control method for the human assistance device Download PDF

Info

Publication number
JP2012120798A
JP2012120798A JP2010276288A JP2010276288A JP2012120798A JP 2012120798 A JP2012120798 A JP 2012120798A JP 2010276288 A JP2010276288 A JP 2010276288A JP 2010276288 A JP2010276288 A JP 2010276288A JP 2012120798 A JP2012120798 A JP 2012120798A
Authority
JP
Japan
Prior art keywords
wearer
head
movement
movement direction
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010276288A
Other languages
Japanese (ja)
Inventor
Kenji Suzuki
健嗣 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tsukuba NUC
Original Assignee
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tsukuba NUC filed Critical University of Tsukuba NUC
Priority to JP2010276288A priority Critical patent/JP2012120798A/en
Publication of JP2012120798A publication Critical patent/JP2012120798A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Rehabilitation Tools (AREA)
  • Prostheses (AREA)

Abstract

PROBLEM TO BE SOLVED: To stably and smoothly assisting the movement of a wearer.SOLUTION: The wearable input device 100 includes: an external ocular muscle biosignal detector 140 for detecting an external ocular muscle biosignal according to the movement direction of the eyeball of the wearer 12; a head movement detector 150 for detecting the movement direction of the head of the wearer 12; a body trunk position detector 120 for detecting the position of the body trunk of the wearer 12; a vision direction determinator 170 for determining the movement direction of the eyeball based on the detected external ocular muscle signal; a head movement direction determinator 180 for determining the direction of the head based on a difference between a head detecting signal obtained by the head movement detector 150 and a body trunk position detecting signal obtained by the body trunk position detector 120; a movement direction predicting unit 190 for predicting the movement of the wearer 12 in a direction in which the vision direction as a determination result of the vision direction determinator 170, and the head movement direction as a determination result of the head movement direction determinator 180 are coincide with each other; and an input unit 200 for inputting a prediction result into the human assistance device.

Description

本発明は装着型入力装置及び人支援装置及び人支援装置の制御方法に係り、特に装着者の動作を支援するのに適した装着型入力装置及び人支援装置及び人支援装置の制御方法に関する。   The present invention relates to a wearable input device, a human support device, and a control method for the human support device, and more particularly, to a wearable input device, a human support device, and a control method for the human support device that are suitable for supporting the operation of the wearer.

例えば、関節の病気により腕や足が動作しにくかったり、あるいは筋力の低下により関節が動作しにくい場合、動作補助具を腕や足に装着して関節の動作を補助する装着式動作補助装置が開発されている(特許文献1参照)。   For example, if the arm or leg is difficult to move due to a joint disease, or if the joint is difficult to move due to a decrease in muscle strength, a wearable movement assist device that assists the movement of the joint by attaching a movement assist tool to the arm or leg is available. It has been developed (see Patent Document 1).

この装着式動作補助装置は、装着者の意思に基づいて発生する生体電位を検出し、この生体信号から当該装着者の両足の各関節に配されたモータを制御する制御信号を生成する構成であるので、動作補助具の駆動力を自分の筋力と同じように腕や足に伝達することが可能になる。   The wearable movement assist device is configured to detect a bioelectric potential generated based on the wearer's intention and generate a control signal for controlling a motor disposed in each joint of the wearer's both feet from the biosignal. As a result, the driving force of the motion assisting tool can be transmitted to the arms and legs in the same manner as the muscle strength of the user.

また、装着式動作補助装置は、装着者から検出された生体電位が入力され、且つ足の裏側の重心の移動を重心センサにより検出することで当該装着者が何らかの動作(例えば、歩行動作、椅子からの立ち上がり動作)を開始しようとしていることを推測し、その推測結果に基づいてモータの駆動力を制御している。   In addition, the wearable movement assist device receives a bioelectric potential detected from the wearer, and detects the movement of the center of gravity on the back side of the foot using a center of gravity sensor, so that the wearer can perform any action (for example, walking action, chair, etc. It is estimated that the starting operation is started, and the driving force of the motor is controlled based on the estimation result.

特開2005−95561号公報JP 2005-95561 A

上記特許文献1に記載された制御方法では、装着者の重心移動を安定的に行えるようにモータの制御を行なっているため、装着者が例えば、上体を傾けるように歩行する場合には、足の裏の重心位置が大きく変動するため、歩行支援するモータトルクの制御により、装着者の歩行バランスを安定化することが難しかった。   In the control method described in Patent Document 1, the motor is controlled so that the center of gravity of the wearer can be stably moved. For example, when the wearer walks while tilting the upper body, Since the position of the center of gravity of the sole of the foot fluctuates greatly, it is difficult to stabilize the walking balance of the wearer by controlling the motor torque for assisting walking.

また、装着者が前方向に歩行する場合、右方向または左方向に進行方向を変更する場合、左右両足の筋電位の変化が検出されてから左右両足にアシスト力を発生する各関節のモータトルクを制御するため、直進から左折または右折する際に内側となる足(左足又は右足)のモータトルクと外側となる足(右足又は左足)のモータトルクとをそれぞれ異なる値に演算しなければならず、左右のバランスをとることが難しく、左右の各関節のモータを個別に制御する際に制御遅れが発生するおそれがある。   In addition, when the wearer walks forward, when the direction of travel changes to the right or left, the motor torque of each joint that generates assist force on both left and right legs after a change in myoelectric potential on both left and right legs is detected Therefore, when turning left or right from straight, the motor torque of the inner foot (left foot or right foot) and the motor torque of the outer foot (right foot or left foot) must be calculated to different values. It is difficult to balance the left and right, and there is a possibility that a control delay occurs when the motors of the left and right joints are individually controlled.

そこで、本発明は上記事情に鑑み、装着者の頭部及び眼球の動きから当該装着者の次の動作を予測することで上記課題を解決した装着型入力装置及び人支援装置及び人支援装置の制御方法を提供することを目的とする。   Therefore, in view of the above circumstances, the present invention provides a wearable input device, a human support device, and a human support device that have solved the above problems by predicting the next movement of the wearer from the movements of the head and eyeball of the wearer. An object is to provide a control method.

上記課題を解決するため、本発明は以下のような手段を有する。
(1)本発明は、装着者に装着される装着型入力装置であって、
前記装着者の眼球の動作方向に応じた外眼筋生体信号を検出する外眼筋生体信号検出手段と、
前記装着者の頭部の動作方向を検出する頭部動作検出手段と、
前記装着者の体幹位置を検出する体幹位置検出手段と、
前記外眼筋生体信号検出手段により得られた外眼筋検出信号に基づいて眼球の動作方向を判別する視線方向判別手段と、
前記頭部動作検出手段により得られた頭部検出信号と前記体幹位置検出手段により得られた体幹位置検出信号との差に基づいて前記頭部の動作方向を判別する頭部動作方向判別手段と、
前記視線方向判別手段の判別結果による視線方向と前記頭部動作方向判別手段の判別結果による頭部動作方向とが一致した場合に当該装着者が当該方向に移動するものと推定する動作方向推定手段と、
前記動作方向推定手段による推定結果を人支援装置に入力する入力手段と、
を有することを特徴とする。
(2)本発明の前記外眼筋生体信号検出手段は、前記頭部の前記眼球の側方に位置する部分に設けられ、前記眼球を動作させる際の眼電位を検出することを特徴とする。
(3)本発明の前記頭部動作検出手段は、前記装着者の頭部の動作に応じた検出信号を出力する加速度センサ又は位置変位センサからなり、
前記体幹位置検出手段は、前記装着者の背中の中心部分に対向する位置に配置され、前記装着者の背中の動作に応じた3次元の検出信号を出力するジャイロセンサからなり、
前記頭部動作方向判別手段は、前記加速度センサ又は位置変位センサにより検出された前記装着者の頭部の動作と、前記ジャイロセンサにより検出された前記装着者の体幹位置との差に基づいて前記装着者の頭部の動作位置を判別することを特徴とする。
(4)本発明の前記体幹位置検出手段は、
前記装着者の背中の中心部分に対向する位置に配置され、前記装着者の体幹位置に応じた3次元の検出信号を出力する第1のジャイロセンサからなり、
前記頭部動作方向判別手段は、前記装着者の頭部の動作に応じた検出信号を出力する3次元の検出信号を出力する第2のジャイロセンサからなり、
前記頭部動作方向判別手段は、前記第1のジャイロセンサにより検出された前記装着者の頭部の動作と、前記第2のジャイロセンサにより検出された前記装着者の体幹位置との差に基づいて前記装着者の頭部の動作位置を判別することを特徴とする。
(5)本発明の前記視線方向判別手段は、
前記外眼筋生体信号検出手段により検出された検出信号に基づいて前記眼球を左右方向に動作させる際の眼電位の検出信号を抽出する眼電位抽出手段と、
該眼電位抽出手段により抽出された検出信号が予め設定された所定時間以上継続して検出された場合に、前記眼電位抽出手段により抽出された検出信号に基づいて前記眼球の動作方向が正面か或いは左右方向の何れかであるかを判定する眼球動作方向判定手段と、
を有することを特徴とする。
(6)本発明は、(1)乃至(5)の何れかに記載の装着型入力装置に接続され、前記入力手段から前記動作方向推定手段による推定結果を入力される制御手段と、
当該装着者の歩行動作を支援するように当該装着者の脚部に装着されるフレームと、
該フレームを駆動する駆動手段と、
当該装着者の脚部生体信号を検出する脚部生体信号検出手段と、
を有し、
前記制御手段は、前記動作方向推定手段による推定結果及び前記脚部生体信号検出手段から得られた脚部生体信号に基づき前記駆動手段を駆動制御するための制御信号を生成することを特徴とする。
(7)本発明の前記制御手段は、前記動作方向推定手段により当該装着者が歩行方向を変更することが推定された場合には、当該推定された方向に応じて前記駆動手段による膝関節の駆動力を当該変更される方向に応じた制御パラメータを演算し、前記脚部生体信号検出手段が脚部生体信号を検出したタイミングで前記駆動手段を当該制御パラメータに基づいて駆動させることを特徴とする。
(8)本発明の前記制御手段は、前記動作方向推定手段により当該装着者が歩行動作方向を変更することが推定された場合には、変更する方向に応じて右脚の膝関節と左脚の膝関節と駆動力に差を生じさせることを特徴とする。
(9)本発明は、装着者に装着される装着型入力装置と、前記装着者の歩行動作を支援するように当該装着者の脚部に駆動力をアシストする駆動手段を有する人支援装置とを備えた人支援装置の制御方法において、
前記装着者の視線方向と前記装着者の頭部動作方向とが一致した場合に当該装着者が当該方向に移動するものと推定するステップと、
前記推定処理による推定結果に基づき前記駆動手段を駆動制御するステップと、
を有することを特徴とする。
In order to solve the above problems, the present invention has the following means.
(1) The present invention is a wearable input device worn by a wearer,
An extraocular muscle biosignal detection means for detecting an extraocular muscle biosignal according to the movement direction of the eyeball of the wearer;
Head movement detecting means for detecting the movement direction of the head of the wearer;
Trunk position detecting means for detecting the trunk position of the wearer;
Eye-gaze direction determining means for determining the movement direction of the eyeball based on the extraocular muscle detection signal obtained by the extraocular muscle biosignal detection means;
Head movement direction determination for determining the movement direction of the head based on the difference between the head detection signal obtained by the head movement detection means and the trunk position detection signal obtained by the trunk position detection means Means,
Motion direction estimation means for estimating that the wearer moves in the direction when the line-of-sight direction according to the determination result of the line-of-sight direction determination means matches the head movement direction according to the determination result of the head movement direction determination means When,
Input means for inputting an estimation result by the motion direction estimation means to a human support device;
It is characterized by having.
(2) The extraocular muscle biosignal detection means of the present invention is provided in a portion of the head located on the side of the eyeball, and detects an electrooculogram when the eyeball is operated. .
(3) The head movement detection means of the present invention comprises an acceleration sensor or a position displacement sensor that outputs a detection signal corresponding to the movement of the wearer's head,
The trunk position detection means is a gyro sensor that is arranged at a position facing a central portion of the wearer's back and outputs a three-dimensional detection signal corresponding to the movement of the wearer's back,
The head movement direction determining means is based on a difference between the movement of the wearer's head detected by the acceleration sensor or the position displacement sensor and the trunk position of the wearer detected by the gyro sensor. The operating position of the head of the wearer is determined.
(4) The trunk position detecting means of the present invention comprises:
The first gyro sensor is disposed at a position facing the center portion of the wearer's back and outputs a three-dimensional detection signal corresponding to the trunk position of the wearer.
The head movement direction determination means includes a second gyro sensor that outputs a three-dimensional detection signal that outputs a detection signal corresponding to the movement of the wearer's head.
The head movement direction discriminating means is based on the difference between the movement of the wearer's head detected by the first gyro sensor and the trunk position of the wearer detected by the second gyro sensor. The operating position of the wearer's head is determined based on the determination.
(5) The line-of-sight direction determining means of the present invention comprises:
An electrooculogram extraction unit that extracts an electrooculogram detection signal when the eyeball is operated in the left-right direction based on the detection signal detected by the extraocular muscle biosignal detection unit;
If the detection signal extracted by the electrooculogram extraction means is detected continuously for a predetermined time or more, whether the movement direction of the eyeball is front based on the detection signal extracted by the electrooculogram extraction means Alternatively, eye movement direction determination means for determining whether the direction is the left-right direction,
It is characterized by having.
(6) The present invention is a control unit that is connected to the wearable input device according to any one of (1) to (5), and that receives an estimation result from the motion direction estimation unit from the input unit;
A frame that is worn on the legs of the wearer so as to support the walking movement of the wearer;
Drive means for driving the frame;
Leg biosignal detection means for detecting the wearer's leg biosignal;
Have
The control means generates a control signal for controlling driving of the drive means based on the estimation result by the motion direction estimation means and the leg biological signal obtained from the leg biological signal detection means. .
(7) When it is estimated that the wearer changes the walking direction by the movement direction estimation unit, the control unit of the present invention is configured so that the knee joint is driven by the driving unit according to the estimated direction. A control parameter corresponding to the direction in which the driving force is changed is calculated, and the driving unit is driven based on the control parameter at a timing when the leg biological signal detection unit detects the leg biological signal. To do.
(8) When it is estimated by the movement direction estimation means that the wearer changes the walking movement direction, the control means of the present invention is configured such that the knee joint and the left leg of the right leg according to the changed direction. It is characterized in that a difference is generated between the knee joint and the driving force.
(9) The present invention relates to a wearable input device worn by a wearer, and a human support device having a driving means for assisting a driving force in a leg portion of the wearer so as to support the walking motion of the wearer. In a method for controlling a human support device comprising:
Estimating that the wearer moves in the direction when the wearer's line-of-sight direction matches the wearer's head movement direction;
Driving the drive means based on the estimation result of the estimation process;
It is characterized by having.

本発明によれば、視線方向判別手段の判別結果による検出方向と頭部動作方向判別手段の判別結果による判別方向とが一致した場合に当該装着者が当該方向に移動するものと推定することができ、当該推定結果を人支援装置に入力することにより、制御の動作遅れを解消し、人支援装置を安定した状態に制御することが可能になると共に、当該装着者の動作支援をスムーズに行なうことができる。   According to the present invention, when the detection direction based on the determination result of the line-of-sight direction determination unit matches the determination direction based on the determination result of the head movement direction determination unit, it is estimated that the wearer moves in the direction. By inputting the estimation result to the human support device, it is possible to eliminate the control operation delay, control the human support device in a stable state, and smoothly perform the operation support of the wearer. be able to.

本発明による装着型入力装置の一実施例の制御システムの系統図である。It is a systematic diagram of the control system of one Example of the wearable input device by this invention. 装着型入力装置が装着式動作補助装置と接続された場合の装着状態を前側からみた斜視図である。It is the perspective view which looked at the mounting state when a mounting type input device is connected with a mounting type movement auxiliary device from the front side. 装着型入力装置が装着式動作補助装置と接続された場合の装着状態を後側からみた斜視図である。It is the perspective view which looked at the mounting state when a mounting type input device is connected with a mounting type movement auxiliary device from the back side. 装着型入力装置の頭部検出ユニットの一例を示す斜視図である。It is a perspective view which shows an example of the head detection unit of a wearable input device. 頭部検出ユニットの装着状態を示す正面図である。It is a front view which shows the mounting state of a head detection unit. 頭部検出ユニットの装着状態を示す側面図である。It is a side view which shows the mounting state of a head detection unit. 頭部検出ユニットの眼球電位検出部を示す斜視図である。It is a perspective view which shows the eyeball electric potential detection part of a head detection unit. 頭部検出ユニットの当接部を示す斜視図である。It is a perspective view which shows the contact part of a head detection unit. 眼球を動かす外眼筋と眼電位を検出する各電極との位置関係を示す図である。It is a figure which shows the positional relationship of the external eye muscle which moves an eyeball, and each electrode which detects electrooculogram. 外眼筋による眼球の動作方向を示す図である。It is a figure which shows the operation | movement direction of the eyeball by an external eye muscle. 外眼筋の動作に伴う眼電位の検出信号を示す波形図である。It is a wave form diagram which shows the detection signal of the electrooculogram accompanying the operation | movement of an external eye muscle. 装着者が前方へ歩行する様子を模式的に示す平面図である。It is a top view which shows a mode that a wearer walks forward. 装着者が前方へ歩行しながら左方向を視認する様子を模式的に示す平面図である。It is a top view which shows typically a wearer visually recognizing a left direction while walking ahead. 装着者が視認した左方向へ曲がる様子を模式的に示す平面図である。It is a top view which shows typically a mode that it turns to the left direction which the wearer visually recognized. 装着型入力装置の制御部が実行する制御処理を説明するためのフローチャートである。It is a flowchart for demonstrating the control processing which the control part of a mounting | wearing type input device performs. 装着式動作補助装置の制御装置が実行する制御処理を説明するためのフローチャートである。It is a flowchart for demonstrating the control processing which the control apparatus of a mounting | wearing type movement assistance apparatus performs.

以下、図面を参照して本発明を実施するための形態について説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

〔制御システムの構成〕
図1は本発明による装着型入力装置の一実施例の制御システムの系統図である。図1に示されるように、装着型入力装置100は、装着者12の頭部に装着される頭部検出ユニット110と、当該装着者12の背中に装着された体幹位置検出手段120と、制御部130とを有する。尚、体幹位置検出手段120及び制御部130は、図2Bに示されるように、装着者12の背中でサスペンダ14に支持されている。
[Configuration of control system]
FIG. 1 is a system diagram of a control system of an embodiment of a wearable input device according to the present invention. As shown in FIG. 1, the wearable input device 100 includes a head detection unit 110 that is worn on the head of the wearer 12, a trunk position detection unit 120 that is worn on the back of the wearer 12, And a control unit 130. The trunk position detection means 120 and the control unit 130 are supported by the suspender 14 on the back of the wearer 12 as shown in FIG. 2B.

頭部検出ユニット110は、外眼筋生体信号検出手段140と、頭部動作検出手段150と、表示部160とを有する。外眼筋生体信号検出手段140は、装着者12の眼球の動作方向に応じた外眼筋生体信号を検出し、当該外眼筋生体信号を出力する電極よりなる。頭部動作検出手段150は、例えば、位置変位センサ、又は加速度センサ、またはジャイロセンサなどからなり、装着者12の頭部13の動作方向(首振り方向)を検出し、頭部13の動作方向に応じた検出信号を出力する。表示部160は、動作方向の推定結果に応じて点灯または点滅する複数の表示灯(LED:発光ダイオード)からなる。   The head detection unit 110 includes an extraocular muscle biological signal detection unit 140, a head movement detection unit 150, and a display unit 160. The extraocular muscle biosignal detection means 140 includes an electrode that detects an extraocular muscle biosignal according to the movement direction of the eyeball of the wearer 12 and outputs the extraocular muscle biosignal. The head movement detection means 150 is composed of, for example, a position displacement sensor, an acceleration sensor, a gyro sensor, or the like, detects the movement direction (swing direction) of the head 13 of the wearer 12, and moves the head 13. A detection signal corresponding to is output. The display unit 160 includes a plurality of indicator lamps (LEDs: light emitting diodes) that are turned on or blinking according to the estimation result of the operation direction.

体幹位置検出手段120は、例えば、ジャイロセンサなどからなり、装着者12の体幹位置を検出し、装着者12の背中の中心位置に応じた検出信号を出力する。   The trunk position detection means 120 includes, for example, a gyro sensor and the like, detects the trunk position of the wearer 12, and outputs a detection signal corresponding to the center position of the back of the wearer 12.

また、制御部130は、視線方向判別手段170と、頭部動作方向判別手段180と、動作方向推定手段190と、入力手段200と、充電式バッテリ210とを有する。また、視線方向判別手段170は、眼電位抽出手段220と、眼球動作方向検出手段230とを有する。   In addition, the control unit 130 includes a line-of-sight direction determination unit 170, a head movement direction determination unit 180, a movement direction estimation unit 190, an input unit 200, and a rechargeable battery 210. The line-of-sight direction determination unit 170 includes an electrooculogram extraction unit 220 and an eyeball movement direction detection unit 230.

視線方向判別手段170は、眼電位抽出手段172と、眼球動作方向判定手段174とを有し、外眼筋生体信号検出手段140により得られた外眼筋検出信号に基づいて当該装着者12の眼球が左右方向の何れかに動作したかを判別する。眼電位抽出手段172は、外眼筋生体信号検出手段140により検出された検出信号に基づいて眼球を動作させる際の眼電位の検出信号を抽出する。また、眼球動作方向判定手段174は、眼電位抽出手段172により抽出された検出信号が予め設定された所定時間以上継続して検出された場合に、眼電位抽出手段172により抽出された検出信号に基づいて眼球の動作方向が正面か或いは左右方向の何れかであるかを判定する。   The line-of-sight direction determination unit 170 includes an electrooculogram extraction unit 172 and an eyeball movement direction determination unit 174, and is based on the extraocular muscle detection signal obtained by the extraocular muscle biosignal detection unit 140. It is determined whether the eyeball has moved in either the left or right direction. The electrooculogram extraction unit 172 extracts an ocular potential detection signal when operating the eyeball based on the detection signal detected by the extraocular muscle biosignal detection unit 140. In addition, the eye movement direction determination unit 174 outputs the detection signal extracted by the electrooculogram extraction unit 172 when the detection signal extracted by the electrooculogram extraction unit 172 is continuously detected for a predetermined time or more. Based on this, it is determined whether the movement direction of the eyeball is the front or the left-right direction.

頭部動作方向判別手段180は、頭部動作検出手段150により得られた頭部検出信号と体幹位置検出手段120により得られた体幹位置検出信号との差に基づいて当該装着者12の頭部13の向き(首振り方向)を判別する。すなわち、頭部動作方向判別手段180は、体幹位置検出手段120(第1のジャイロセンサ)により得られた体幹位置検出信号(3次元信号)を基準値として頭部動作検出手段150(位置変位センサ、又は加速度センサ、又は第2のジャイロセンサ)から得られた頭部検出信号との差に基づいて頭部13の動作方向を判別する。   The head movement direction discriminating means 180 is based on the difference between the head detection signal obtained by the head movement detection means 150 and the trunk position detection signal obtained by the trunk position detection means 120. The direction of head 13 (swing direction) is determined. That is, the head movement direction determination means 180 uses the trunk position detection signal (three-dimensional signal) obtained by the trunk position detection means 120 (first gyro sensor) as a reference value for the head movement detection means 150 (position Based on a difference from a head detection signal obtained from a displacement sensor, an acceleration sensor, or a second gyro sensor), the movement direction of the head 13 is determined.

動作方向推定手段190は、視線方向判別手段170の判別結果による眼球動作方向と頭部動作方向判別手段180の判別結果による頭部動作方向とが一致した場合に当該装着者12が当該方向に移動するものと推定し、その推定結果を出力する。   The movement direction estimation unit 190 moves the wearer 12 in the direction when the eye movement direction based on the determination result of the gaze direction determination unit 170 matches the head movement direction based on the determination result of the head movement direction determination unit 180. It is estimated that it will be performed, and the estimation result is output.

入力手段200は、動作方向推定手段190による推定結果を装着式動作補助装置10の制御装置36に入力する。充電式バッテリ210は、制御部130の各機器及び頭部検出ユニット110に電源を供給しており、電源消費量に応じて定期的に充電される。   The input means 200 inputs the estimation result by the motion direction estimation means 190 to the control device 36 of the wearable motion assist device 10. The rechargeable battery 210 supplies power to each device of the control unit 130 and the head detection unit 110, and is charged periodically according to the power consumption.

装着式動作補助装置10(以下「動作補助装置」と称する)は、装着者12の腰より下方の脚部に装着されて歩行動作を支援する人支援装置の一例である。
〔動作補助装置10の構成〕
図2Aは装着型入力装置100が装着式動作補助装置10と接続された場合の装着状態を前側からみた斜視図である。図2Bは装着型入力装置100が装着式動作補助装置10と接続された場合の装着状態を後側からみた斜視図である。
The wearable movement assist device 10 (hereinafter referred to as “motion assist device”) is an example of a person support device that is mounted on a leg portion below the waist of the wearer 12 and supports walking motion.
[Configuration of Motion Auxiliary Device 10]
FIG. 2A is a perspective view of the wearing state when the wearable input device 100 is connected to the wearable motion assisting device 10 as seen from the front side. FIG. 2B is a perspective view of the wearing state when the wearing type input device 100 is connected to the wearing type movement assisting device 10 as seen from the rear side.

図2A及び図2Bに示されるように、動作補助装置10は、例えば、骨格筋の筋力低下により歩行が不自由な下肢運動機能障害者、あるいは、歩行運動のリハビリを行う患者などのように自力歩行が困難な人の歩行動作を補助(アシスト)する装置である。また、動作補助装置10は、脳からの信号により筋力を発生させる際に生じる生体信号(表面筋電位)を検出し、生体信号に基づいてアクチュエータからの駆動力を付与するように作動する。   As shown in FIGS. 2A and 2B, the motion assisting device 10 is self-supporting, such as a person with lower limb movement dysfunction who cannot walk due to a decrease in skeletal muscle strength, or a patient who performs rehabilitation of walking movement. It is a device that assists (assides) the walking motion of a person who has difficulty walking. Further, the motion assisting device 10 operates so as to detect a biological signal (surface myoelectric potential) generated when a muscle force is generated by a signal from the brain and to apply a driving force from the actuator based on the biological signal.

動作補助装置10を装着した装着者12は、自らの意思で歩行動作を行う際に発生した生体信号に応じた駆動トルクが補助動力として動作補助装置10から付与され、例えば、通常歩行で必要とされる筋力の半分の力で歩行することが可能になる。従って、装着者12は、自身の筋力と駆動部(本実施例では、電動式の駆動モータを用いる)からの駆動トルクとの合力によって全体重を支えながら歩行することができる。   The wearer 12 wearing the motion assisting device 10 is provided with driving torque according to a biological signal generated when performing the walking motion by his / her own intention as assisting power, and is necessary for normal walking, for example. It becomes possible to walk with half the strength of the muscle strength. Therefore, the wearer 12 can walk while supporting the overall weight by the resultant force of his / her muscular strength and the drive torque from the drive unit (which uses an electric drive motor in this embodiment).

動作補助装置10は、装着型入力装置100から入力された推定結果に基づいて動作方向を予測し、装着者12の歩行動作に伴う重心の移動に応じて付与されるアシスト力(モータトルク)が装着者12の意思を反映するように制御している。   The motion assisting device 10 predicts the motion direction based on the estimation result input from the wearable input device 100, and assist force (motor torque) applied according to the movement of the center of gravity accompanying the walking motion of the wearer 12. Control is performed to reflect the intention of the wearer 12.

また、動作補助装置10は、歩行動作以外にも、例えば、装着者12が椅子に座った状態から立ち上がる際の動作、あるいは立った状態から椅子に腰掛ける際の動作も補助することができる。さらには、装着者12が階段を上がったり、階段を下りる場合にもパワーアシストすることができる。特に筋力が弱っている場合には、階段の上がり動作や、椅子から立ち上がる動作を行うことが難しいが、動作補助装置10を装着した装着者12は、自らの意思に応じて駆動トルクを付与されて筋力の低下を気にせずに動作することが可能になる。   In addition to the walking motion, the motion assisting device 10 can assist, for example, an operation when the wearer 12 stands up from a state of sitting on a chair, or an operation when sitting on the chair from a standing state. Furthermore, power assist can be performed even when the wearer 12 goes up or down the stairs. In particular, when the muscular strength is weak, it is difficult to move up the stairs or stand up from the chair, but the wearer 12 wearing the movement assisting device 10 is given drive torque according to his / her intention. This makes it possible to operate without worrying about muscular weakness.

ここで、動作補助装置10の構成の一例について説明する。動作補助装置10は、図2A及び図2Bに示されるように、装着者12に装着される動作補助装着フレーム18に駆動部を設けたものである。駆動部としては、装着者12の右側股関節に位置する右腿駆動モータ20と、装着者12の左側股関節に位置する左腿駆動モータ22と、装着者12の右膝関節に位置する右膝駆動モータ24と、装着者12の左膝関節に位置する左膝駆動モータ26とを有する。これらの駆動モータ20,22,24,26は、制御装置36からの制御信号により駆動トルクを制御されるDCモータまたはACモータなどの電動モータからなる。また、各駆動モータ20,22,24,26は、モータ回転を所定の減速比で減速する減速機構(駆動部に内蔵)を有しており、小型ではあるが十分な駆動力を付与することができる。また、駆動モータとしては、設置スペースが小さく済むように薄型化された超音波モータを用いても良いのは勿論である。   Here, an example of the configuration of the motion assisting device 10 will be described. As shown in FIGS. 2A and 2B, the motion assisting device 10 is provided with a drive unit on the motion assisting wearing frame 18 that is worn by the wearer 12. The drive unit includes a right thigh drive motor 20 located at the right hip joint of the wearer 12, a left thigh drive motor 22 located at the left hip joint of the wearer 12, and a right knee drive located at the right knee joint of the wearer 12. The motor 24 and the left knee drive motor 26 located at the left knee joint of the wearer 12 are included. These drive motors 20, 22, 24 and 26 are electric motors such as a DC motor or an AC motor whose drive torque is controlled by a control signal from the control device 36. Each of the drive motors 20, 22, 24, and 26 has a speed reduction mechanism (built in the drive unit) that reduces the motor rotation at a predetermined speed reduction ratio, and provides a small but sufficient driving force. Can do. Further, as a drive motor, it is needless to say that an ultrasonic motor thinned so that the installation space can be reduced may be used.

また、装着者12の腰の周囲に装着される腰締結部材30には、駆動モータ20,22,24,26を駆動させるための電源として機能するバッテリ32,34が取り付けられている。バッテリ32、34は、充電式バッテリであり、装着者12の歩行動作を妨げないように左右に分散配置されている。   Batteries 32 and 34 that function as power sources for driving the drive motors 20, 22, 24, and 26 are attached to the waist fastening member 30 that is mounted around the waist of the wearer 12. The batteries 32 and 34 are rechargeable batteries, and are distributed on the left and right so as not to hinder the walking motion of the wearer 12.

また、装着者12の背面側となる腰締結部材30の後側には、制御装置36が取り付けられている。   A control device 36 is attached to the back side of the waist fastening member 30 that is the back side of the wearer 12.

そして、動作補助装置10は、装着者12の右腿の動きに伴う生体電位を検出する脚部生体信号検出センサ38a,38bと、装着者12の左腿の動きに伴う生体電位を検出する脚部生体信号検出センサ40a,40bと、右膝の動きに伴う生体電位を検出する脚部生体信号検出センサ42a,42bと、左膝の動きに伴う生体電位を検出する脚部生体信号検出センサ44a,44bとを有する。   The motion assisting device 10 includes leg biosignal detection sensors 38a and 38b that detect a bioelectric potential associated with the movement of the right thigh of the wearer 12 and a leg that detects a bioelectric potential associated with the movement of the left thigh of the wearer 12. Body biosignal detection sensors 40a, 40b, leg biosignal detection sensors 42a, 42b for detecting biopotentials associated with the movement of the right knee, and leg biosignal detection sensors 44a for detecting biopotentials associated with the movement of the left knee. , 44b.

これらの各脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44bは、筋電位信号や神経伝達信号などの生体信号を検出する生体信号検出手段であり、微弱電位を検出するための電極(図示せず)を有する。尚、本実施例では、各脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44bは、電極の周囲を覆う粘着シールにより装着者12の皮膚表面に貼着するように取り付けられる。   Each of these leg biological signal detection sensors 38a, 38b, 40a, 40b, 42a, 42b, 44a, and 44b is a biological signal detecting means for detecting a biological signal such as a myoelectric potential signal or a nerve transmission signal. It has an electrode (not shown) for detection. In this embodiment, each of the leg biological signal detection sensors 38a, 38b, 40a, 40b, 42a, 42b, 44a, 44b is attached to the skin surface of the wearer 12 with an adhesive seal that covers the periphery of the electrode. Attached to.

人体においては、脳からの指令によって骨格筋を形成する筋肉の表面にシナプス伝達物質のアセチルコリンが放出される結果、筋線維膜のイオン透過性が変化して活動電位が発生する。そして、活動電位によって筋線維の収縮が発生し、筋力を発生させる。そのため、骨格筋の電位を検出することにより、歩行動作の際に生じる筋力を推測することが可能になり、推測された筋力に基づく仮想トルクから歩行動作に必要な補助動力を求めることが可能になる。   In the human body, acetylcholine, a synaptic transmitter, is released on the surface of muscles that form skeletal muscles according to instructions from the brain. As a result, the ionic permeability of muscle fiber membranes changes and action potentials are generated. The action potential causes contraction of muscle fibers and generates muscle force. Therefore, by detecting the potential of skeletal muscle, it is possible to estimate the muscular strength generated during the walking motion, and it is possible to obtain the auxiliary power necessary for the walking motion from the virtual torque based on the estimated muscular strength. Become.

従って、動作補助装置10では、制御装置36により脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44bによって検出された生体信号に基づいて4個の駆動モータ20,22,24,26に供給する駆動電流を求め、演算された駆動電流の供給により駆動モータ20,22,24,26を駆動制御する。これにより、動作補助装着フレーム18は、各駆動モータ20,22,24,26のトルクが伝達されて装着者12の歩行動作を補助するように駆動される。   Accordingly, in the motion assisting device 10, the four drive motors 20, 22 are based on the biological signals detected by the control device 36 by the leg biological signal detection sensors 38a, 38b, 40a, 40b, 42a, 42b, 44a, 44b. , 24, 26 is obtained, and the drive motors 20, 22, 24, 26 are controlled by supplying the calculated drive current. As a result, the motion assisting mounting frame 18 is driven so that the torque of each of the drive motors 20, 22, 24, and 26 is transmitted to assist the walking motion of the wearer 12.

また、制御装置36は、前述した装着型入力装置100の制御部130と信号線132を介して接続されている。尚、制御装置36と制御部130との間の通信は、信号線132による有線方式でも良いし、電波を用いた近接無線方式としても良い。   The control device 36 is connected to the control unit 130 of the wearable input device 100 described above via a signal line 132. Note that the communication between the control device 36 and the control unit 130 may be a wired system using the signal line 132 or a proximity wireless system using radio waves.

また、歩行動作による重心移動をスムーズに行うため、足の裏にかかる荷重を検出する必要がある。そのため、装着者12の左右足の裏に対応する位置には、床反力センサ50a,50b,52a,52b(図2A及び図2B中、破線で示す)が設けられている。   In addition, in order to smoothly move the center of gravity by a walking motion, it is necessary to detect a load applied to the sole of the foot. Therefore, floor reaction force sensors 50a, 50b, 52a, 52b (shown by broken lines in FIGS. 2A and 2B) are provided at positions corresponding to the left and right soles of the wearer 12.

また、床反力センサ50aは、右足前側の荷重に対する反力を検出し、床反力センサ50bは、右足後側の荷重に対する反力を検出する。床反力センサ52aは、左足前側の荷重に対する反力を検出し、床反力センサ52bは、左足後側の荷重に対する反力を検出する。各床反力センサ50a,50b,52a,52bは、例えば、印加された荷重に応じた電圧を出力する圧電素子などからなり、体重移動に伴う荷重変化、及び装着者12の脚と地面との接地の有無を夫々検出することができる。
〔頭部検出ユニット110の構成〕
図3Aは装着型入力装置100の頭部検出ユニット110の一例を示す斜視図である。図3Bは頭部検出ユニット110の装着状態を示す正面図である。図3Cは頭部検出ユニット110の装着状態を示す側面図である。
The floor reaction force sensor 50a detects a reaction force with respect to the load on the right foot front side, and the floor reaction force sensor 50b detects a reaction force with respect to the load on the right foot rear side. The floor reaction force sensor 52a detects a reaction force against the load on the left foot front side, and the floor reaction force sensor 52b detects a reaction force against the load on the left foot rear side. Each of the floor reaction force sensors 50a, 50b, 52a, and 52b includes, for example, a piezoelectric element that outputs a voltage corresponding to an applied load, and changes in load due to weight shift and between the legs of the wearer 12 and the ground. The presence or absence of grounding can be detected.
[Configuration of Head Detection Unit 110]
FIG. 3A is a perspective view illustrating an example of the head detection unit 110 of the wearable input device 100. FIG. 3B is a front view showing a mounting state of the head detection unit 110. FIG. 3C is a side view showing a mounting state of the head detection unit 110.

図3A〜図3Cに示されるように、頭部検出ユニット110は、例えば、樹脂製のフレーム112と、フレーム112の両端より下方に向けて曲げられた一対の当接部114L、114Rとを有する。フレーム112は装着者12の頭部13の後側に沿うようにU字状に形成されている。一対の当接部114L、114Rは、フレーム112によって一体に連結されており、装着者12の頭部13を左右両側から挟持するように設けられている。   As shown in FIGS. 3A to 3C, the head detection unit 110 includes, for example, a resin frame 112 and a pair of contact portions 114 </ b> L and 114 </ b> R bent downward from both ends of the frame 112. . The frame 112 is formed in a U shape so as to follow the rear side of the head 13 of the wearer 12. The pair of abutting portions 114L and 114R are integrally connected by a frame 112 and are provided so as to sandwich the head 13 of the wearer 12 from both the left and right sides.

当接部114L、114Rの当接位置は、装着者12の頭部13の耳と目との間に設定されている。この位置は、眼球を動作させる外眼筋の生体信号(眼電位)を検出しやすい位置である。   The contact positions of the contact portions 114L and 114R are set between the ears and eyes of the head 13 of the wearer 12. This position is a position where it is easy to detect a biological signal (ocular potential) of the extraocular muscles that operate the eyeball.

フレーム112の後部中央には、頭部動作検出手段150が設けられている。また、頭部動作検出手段150は、光ファイバまたはケーブルなどからなる信号線240を介して制御部130と接続されている。   Head motion detecting means 150 is provided at the center of the rear part of the frame 112. The head movement detection means 150 is connected to the control unit 130 via a signal line 240 made of an optical fiber or a cable.

図3Dは頭部検出ユニット10の外眼筋生体信号検出手段140を示す斜視図である。図3Dに示されるように、当接部114L、114Rの内面には、外眼筋生体信号検出手段140が設けられている。外眼筋生体信号検出手段140は、当該装着者12の眼球の動きに応じた外眼筋生体信号(眼電位)を検出する4つの電極140−1〜140−4を有する。また、各電極140−1〜140−4は、フレーム112の内部に挿通された信号線142(図3D中、破線で示す)及び上記信号線240を介して制御部130と接続されている。   FIG. 3D is a perspective view showing the extraocular muscle biosignal detection means 140 of the head detection unit 10. As shown in FIG. 3D, extraocular muscle biosignal detection means 140 is provided on the inner surfaces of the contact portions 114L and 114R. The extraocular muscle biosignal detection means 140 has four electrodes 140-1 to 140-4 for detecting an extraocular muscle biosignal (ocular potential) corresponding to the movement of the eyeball of the wearer 12. Each electrode 140-1 to 140-4 is connected to the control unit 130 via a signal line 142 (shown by a broken line in FIG. 3D) inserted into the frame 112 and the signal line 240.

図3Eは頭部検出ユニット110の当接部114L、114Rを示す斜視図である。図3Eに示されるように、当接部114L、114Rの外面には、表示部160L、160Rと、小型スピーカ250L、250Rとが設けられている。この表示部160L、160Rは、複数のLED(発光ダイオード)160−1、160−2からなり、外眼筋生体信号検出手段140によって検出された眼電位に基づいて歩行方向が左方向(左折)又は右方向(右折)と推定された場合に左側のLED160−1、160−2又は右側のLED160−1、160−2が点灯または点滅して報知することができる。LED160−1、160−2は、フレーム112の内部の挿通された信号線162を介して制御部130と接続されている。   FIG. 3E is a perspective view showing the contact portions 114L and 114R of the head detection unit 110. FIG. As shown in FIG. 3E, display portions 160L and 160R and small speakers 250L and 250R are provided on the outer surfaces of the contact portions 114L and 114R. The display units 160L and 160R are composed of a plurality of LEDs (light emitting diodes) 160-1 and 160-2, and the walking direction is the left direction (left turn) based on the electrooculogram detected by the extraocular muscle biosignal detection means 140. Alternatively, when it is estimated that the vehicle is in the right direction (right turn), the left LEDs 160-1 and 160-2 or the right LEDs 160-1 and 160-2 can be lit or blinked to notify. The LEDs 160-1 and 160-2 are connected to the control unit 130 through a signal line 162 inserted inside the frame 112.

また、小型スピーカ250L、250Rは、外眼筋生体信号検出手段140によって検出された眼電位に基づいて歩行方向が左方向(左折)又は右方向(右折)と推定された場合に、曲がる方向に確認音(例えば、ピッピなどの電子音)を発する。小型スピーカ250L、250Rは、フレーム112の内部の挿通された信号線232を介して制御部130と接続されている。   The small speakers 250L and 250R turn in the direction of turning when the walking direction is estimated to be the left direction (left turn) or the right direction (right turn) based on the electrooculogram detected by the extraocular muscle biosignal detection means 140. A confirmation sound (for example, an electronic sound such as a beep) is emitted. The small speakers 250 </ b> L and 250 </ b> R are connected to the control unit 130 through a signal line 232 inserted inside the frame 112.

尚、LED160−1、160−2の点滅と小型スピーカ250L、250Rの確認音は、どちらか一方を選択することもでき、両方とも作動させるように設定することもできる。表示部160L、160Rは、周囲の人に曲がる方向を表示することができるので、例えば、リハビリテーションを行なう際に介護士や訓練士に曲がる方向を予告することができる。また、小型スピーカ250L、250Rの確認音によって、装着者12が盲人あるいは視力の弱い弱視の場合に、装着型入力装置100が曲がる方向を認知したことを確認音で報知することができる。   Note that either one of the blinking LEDs 160-1 and 160-2 and the confirmation sound of the small speakers 250L and 250R can be selected, or both can be set to operate. Since the display units 160L and 160R can display the direction of the turn to surrounding people, for example, when performing rehabilitation, the caregiver or the trainer can be notified of the turn direction. Further, the confirmation sound of the small speakers 250L and 250R can inform the confirmation sound that the wearable input device 100 has recognized the direction of bending when the wearer 12 is blind or has weak eyesight.

図4は眼球300を動かす外眼筋310と眼電位を検出する各電極140−1〜140−4との位置関係を示す図である。図4に示されるように、本実施形態では、頭部13のこめかみ付近の被検出領域(図4中、破線で示す所定領域)Aに各電極140−1〜140−4を配置する。   FIG. 4 is a diagram showing the positional relationship between the extraocular muscle 310 that moves the eyeball 300 and the electrodes 140-1 to 140-4 that detect the electrooculogram. As shown in FIG. 4, in this embodiment, the electrodes 140-1 to 140-4 are arranged in a detection area (a predetermined area indicated by a broken line in FIG. 4) A near the temple of the head 13.

眼球300は、外眼筋310の筋力によって動作して視線の向きを変えることができる。そして、眼球300を動かす際に外眼筋310から発生する外眼筋生体信号(眼電位)は、1対の電極間、すなわち2つの電極で取得した信号間の電位差により取得される。したがって、図4に示ように電極140−1と140−2とで1つの生体信号取得部(1チャンネル)を構成し、電極140−3と140−4とで1つの生体信号取得部(1チャンネル)を構成する。なお、本実施形態では、外眼筋生体信号検出手段140は、左右それぞれに2つずつ、左右両側で合計4チャンネルの生体信号を取得する。なお、本発明における電極の設置個数については、これに限定されるわけではない。   The eyeball 300 can be operated by the muscle strength of the extraocular muscle 310 to change the direction of the line of sight. The extraocular muscle biological signal (ocular potential) generated from the extraocular muscle 310 when the eyeball 300 is moved is acquired by a potential difference between a pair of electrodes, that is, a signal acquired by two electrodes. Therefore, as shown in FIG. 4, the electrodes 140-1 and 140-2 constitute one biological signal acquisition unit (one channel), and the electrodes 140-3 and 140-4 include one biological signal acquisition unit (1 Channel). In the present embodiment, the extraocular muscle biological signal detection means 140 acquires biological signals of a total of four channels on both the left and right sides, two on each of the left and right sides. The number of electrodes installed in the present invention is not limited to this.

上述した図4に示すように、各電極140−1〜140−4の位置は、こめかみ付近の被検出領域Aに設定されることにより、対面している人には、違和感を与えずに眼球300の動作方向に応じた外眼筋生体信号(眼電位)を取得することができる。   As shown in FIG. 4 described above, the positions of the electrodes 140-1 to 140-4 are set in the detection area A in the vicinity of the temples, so that the eyeballs do not give a strange feeling to the person facing them. External eye muscle biosignals (ocular potentials) corresponding to 300 operating directions can be acquired.

また、各電極140−1〜140−4から得られる検出位置と信号の位相差及び、取得した信号の周波数(例えば、1Hz〜15Hz、600Hz〜700Hzの範囲)から外眼筋310の何処の筋肉の信号であるかを特定することができ、直接的にノイズ等の影響を受けずに外眼筋生体信号(眼電位)を取得することができる。   Further, any muscle of the extraocular muscle 310 from the detection position and signal phase difference obtained from each of the electrodes 140-1 to 140-4 and the frequency of the acquired signal (for example, in the range of 1 Hz to 15 Hz, 600 Hz to 700 Hz). Therefore, it is possible to obtain an external eye muscle biological signal (ocular potential) without being directly affected by noise or the like.

なお、本実施形態における外眼筋生体信号のチャンネル取得数は、複数であればよく、本発明においては特に制限されるものではないが、多すぎると装着時に顔面に邪魔になるため、2〜8チャンネル程度でよく、特に4チャンネルが好ましい。   It should be noted that the number of acquired external eye muscle biosignal channels in the present embodiment may be plural, and is not particularly limited in the present invention. It may be about 8 channels, and 4 channels are particularly preferable.

また、装着者12の顔面に対して視界の邪魔にならない配置を実現するという観点から、1つの電極は、例えば直径が約2〜10mm程度が好ましく、対を形成する各電極間の距離は、例えば約20mm程度が好ましい。また、各電極140−1〜140−4は、装着者12の顔面に対して縦に略直線的に配置されることが好ましいが、本発明においては特に制限されるものではない。
〔眼球300を動かす外眼筋310について〕
ここで、眼球300を動かす外眼筋310の種類及び動作方向との関係について説明する。図5は外眼筋310による眼球300の動作方向を示す図である。尚、図5では、装着者12の左目を正面からみた眼球300を拡大して示しており、右目の各外眼筋の配置は左目の外眼筋310の配置と左右対称になる。
Further, from the viewpoint of realizing an arrangement that does not obstruct the field of view of the wearer 12, one electrode preferably has a diameter of about 2 to 10 mm, for example, and the distance between each electrode forming a pair is For example, about 20 mm is preferable. Moreover, although it is preferable that each electrode 140-1 to 140-4 is arrange | positioned substantially linearly with respect to the wearer's 12 face, it is not restrict | limited in particular in this invention.
[Regarding the extraocular muscle 310 that moves the eyeball 300]
Here, the relationship between the type of external eye muscle 310 that moves the eyeball 300 and the movement direction will be described. FIG. 5 is a diagram illustrating the movement direction of the eyeball 300 by the extraocular muscle 310. 5 shows an enlarged view of the eyeball 300 when the left eye of the wearer 12 is viewed from the front, and the arrangement of each external eye muscle of the right eye is bilaterally symmetrical with the arrangement of the external eye muscle 310 of the left eye.

図5に示されるように、眼球300を動かす外眼筋310は、上直筋、下直筋、内側直筋、外側直筋、上斜筋、下斜筋の6つの筋力に組み合わせによって各方向に動作して視線方向を変化させる。(1)上直筋は上内側(UR方向)に動作させる筋肉、(2)下直筋は下内側(DR方向)に動作させる筋肉、(3)内側直筋は内側(R方向)に動作させる筋肉、(4)外側直筋は外側(L方向)に動作させる筋肉、(5)上斜筋は下外側(DL方向)に動作させる筋肉、(6)下斜筋は上外側(UL方向)に動作させる筋肉である。   As shown in FIG. 5, the extraocular muscles 310 that move the eyeball 300 are in each direction according to combinations of six muscle strengths of the superior rectus muscle, the inferior rectus muscle, the medial rectus muscle, the lateral rectus muscle, the upper oblique muscle, and the lower oblique muscle. To change the line-of-sight direction. (1) The upper rectus muscle moves in the upper inner side (UR direction), (2) The lower rectus muscle moves in the lower inner side (DR direction), and (3) the inner rectus muscle moves in the inner side (R direction). (4) Muscle that moves outward (L direction), (5) Muscle that moves downward (DL direction), (6) Muscle that moves downward (UL direction) ) Is the muscle that moves.

尚、右目の場合、上記左目の外眼筋310の(1)〜(6)の筋肉の左右方向が逆になり、内側が外側に、外側が内側に置き換わる。   In the case of the right eye, the left and right muscles (1) to (6) of the left eye extraocular muscle 310 are reversed, and the inside is replaced with the outside and the outside is replaced with the inside.

また、外眼筋310の6種類の各筋力発生時には、(1)〜(6)の筋肉において、各外眼筋生体信号(眼電位)が発生する。   Further, when each of the six types of muscle strength of the extraocular muscle 310 is generated, each extraocular muscle biosignal (ocular potential) is generated in the muscles (1) to (6).

図6は外眼筋の動作に伴う眼電位の検出信号を示す波形図である。図6に示されるように、前述した左目の外眼筋310を構成する(1)〜(6)の筋肉は、眼球300の動作方向に応じた外眼筋生体信号(眼電位)を発生する。   FIG. 6 is a waveform diagram showing an ocular potential detection signal accompanying the operation of the extraocular muscles. As shown in FIG. 6, the muscles (1) to (6) constituting the left eye extraocular muscle 310 generate an extraocular muscle biosignal (ocular potential) corresponding to the movement direction of the eyeball 300. .

図6のT1で眼球300が内側(R方向)に動作するときは、内側直筋が外眼筋生体信号(眼電位)を発生する。   When the eyeball 300 moves inward (R direction) at T1 in FIG. 6, the rectus muscle inside generates an extraocular muscle biosignal (ocular potential).

図6のT2で、眼球300が内側の上側(UR方向)に動作するときは、内側直筋及び上直筋が外眼筋生体信号(眼電位)を発生する。   At T2 in FIG. 6, when the eyeball 300 moves to the inner upper side (UR direction), the inner rectus muscle and the upper rectus muscle generate extraocular muscle biosignals (ocular potential).

図6のT3で、眼球300が内側の下側(DR方向)に動作するときは、内側直筋及び下直筋が外眼筋生体信号(眼電位)を発生する。   At T3 in FIG. 6, when the eyeball 300 moves to the inner lower side (DR direction), the inner rectus muscle and the lower rectus muscle generate extraocular muscle biosignals (ocular potential).

図6のT4で、眼球300が外側(L方向)に動作するときは、外側直筋が外眼筋生体信号(眼電位)を発生する。   When the eyeball 300 moves outward (L direction) at T4 in FIG. 6, the lateral rectus muscle generates an extraocular muscle biosignal (ocular potential).

図6のT5で、眼球300が外側の上側(UL方向)に動作するときは、外側直筋及び下斜筋が外眼筋生体信号(眼電位)を発生する。   At T5 in FIG. 6, when the eyeball 300 moves outward (upward in the UL direction), the external rectus and lower oblique muscles generate extraocular muscle biosignals (ocular potential).

図6のT6で、眼球300が外側の下側(DL方向)に動作するときは、外側直筋及び上斜筋が外眼筋生体信号(眼電位)を発生する。   At T6 in FIG. 6, when the eyeball 300 moves outward (DL direction), the lateral rectus muscle and the superior oblique muscle generate extraocular muscle biosignals (ocular potential).

このように、外眼筋310を構成する(1)〜(6)の筋肉からの外眼筋生体信号(眼電位)を外眼筋生体信号検出手段140により検出することで、当該装着者12の眼球300の動作方向(視線方向)を検出することができる。   As described above, the external eye muscle biosignal (ocular potential) from the muscles (1) to (6) constituting the external eye muscle 310 is detected by the external eye muscle biosignal detection means 140, thereby the wearer 12. The movement direction (gaze direction) of the eyeball 300 can be detected.

本実施の形態では、頭部検出ユニット110の外眼筋生体信号検出手段140が頭部13の両側のこめかみ付近を被検出領域A(図4を参照)としているため、頭部検出ユニット110の当接部114L、114Rの内側に配された各電極140−1〜140−4は、左目の外側の眼電位、右目の外側の外眼筋生体信号(眼電位)を検出することになる。従って、左側の当接部114Lの各電極140−1〜140−4が外眼筋生体信号(眼電位)を検出した場合は、眼球300が左方向をみるように動作し、右側の接部114Rの各電極140−1〜140−4が外眼筋生体信号(眼電位)を検出した場合は、眼球300が右方向をみるように動作したことを検出できる。また、一対の当接部114L、114Rの各電極140−1〜140−4が検出した外眼筋生体信号(眼電位)が等しい場合には、左右の眼球300が共に正面をみていることを検出できる。   In the present embodiment, the extraocular muscle biosignal detection means 140 of the head detection unit 110 uses the vicinity of the temples on both sides of the head 13 as the detection area A (see FIG. 4). The electrodes 140-1 to 140-4 arranged inside the contact portions 114 </ b> L and 114 </ b> R detect an ocular potential outside the left eye and an extraocular muscle biosignal (ocular potential) outside the right eye. Therefore, when each electrode 140-1 to 140-4 of the left contact portion 114L detects an extraocular muscle biosignal (ocular potential), the eyeball 300 operates to look leftward, and the right contact portion When each of the electrodes 140-1 to 140-4 of 114R detects an extraocular muscle biological signal (ocular potential), it can be detected that the eyeball 300 is operated to look rightward. In addition, when the extraocular muscle biological signals (ocular potentials) detected by the electrodes 140-1 to 140-4 of the pair of contact portions 114L and 114R are equal, it is determined that both the left and right eyeballs 300 are looking in front. It can be detected.

そのため、装着者12の眼球300の動作方向(視線方向)を各電極140−1〜140−4によって検出することができるので、これらの検出信号に基づいて装着者12の歩行動作方向を予測することが可能になる。
〔動作補助装置10による歩行支援の動作〕
図7Aは装着者12が前方へ歩行する様子を模式的に示す平面図である。図7Aに示されるように、装着者12が前方へ歩行する場合、進行方向である前方をみながら歩行動作を行なう。そのため、頭部13の顔面が正面(進行方向)を向いていると共に、左右の両目も正面(進行方向)を向いている。
Therefore, since the movement direction (gaze direction) of the eyeball 300 of the wearer 12 can be detected by the electrodes 140-1 to 140-4, the walking movement direction of the wearer 12 is predicted based on these detection signals. It becomes possible.
[Operation of walking support by movement assist device 10]
FIG. 7A is a plan view schematically showing the wearer 12 walking forward. As shown in FIG. 7A, when the wearer 12 walks forward, the wearer 12 performs a walking motion while looking at the front in the traveling direction. Therefore, the face of the head 13 faces the front (traveling direction), and both the left and right eyes also face the front (traveling direction).

この場合、視線方向判別手段170では、頭部検出ユニット110の一対の当接部114L、114Rに設けられた各電極140−1〜140−4から得られた外眼筋生体信号(眼電位)が等しくなるため、左右の眼球300が共に正面をみていることを判別できる。   In this case, the gaze direction discriminating means 170 is an extraocular muscle biosignal (ocular potential) obtained from the electrodes 140-1 to 140-4 provided on the pair of contact portions 114L and 114R of the head detecting unit 110. Therefore, it can be determined that both the left and right eyeballs 300 are looking at the front.

また、頭部動作方向判別手段180は、頭部検出ユニット110の後部に設けられた頭部動作検出手段150により得られた頭部検出信号と装着者12の背中に配された体幹位置検出手段120により得られた体幹位置検出信号との差がなく、殆ど等しいことから当該装着者12の頭部13の向き(首振り方向)が正面であると判別する。   The head movement direction discriminating means 180 also detects the head position detected by the head movement detection means 150 provided at the rear of the head detection unit 110 and the trunk position detected on the back of the wearer 12. Since there is no difference from the trunk position detection signal obtained by the means 120 and they are almost equal, it is determined that the direction (swinging direction) of the head 13 of the wearer 12 is the front.

図7Bは装着者12が前方へ歩行しながら左方向を視認する様子を模式的に示す平面図である。図7Bに示されるように、装着者12は歩行中に左方向をみた場合、頭部13が左方向に向くと共に、左右の両目も左方向を向いている。   FIG. 7B is a plan view schematically showing how the wearer 12 visually recognizes the left direction while walking forward. As shown in FIG. 7B, when the wearer 12 looks to the left while walking, the head 13 is directed to the left and both the left and right eyes are also directed to the left.

この場合、視線方向判別手段170では、頭部検出ユニット110の左側の当接部114Lに設けられた各電極140−1〜140−4から外眼筋生体信号(眼電位)が得られるため、左右の眼球300が共に左方向をみていることを判別できる。   In this case, the gaze direction discriminating means 170 obtains an external eye muscle biosignal (ocular potential) from each of the electrodes 140-1 to 140-4 provided on the left contact portion 114L of the head detecting unit 110. It can be determined that both the left and right eyeballs 300 are looking left.

また、頭部動作方向判別手段180は、頭部検出ユニット110の後部に設けられた頭部動作検出手段150により得られた頭部検出信号と装着者12の背中に配された体幹位置検出手段120により得られた体幹位置検出信号との水平方向の差が角度α1になるため、当該装着者12の頭部13が左方向を向いていると判別する。   The head movement direction discriminating means 180 also detects the head position detected by the head movement detection means 150 provided at the rear of the head detection unit 110 and the trunk position detected on the back of the wearer 12. Since the difference in the horizontal direction from the trunk position detection signal obtained by the means 120 is the angle α1, it is determined that the head 13 of the wearer 12 is facing leftward.

図7Cは装着者12が視認した左方向へ曲がる様子を模式的に示す平面図である。図7に示されるように、装着者12が左方向へ曲がる場合、内側となる左足の歩幅が小さくなり、外側となる右足の歩幅が大きくなると共に、内側の左足の蹴る力が弱く外側の右足が蹴る力が強くなる。そして、装着者12の体全体が左方向に向くため、左右の眼球300が共に左方向をみたまま、頭部検出ユニット110の後部に設けられた頭部動作検出手段150により得られた頭部検出信号と装着者12の背中に配された体幹位置検出手段120により得られた体幹位置検出信号との水平方向の差が角度α2になる(α1>α2)。   FIG. 7C is a plan view schematically showing a state of turning to the left as viewed by the wearer 12. As shown in FIG. 7, when the wearer 12 turns to the left, the stride of the left foot on the inside is reduced, the stride of the right foot on the outside is increased, and the kicking force of the left foot on the inside is weak, so that the outer right foot is weak. Increases the kicking power. Since the entire body of the wearer 12 faces leftward, the head obtained by the head motion detecting means 150 provided at the rear of the head detecting unit 110 with both the left and right eyeballs 300 looking leftward. The difference in the horizontal direction between the detection signal and the trunk position detection signal obtained by the trunk position detection means 120 disposed on the back of the wearer 12 is an angle α2 (α1> α2).

そして、装着者12の体全体が左方向に向くと、頭部13及び両目の視線方向が体の正面を向いた状態(図7Aを参照)になる。
〔装着型入力装置の制御部が実行する制御処理〕
図8は装着型入力装置100の制御部130が実行する制御処理を説明するためのフローチャートである。図8に示されるように、S11では、頭部検出ユニット110の当接部114L、114Rに設けられた各電極140−1〜140−4から得られた外眼筋生体信号(眼電位)を読み込む(眼電位抽出手段172)。
And when the wearer's 12 whole body turns to the left direction, it will be in the state (refer FIG. 7A) to which the gaze direction of the head 13 and both eyes faced the front of the body.
[Control processing executed by the control unit of the wearable input device]
FIG. 8 is a flowchart for explaining control processing executed by the control unit 130 of the wearable input device 100. As shown in FIG. 8, in S11, extraocular muscle biosignals (ocular potentials) obtained from the electrodes 140-1 to 140-4 provided on the contact portions 114L and 114R of the head detection unit 110 are obtained. Read (ocular potential extracting means 172).

続いて、S12に進み、各電極140−1〜140−4により検出された外眼筋生体信号(眼電位)が予め設定された所定時間経過(例えば、1秒以上)しても一定値以上であるか否かをチェックする。S12において、各電極140−1〜140−4により検出された外眼筋生体信号(眼電位)が予め設定された所定時間経過(例えば、1秒以上)しても一定値以上でない場合(NOの場合)は、視線を動かしただけなので、S11の処理に戻る。また、S12において、各電極140−1〜140−4により検出された外眼筋生体信号(眼電位)が予め設定された所定時間経過(例えば、1秒以上)しても一定値以上である場合(YESの場合)は、S13の処理に進み、眼球の動作方向を判別する(眼球動作方向判定手段174)。尚、眼球動作方向の判定処理方法は、前述した図5及び図6を参照して説明したように、頭部検出ユニット110の当接部114L、114Rに設けられた各電極140−1〜140−4で検出された外眼筋生体信号に基づいて判定される。   Subsequently, the process proceeds to S12, and the extraocular muscle biosignal (ocular potential) detected by each of the electrodes 140-1 to 140-4 exceeds a predetermined value even if a predetermined time elapses (for example, 1 second or more). It is checked whether or not. In S12, when the extraocular muscle biosignal (ocular potential) detected by each of the electrodes 140-1 to 140-4 does not exceed a predetermined value even after a predetermined time has elapsed (for example, 1 second or longer) (NO) In the case of (), since the line of sight has only been moved, the process returns to S11. In S12, the extraocular muscle biosignal (ocular potential) detected by each of the electrodes 140-1 to 140-4 is equal to or greater than a predetermined value even after a predetermined time elapses (for example, 1 second or longer). In the case (in the case of YES), the process proceeds to S13, and the movement direction of the eyeball is determined (eyeball movement direction determination means 174). As described with reference to FIG. 5 and FIG. 6 described above, the eyeball movement direction determination processing method uses the electrodes 140-1 to 140-1 provided in the contact portions 114L and 114R of the head detection unit 110. It is determined based on the extraocular muscle biological signal detected at -4.

左側の当接部114Lの各電極140−1〜140−4が外眼筋生体信号を検出し、右側の当接部114Rの各電極140−1〜140−4が外眼筋生体信号を検出しなかった場合は、眼球動作方向が左方向と判定される。また、右側の当接部114Rの各電極140−1〜140−4が外眼筋生体信号を検出し、左側の当接部114Lの各電極140−1〜140−4が外眼筋生体信号を検出しなかった場合は、眼球動作方向が右方向と判定される。また、左右の各電極140−1〜140−4が共に外眼筋生体信号を検出しなかった場合は、眼球動作方向が正面(前方)と判定される。   Each electrode 140-1 to 140-4 of the left contact portion 114L detects an extraocular muscle biological signal, and each electrode 140-1 to 140-4 of the right contact portion 114R detects an extraocular muscle biological signal. If not, the eye movement direction is determined to be the left direction. Further, the electrodes 140-1 to 140-4 of the right contact portion 114R detect the extraocular muscle biological signal, and the electrodes 140-1 to 140-4 of the left contact portion 114L detect the extraocular muscle biological signal. Is not detected, it is determined that the eye movement direction is the right direction. Further, when the left and right electrodes 140-1 to 140-4 do not detect any extraocular muscle biological signal, the eyeball movement direction is determined to be the front (front).

続いて、S14では、当該装着者12の背中に配された体幹位置検出手段120(第1のジャイロセンサ)により検出された3次元信号(検出信号A)を読み込む。次のS15では、頭部検出ユニット110のフレーム112の後部に設けられた頭部動作検出手段150(第2のジャイロセンサ)により検出された頭部動作位置信号(検出信号B)を読み込む。尚、頭部動作検出手段150は、頭部の動作方向が検出できればよいので、ジャイロセンサに限らず、例えば、位置変位センサ、加速度センサでも良い。   Subsequently, in S14, a three-dimensional signal (detection signal A) detected by the trunk position detection means 120 (first gyro sensor) arranged on the back of the wearer 12 is read. In next S15, the head movement position signal (detection signal B) detected by the head movement detection means 150 (second gyro sensor) provided at the rear of the frame 112 of the head detection unit 110 is read. The head motion detection unit 150 is not limited to a gyro sensor, and may be, for example, a position displacement sensor or an acceleration sensor, as long as the head motion direction can be detected.

S16では、各検出信号AとBとの差から頭部動作方向を判別する(頭部動作方向判別手段180)。尚、S16における頭部動作方向判別処理においては、例えば、頭部動作検出手段150に位置変位センサを用いた場合、位置変位センサにより頭部13の変位量と変位方向(検出信号B)が検出されるため、体幹位置検出手段120の第1のジャイロセンサから得られた3次元信号(検出信号A)を基準値(体幹位置)として頭部13の動作方向(変位方向)を判別できる。また、S16における頭部動作方向判別処理においては、例えば、頭部動作検出手段150に加速度センサを用いた場合、加速度センサにより頭部13の動作に応じた加速度信号(検出信号B)が得られるため、加速度と加速方向が検出されるため、体幹位置検出手段120の第1のジャイロセンサから得られた3次元信号(検出信号A)を基準値(体幹)として頭部13の動作方向(加速方向)を判別できる。   In S16, the head movement direction is determined from the difference between the detection signals A and B (head movement direction determination means 180). In the head movement direction determination processing in S16, for example, when a position displacement sensor is used for the head movement detection means 150, the displacement amount and the displacement direction (detection signal B) of the head 13 are detected by the position displacement sensor. Therefore, the movement direction (displacement direction) of the head 13 can be determined using the three-dimensional signal (detection signal A) obtained from the first gyro sensor of the trunk position detection means 120 as a reference value (trunk position). . Further, in the head movement direction determination process in S16, for example, when an acceleration sensor is used for the head movement detection unit 150, an acceleration signal (detection signal B) corresponding to the movement of the head 13 is obtained by the acceleration sensor. Therefore, since the acceleration and the acceleration direction are detected, the movement direction of the head 13 using the three-dimensional signal (detection signal A) obtained from the first gyro sensor of the trunk position detection means 120 as a reference value (trunk). (Acceleration direction) can be determined.

また、S16における頭部動作方向判別処理においては、例えば、頭部動作検出手段150に第2のジャイロセンサを用いた場合、体幹位置検出手段120の第1のジャイロセンサから得られた3次元信号(検出信号A)を基準値として頭部動作検出手段150の第2のジャイロセンサから得られた3次元信号(検出信号B)との差から頭部13の動作方向を左右方向及び上下方向で判別することが可能になる。従って、装着者12が前進、左折、右折などの歩行動作だけでなく、階段の昇り降りの動作や、椅子に座った状態から立ち上がる場合の上下方向の動作にも対応することができる。   Further, in the head movement direction determination process in S16, for example, when the second gyro sensor is used for the head movement detection unit 150, the three-dimensional obtained from the first gyro sensor of the trunk position detection unit 120 is used. Based on the difference from the three-dimensional signal (detection signal B) obtained from the second gyro sensor of the head movement detection means 150 using the signal (detection signal A) as a reference value, the movement direction of the head 13 is determined in the horizontal and vertical directions. It becomes possible to discriminate with. Therefore, the wearer 12 can cope not only with walking movements such as forward, left turn, and right turn, but also with up and down stairs and up and down movements when standing up from a chair.

続いて、S17に進み、上記S13で判別された眼球動作方向と、上記S16で判別された頭部動作方向とが一致するか否かをチェックする。S17において、上記S13で判別された眼球動作方向と、上記S16で判別された頭部動作方向とが一致しない場合(NOの場合)は、当該装着者12が歩行方向を変更せず、前進を維持するものとしてS11の処理に戻る。   Subsequently, the process proceeds to S17, and it is checked whether or not the eye movement direction determined in S13 matches the head movement direction determined in S16. In S17, when the eye movement direction determined in S13 and the head movement direction determined in S16 do not match (in the case of NO), the wearer 12 does not change the walking direction and moves forward. It returns to the process of S11 as what is maintained.

また、S17において、上記S13で判別された眼球動作方向と、上記S16で判別された頭部動作方向とが一致する場合は、S18に進み、当該装着者12がその一致する方向(前進、左折、右折の何れか)に歩行するものと推定する(動作方向推定手段190)。   In S17, if the eye movement direction determined in S13 matches the head movement direction determined in S16, the process proceeds to S18 and the wearer 12 moves in the matching direction (forward, left turn). It is estimated that the person walks on the right side (motion direction estimation means 190).

次のS19では、上記S18の推定結果を動作補助装置10の制御装置36に入力する。これにより、動作補助装置10の制御装置36では、当該装着者12の歩行動作方向を予測することが可能になる。
〔装着式動作補助装置10の制御処理〕
次に動作補助装置10のおける制御処理について説明する。
In next S19, the estimation result in S18 is input to the control device 36 of the motion assisting device 10. Thereby, the control device 36 of the motion assisting device 10 can predict the walking motion direction of the wearer 12.
[Control processing of the wearable motion assist device 10]
Next, control processing in the motion assisting device 10 will be described.

図9は装着式動作補助装置10の制御装置36が実行する制御処理を説明するためのフローチャートである。図9に示されるように、制御装置36は、S21で装着型入力装置100の制御部130から動作方向の推定結果が入力されたか否かをチェックする。S21において、制御部130から動作方向の推定結果(前進、左折、右折の何れか)が入力された場合(YESの場合)は、S22に進み、動作方向の推定結果(前進、左折、右折の何れか)に応じた動作プログラム及び制御パラメータをデータベースから読み込み、当該推定された動作方向に応じた制御処理の事前準備を行なう。   FIG. 9 is a flowchart for explaining a control process executed by the control device 36 of the wearable motion assisting device 10. As shown in FIG. 9, the control device 36 checks whether or not the motion direction estimation result is input from the control unit 130 of the wearable input device 100 in S21. In S21, when the motion direction estimation result (forward, left turn, or right turn) is input from the control unit 130 (in the case of YES), the process proceeds to S22, and the motion direction estimation result (forward, left turn, right turn). The operation program and the control parameter corresponding to any one) are read from the database, and the control process according to the estimated operation direction is prepared in advance.

次のS23では、当該装着者12の脚部に装着された各脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44b(図2A、図2Bを参照)により検出された筋電位信号や神経伝達信号などの生体信号、及び床反力センサ50a,50b,52a,52bの検出信号を読み込む。   In the next S23, the leg biosignal detection sensors 38a, 38b, 40a, 40b, 42a, 42b, 44a, 44b (see FIGS. 2A and 2B) attached to the legs of the wearer 12 are detected. Biological signals such as myoelectric potential signals and nerve transmission signals, and detection signals of the floor reaction force sensors 50a, 50b, 52a, 52b are read.

続いて、S24では、各脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44bにより検出された脚部生体信号及び床反力センサ50a,50b,52a,52bの検出信号(重心位置)に基づいて各モータ20,22,24,26のトルクを演算する。次のS25では、前述した動作方向の推定結果が前進の場合は、S24の演算結果に基づいて右側の各モータ20,24のトルクと左側の各モータ22,26のトルクとが等しくなるように制御する。また、動作方向の推定結果が左折の場合は、S24の演算結果に基づいて左方向に曲がる際の内側となるモータ22,26のトルクが小さくなるように制御し、外側となるモータ20、24のトルクが大きくなるように制御する。   Subsequently, in S24, detection of leg biosignals and floor reaction force sensors 50a, 50b, 52a, 52b detected by the leg biosignal detection sensors 38a, 38b, 40a, 40b, 42a, 42b, 44a, 44b. The torque of each motor 20, 22, 24, 26 is calculated based on the signal (center of gravity position). In the next S25, if the above-described estimation result of the operation direction is forward, the torque of the right motors 20, 24 and the torque of the left motors 22, 26 are made equal based on the calculation result of S24. Control. When the estimation result of the operation direction is a left turn, control is performed so that the torque of the motors 22 and 26 on the inner side when turning left is reduced based on the calculation result of S24, and the motors 20 and 24 on the outer side are controlled. The torque is controlled so as to increase.

また、動作方向の推定結果が右折の場合は、S24の演算結果に基づいて右方向に曲がる際の外側となるモータ22,26のトルクが大きくなるように制御し、内側となるモータ20、24のトルクが小さくなるように制御する。このように、装着者12は、歩行動作方向を目視するように動作(眼球動作及び頭部動作)することで、装着型入力装置100より歩行動作方向の推定結果が動作補助装置10に入力されるため、動作補助装置10により直進の場合も、左折、右折の場合も安定的且つスムーズに歩行動作がアシストされる。   Further, when the motion direction estimation result is a right turn, control is performed so that the torque of the motors 22 and 26 on the outer side when turning right is increased based on the calculation result of S24, and the motors 20 and 24 on the inner side are controlled. The torque is controlled to be small. As described above, the wearer 12 operates so as to visually observe the walking motion direction (eyeball motion and head motion), whereby the estimation result of the walking motion direction is input to the motion assisting device 10 from the wearable input device 100. Therefore, the walking assistance is assisted stably and smoothly by the motion assisting device 10 both in the case of going straight ahead, and in the case of turning left or right.

また、制御部130から動作方向の推定結果(前進、左折、右折の何れか)が入力された場合は、動作方向を変更する前に予告されるため、制御装置36によるモータ制御が迅速に行えるので、急な歩行動作の場合でも制御遅れが発生せず、装着者12の歩行アシスト、歩行訓練(訓練士によるリハビリテーションを含む)を安定的且つスムーズに行える。   In addition, when the motion direction estimation result (forward, left turn, or right turn) is input from the control unit 130, a warning is given before the motion direction is changed. Therefore, control delay does not occur even in a sudden walking motion, and the walking assist and walking training (including rehabilitation by a trainer) of the wearer 12 can be performed stably and smoothly.

上記S21において、制御部130から動作方向の推定結果(前進、左折、右折の何れか)が入力されない場合(NOの場合)は、通常の制御処理が行なわれる。すなわち、S26に進み、当該装着者12の脚部に装着された各脚部生体信号検出センサ38a,38b,40a,40b,42a,42b,44a,44b(図2A、図2Bを参照)により検出された筋電位信号や神経伝達信号などの生体信号を読み込む。   In S21, when the estimation result of the movement direction (any of forward, left turn, and right turn) is not input from the control unit 130 (in the case of NO), normal control processing is performed. That is, it progresses to S26 and is detected by each leg biosignal detection sensor 38a, 38b, 40a, 40b, 42a, 42b, 44a, 44b (refer FIG. 2A, FIG. 2B) with which the said wearer 12 was mounted | worn. Read biosignals such as myoelectric potential signals and nerve transmission signals.

次のS27では、各モータの回転角を検出する角度センサの検出信号、及び床反力センサ50a,50b,52a,52bの検出信号を読み込む。続いて、S28に進み、各脚部生体信号検出センサ及び各関節の角度センサの検出信号及び床反力センサ50a,50b,52a,52bの検出信号(重心位置)に基づいて動作パターン(各動作のフェーズ)に応じた制御プログラム及び制御パラメータをデータベースから読み込む。   In next S27, the detection signal of the angle sensor for detecting the rotation angle of each motor and the detection signals of the floor reaction force sensors 50a, 50b, 52a, 52b are read. Subsequently, the process proceeds to S28, in which an action pattern (each action The control program and control parameters corresponding to the phase are read from the database.

S29では、S28で読み込まれた制御プログラム及び制御パラメータ及び各脚部生体信号を用いて各モータ20,22,24,26のトルクを演算する。次のS30では、S29の演算結果により脚部生体信号に基づいて各モータ20,22,24,26のトルクを制御する。このように、制御部130から動作方向の推定結果(前進、左折、右折の何れか)が入力されない場合は、装着者12が歩行動作を行なう際の脚部生体信号に基づいて各モータ20,22,24,26のトルクを制御するため、モータトルクの演算処理に時間がかかり、制御遅れが発生するおそれがある。   In S29, the torques of the motors 20, 22, 24, and 26 are calculated using the control program and control parameters read in S28 and the leg biological signals. In next S30, the torque of each motor 20, 22, 24, 26 is controlled based on the leg biological signal based on the calculation result of S29. As described above, when the motion direction estimation result (forward, left turn, or right turn) is not input from the control unit 130, the motor 20, based on the leg biological signal when the wearer 12 performs the walking motion. Since the torques 22, 24, and 26 are controlled, it takes time to calculate the motor torque, which may cause a control delay.

上記説明では、装着型入力装置100により歩行動作方向を推定する場合について説明したが、歩行動作以外にも、例えば、椅子に座った状態から立ち上がる動作を眼球300の上下方向の動きから予測することも可能であり、あるいは階段の昇り、降り動作を予測することも可能である。   In the above description, the case where the walking motion direction is estimated by the wearable input device 100 has been described. However, in addition to the walking motion, for example, the motion of standing up from a chair is predicted from the vertical motion of the eyeball 300. It is also possible to predict the ascending / descending movement of the stairs.

上記実施の形態では、装着式動作補助装置10を人支援装置として用いた場合を一例として挙げたが、例えば、装着型入力装置100からの推定結果を電動車椅子あるいは介護用電気自動車等の車両の制御装置に入力する構成として良い。この場合、装着型入力装置100によって電動車椅子等の車両の進行方向を制御することが可能になる。   In the above-described embodiment, the case where the wearable movement assist device 10 is used as a human support device has been described as an example. For example, the estimation result from the wearable input device 100 is used as the result of a vehicle such as an electric wheelchair or a care electric vehicle. It is good also as a structure input into a control apparatus. In this case, the traveling direction of the vehicle such as the electric wheelchair can be controlled by the wearable input device 100.

また、装着型入力装置100からの推定結果を介護ロボットや所定の作業を行なう作業ロボットの制御装置に入力することで、介護ロボットや作業ロボットの動作方向を予告することが可能になる。   In addition, by inputting the estimation result from the wearable input device 100 to the control device of the care robot or the work robot that performs a predetermined work, it is possible to give a notice of the operation direction of the care robot or the work robot.

10 装着式動作補助装置
12 装着者
13 頭部
18 動作補助装着フレーム
20,22,24,26 駆動モータ
30 腰締結部材
32、34 バッテリ
36 制御装置
38a,38b,40a,40b,42a,42b,44a,44b 脚部生体信号検出センサ
50a,50b,52a,52b 床反力センサ
100 装着型入力装置
110 頭部検出ユニット
112 フレーム
114L、114R 当接部
120 体幹位置検出手段
130 制御部
132、142、162、232、240 信号線
140 外眼筋生体信号検出手段
140−1〜140−4 電極
150 頭部動作検出手段
160 表示部
160−1、160−2 LED
170 視線方向判別手段
172 眼電位抽出手段
174 眼球動作方向判定手段
180 頭部動作方向判別手段
190 動作方向推定手段
200 入力手段
210 充電式バッテリ
220 眼電位抽出手段
230 眼球動作方向検出手段
250L、250R 小型スピーカ
300 眼球
310 外眼筋
DESCRIPTION OF SYMBOLS 10 Wearing type movement assistance apparatus 12 Wearer 13 Head 18 Movement assistance wearing frame 20, 22, 24, 26 Drive motor 30 Waist fastening member 32, 34 Battery 36 Control apparatus 38a, 38b, 40a, 40b, 42a, 42b, 44a 44b Leg biological signal detection sensors 50a, 50b, 52a, 52b Floor reaction force sensor 100 Wearable input device 110 Head detection unit 112 Frame 114L, 114R Abutting part 120 Trunk position detection means 130 Control parts 132, 142, 162, 232, 240 Signal line 140 Extraocular muscle biological signal detection means 140-1 to 140-4 Electrode 150 Head movement detection means 160 Display unit 160-1, 160-2 LED
170 Gaze direction discrimination means 172 Ocular potential extraction means 174 Eye movement direction determination means 180 Head movement direction discrimination means 190 Movement direction estimation means 200 Input means 210 Rechargeable battery 220 Ocular potential extraction means 230 Eye movement direction detection means 250L, 250R Speaker 300 Eyeball 310 Extraocular muscle

Claims (9)

装着者に装着される装着型入力装置であって、
前記装着者の眼球の動作方向に応じた外眼筋生体信号を検出する外眼筋生体信号検出手段と、
前記装着者の頭部の動作方向を検出する頭部動作検出手段と、
前記装着者の体幹位置を検出する体幹位置検出手段と、
前記外眼筋生体信号検出手段により得られた外眼筋検出信号に基づいて眼球の動作方向を判別する視線方向判別手段と、
前記頭部動作検出手段により得られた頭部検出信号と前記体幹位置検出手段により得られた体幹位置検出信号との差に基づいて前記頭部の動作方向を判別する頭部動作方向判別手段と、
前記視線方向判別手段の判別結果による視線方向と前記頭部動作方向判別手段の判別結果による頭部動作方向とが一致した場合に当該装着者が当該方向に移動するものと推定する動作方向推定手段と、
前記動作方向推定手段による推定結果を人支援装置に入力する入力手段と、
を有することを特徴とする装着型入力装置。
A wearable input device worn by a wearer,
An extraocular muscle biosignal detection means for detecting an extraocular muscle biosignal according to the movement direction of the eyeball of the wearer;
Head movement detecting means for detecting the movement direction of the head of the wearer;
Trunk position detecting means for detecting the trunk position of the wearer;
Eye-gaze direction determining means for determining the movement direction of the eyeball based on the extraocular muscle detection signal obtained by the extraocular muscle biosignal detection means;
Head movement direction determination for determining the movement direction of the head based on the difference between the head detection signal obtained by the head movement detection means and the trunk position detection signal obtained by the trunk position detection means Means,
Motion direction estimation means for estimating that the wearer moves in the direction when the line-of-sight direction according to the determination result of the line-of-sight direction determination means matches the head movement direction according to the determination result of the head movement direction determination means When,
Input means for inputting an estimation result by the motion direction estimation means to a human support device;
A wearable input device characterized by comprising:
前記外眼筋生体信号検出手段は、前記頭部の前記眼球の側方に位置する部分に設けられ、前記眼球を動作させる際の眼電位を検出することを特徴とする請求項1に記載の装着型入力装置。   The external eye muscle biosignal detection means is provided in a portion of the head located on a side of the eyeball, and detects an electrooculogram when the eyeball is operated. Wearable input device. 前記頭部動作検出手段は、前記装着者の頭部の動作に応じた検出信号を出力する加速度センサ又は位置変位センサからなり、
前記体幹位置検出手段は、前記装着者の背中の中心部分に対向する位置に配置され、前記装着者の背中の動作に応じた3次元の検出信号を出力するジャイロセンサからなり、
前記頭部動作方向判別手段は、前記加速度センサ又は位置変位センサにより検出された前記装着者の頭部の動作と、前記ジャイロセンサにより検出された前記装着者の体幹位置との差に基づいて前記装着者の頭部の動作位置を判別することを特徴とする請求項1に記載の装着型入力装置。
The head movement detection means comprises an acceleration sensor or a position displacement sensor that outputs a detection signal corresponding to the movement of the wearer's head,
The trunk position detection means is a gyro sensor that is arranged at a position facing a central portion of the wearer's back and outputs a three-dimensional detection signal corresponding to the movement of the wearer's back,
The head movement direction determining means is based on a difference between the movement of the wearer's head detected by the acceleration sensor or the position displacement sensor and the trunk position of the wearer detected by the gyro sensor. The wearable input device according to claim 1, wherein an operation position of the head of the wearer is determined.
前記体幹位置検出手段は、
前記装着者の背中の中心部分に対向する位置に配置され、前記装着者の体幹位置に応じた3次元の検出信号を出力する第1のジャイロセンサからなり、
前記頭部動作方向判別手段は、前記装着者の頭部の動作に応じた検出信号を出力する3次元の検出信号を出力する第2のジャイロセンサからなり、
前記頭部動作方向判別手段は、前記第1のジャイロセンサにより検出された前記装着者の頭部の動作と、前記第2のジャイロセンサにより検出された前記装着者の体幹位置との差に基づいて前記装着者の頭部の動作位置を判別することを特徴とする請求項1に記載の装着型入力装置。
The trunk position detecting means is
The first gyro sensor is disposed at a position facing the center portion of the wearer's back and outputs a three-dimensional detection signal corresponding to the trunk position of the wearer.
The head movement direction determination means includes a second gyro sensor that outputs a three-dimensional detection signal that outputs a detection signal corresponding to the movement of the wearer's head.
The head movement direction discriminating means is based on the difference between the movement of the wearer's head detected by the first gyro sensor and the trunk position of the wearer detected by the second gyro sensor. The wearable input device according to claim 1, wherein an operation position of the head of the wearer is determined based on the wearer.
前記視線方向判別手段は、
前記外眼筋生体信号検出手段により検出された検出信号に基づいて前記眼球を左右方向に動作させる際の眼電位の検出信号を抽出する眼電位抽出手段と、
該眼電位抽出手段により抽出された検出信号が予め設定された所定時間以上継続して検出された場合に、前記眼電位抽出手段により抽出された検出信号に基づいて前記眼球の動作方向が正面か或いは左右方向の何れかであるかを判定する眼球動作方向判定手段と、
を有することを特徴とする請求項1に記載の装着型入力装置。
The line-of-sight direction determining means includes
An electrooculogram extraction unit that extracts an electrooculogram detection signal when the eyeball is operated in the left-right direction based on the detection signal detected by the extraocular muscle biosignal detection unit;
If the detection signal extracted by the electrooculogram extraction means is detected continuously for a predetermined time or more, whether the movement direction of the eyeball is front based on the detection signal extracted by the electrooculogram extraction means Alternatively, eye movement direction determination means for determining whether the direction is the left-right direction,
The wearable input device according to claim 1, further comprising:
請求項1乃至5の何れかに記載の装着型入力装置に接続され、前記入力手段から前記動作方向推定手段による推定結果を入力される制御手段と、
当該装着者の歩行動作を支援するように当該装着者の脚部に装着されるフレームと、
該フレームを駆動する駆動手段と、
当該装着者の脚部生体信号を検出する脚部生体信号検出手段と、
を有し、
前記制御手段は、前記動作方向推定手段による推定結果及び前記脚部生体信号検出手段から得られた脚部生体信号に基づき前記駆動手段を駆動制御するための制御信号を生成することを特徴とする人支援装置。
Control means connected to the wearable input device according to any one of claims 1 to 5, wherein the estimation result from the motion direction estimation means is input from the input means;
A frame that is worn on the legs of the wearer so as to support the walking movement of the wearer;
Drive means for driving the frame;
Leg biosignal detection means for detecting the wearer's leg biosignal;
Have
The control means generates a control signal for controlling driving of the drive means based on the estimation result by the motion direction estimation means and the leg biological signal obtained from the leg biological signal detection means. Person support device.
前記制御手段は、前記動作方向推定手段により当該装着者が歩行方向を変更することが推定された場合には、当該推定された方向に応じて前記駆動手段による膝関節の駆動力を当該変更される方向に応じた制御パラメータを演算し、前記脚部生体信号検出手段が脚部生体信号を検出したタイミングで前記駆動手段を当該制御パラメータに基づいて駆動させることを特徴とする請求項6に記載の人支援装置。   When it is estimated that the wearer changes the walking direction by the movement direction estimation unit, the control unit changes the driving force of the knee joint by the driving unit according to the estimated direction. 7. The control parameter according to the direction to be calculated is calculated, and the driving unit is driven based on the control parameter at a timing when the leg biological signal detection unit detects the leg biological signal. Human support device. 前記制御手段は、前記動作方向推定手段により当該装着者が歩行動作方向を変更することが推定された場合には、変更する方向に応じて右脚の膝関節と左脚の膝関節と駆動力に差を生じさせることを特徴とする請求項6または7に記載の人支援装置。   When it is estimated by the movement direction estimation means that the wearer changes the walking movement direction, the control means determines the right leg knee joint, the left leg knee joint, and the driving force according to the changing direction. The person support device according to claim 6, wherein a difference is caused between the two. 装着者に装着される装着型入力装置と、前記装着者の歩行動作を支援するように当該装着者の脚部に駆動力をアシストする駆動手段を有する人支援装置とを備えた人支援装置の制御方法において、
前記装着者の視線方向と前記装着者の頭部動作方向とが一致した場合に当該装着者が当該方向に移動するものと推定するステップと、
前記推定処理による推定結果に基づき前記駆動手段を駆動制御するステップと、
を有することを特徴とする人支援装置の制御方法。
A human support device comprising: a wearable input device worn by a wearer; and a human support device having a driving means for assisting a driving force in a leg portion of the wearer so as to support the walking motion of the wearer. In the control method,
Estimating that the wearer moves in the direction when the wearer's line-of-sight direction matches the wearer's head movement direction;
Driving the drive means based on the estimation result of the estimation process;
A method for controlling a human support apparatus, comprising:
JP2010276288A 2010-12-10 2010-12-10 Wearable input device, human assistance device, and control method for the human assistance device Pending JP2012120798A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010276288A JP2012120798A (en) 2010-12-10 2010-12-10 Wearable input device, human assistance device, and control method for the human assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010276288A JP2012120798A (en) 2010-12-10 2010-12-10 Wearable input device, human assistance device, and control method for the human assistance device

Publications (1)

Publication Number Publication Date
JP2012120798A true JP2012120798A (en) 2012-06-28

Family

ID=46502895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010276288A Pending JP2012120798A (en) 2010-12-10 2010-12-10 Wearable input device, human assistance device, and control method for the human assistance device

Country Status (1)

Country Link
JP (1) JP2012120798A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197388A (en) * 2013-03-11 2014-10-16 イマージョン コーポレーションImmersion Corporation Haptic sensations as function of eye gaze
JP2015173739A (en) * 2014-03-13 2015-10-05 株式会社東芝 Knee joint movement support device
CN105700676A (en) * 2014-12-11 2016-06-22 现代自动车株式会社 Wearable glasses, control method thereof, and vehicle control system
CN109760015A (en) * 2017-11-10 2019-05-17 三星电子株式会社 Control method and control equipment for walking of turning
JP2020066110A (en) * 2018-10-25 2020-04-30 国立大学法人千葉大学 Method for controlling work auxiliary tool

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9833697B2 (en) 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
JP2018173983A (en) * 2013-03-11 2018-11-08 イマージョン コーポレーションImmersion Corporation Haptic sensation as function of eye gaze
US10220317B2 (en) 2013-03-11 2019-03-05 Immersion Corporation Haptic sensations as a function of eye gaze
JP2014197388A (en) * 2013-03-11 2014-10-16 イマージョン コーポレーションImmersion Corporation Haptic sensations as function of eye gaze
JP2015173739A (en) * 2014-03-13 2015-10-05 株式会社東芝 Knee joint movement support device
CN105700676B (en) * 2014-12-11 2021-03-12 现代自动车株式会社 Wearable glasses, control method thereof, and vehicle control system
CN105700676A (en) * 2014-12-11 2016-06-22 现代自动车株式会社 Wearable glasses, control method thereof, and vehicle control system
CN109760015A (en) * 2017-11-10 2019-05-17 三星电子株式会社 Control method and control equipment for walking of turning
JP2019088766A (en) * 2017-11-10 2019-06-13 三星電子株式会社Samsung Electronics Co.,Ltd. Control method and control apparatus for turning walking
KR20190053615A (en) * 2017-11-10 2019-05-20 삼성전자주식회사 Control method and control apparatus for turning walking
KR102566114B1 (en) * 2017-11-10 2023-08-14 삼성전자주식회사 Control method and control apparatus for turning walking
CN109760015B (en) * 2017-11-10 2024-05-03 三星电子株式会社 Control method and control apparatus for turning walking
JP2020066110A (en) * 2018-10-25 2020-04-30 国立大学法人千葉大学 Method for controlling work auxiliary tool

Similar Documents

Publication Publication Date Title
ES2912405T3 (en) Machine-to-person interfaces for communication from a lower extremity orthosis
EP3417777B1 (en) Body-worn gait detection device, walking ability improvement system, and body-worn gait detection system
KR101742350B1 (en) Wearable motion assist device, interface device therefor, and program therefor
JP5313609B2 (en) Frame structure of wearable motion assist device.
CN104825258B (en) The wearable function auxiliary mechanical arm of shoulder
JP2012120798A (en) Wearable input device, human assistance device, and control method for the human assistance device
KR101458002B1 (en) Intelligent wheelchair robot based on biometrics for rehabilitation of upper limb and lower limb
WO2012118143A1 (en) Ambulation training device and ambulation training system
CN112370305B (en) Exoskeleton robot for lower limb rehabilitation training
Neto et al. Smart walkers: Advanced robotic human walking-aid systems
JP4742263B2 (en) Walking assist device
CN210205291U (en) Follow-up lower limb gait training rehabilitation robot system
CN116018080A (en) Gait adjustment assistance system
JP6035898B2 (en) Wearable motion assist device
KR100555990B1 (en) Walking Training Support Robot with the distributed control of Pneumatic actuator
KR200458671Y1 (en) Apparatus for assisting muscular strength
KR20180008135A (en) Gait training system utilizing tva sense
Law et al. A cap as interface for wheelchair control
EP4108221A1 (en) Wearable motion assist device
US12064390B2 (en) Powered walking assistant and associated systems and methods
CN113230094A (en) Single-leg exoskeleton robot and control method thereof
CN115634125A (en) Rhythmic stimulation rehabilitation training system and method based on motion information
US20170127962A1 (en) Biological-signal measurement device, biological-signal measurement method, wearable action assistance device, and action assistance method
WO2024095577A1 (en) Device and method for improving movement function
TWM510162U (en) Support device of rehabilitation machine