JP2007319187A - Motion assisting device and control method for the same - Google Patents

Motion assisting device and control method for the same Download PDF

Info

Publication number
JP2007319187A
JP2007319187A JP2006149407A JP2006149407A JP2007319187A JP 2007319187 A JP2007319187 A JP 2007319187A JP 2006149407 A JP2006149407 A JP 2006149407A JP 2006149407 A JP2006149407 A JP 2006149407A JP 2007319187 A JP2007319187 A JP 2007319187A
Authority
JP
Japan
Prior art keywords
motion
line
sight
user
assisting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006149407A
Other languages
Japanese (ja)
Inventor
Yoshiaki Asahara
佳昭 朝原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006149407A priority Critical patent/JP2007319187A/en
Publication of JP2007319187A publication Critical patent/JP2007319187A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Prostheses (AREA)
  • Eye Examination Apparatus (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a motion assisting device which has excellent maneuverability and is used easily, and also to provide a control method for the same. <P>SOLUTION: The motion assisting device 100 is used for assisting motion of a user 200. The motion assisting device comprises light sources for illuminating the eyeball of the user 200, a visual axis measuring device 10 having a photodetector for detecting light from the light sources reflected by the eyeballs, and a motion assisting mechanism 30 for assisting the motion of the user 200 on the basis of the measurement result of the visual axis measuring device 10. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、動作補助装置及びその制御方法に関し、特に詳しくは、視線計測装置を有する動作補助装置に関する。   The present invention relates to a motion assist device and a control method thereof, and more particularly to a motion assist device having a line-of-sight measurement device.

近年、使用者の動作を補助するパワーアシスト装置が開発されている。パワーアシスト装置は、通常、使用者の筋力を補助するモータや、モータの制御を行う制御回路を有している。例えば、使用者の筋電位を検出することによって、モータの駆動を行なっている(特許文献1参照)。このような、筋電位を検出するための電極を使用者に取り付ける必要がある。   In recent years, a power assist device for assisting a user's operation has been developed. The power assist device usually has a motor that assists the user's muscle strength and a control circuit that controls the motor. For example, the motor is driven by detecting the myoelectric potential of the user (see Patent Document 1). Such an electrode for detecting myoelectric potential needs to be attached to the user.

また、使用者の眼電位を検出して、制御を行う電動機能補助装置が提案されている(特許文献2参照)。この動作補助装置では、眼電位を検出するため、メガネ型の眼電位計測装置を使用者に装着させている。そして、使用者の眼球運動による筋電位の変化によって、注視点を抽出している。この注視点に基づいて、動作補助を制御している。   In addition, an electric function auxiliary device that detects and controls the electrooculogram of the user has been proposed (see Patent Document 2). In this operation assisting device, a spectacle-type electrooculogram measuring device is worn by a user in order to detect electrooculogram. Then, the gaze point is extracted based on the change in the myoelectric potential due to the user's eye movement. Based on this gazing point, the operation assistance is controlled.

特開平7−163607号公報JP-A-7-163607 特開2004−254876号公報Japanese Patent Laid-Open No. 2004-254876

しかしながら、特許文献2の装置では、使用者の眼電位を検出するため、複数の電極センサを顔面に接触させなければならない。さらに、電極センサと地肌をより密着させるために、導電性のジェルなどを塗る必要がある。したがって、使用者に不快感を与えてしまうという問題点がある。さらに、皮膚表面の発汗によって電位が変化してしまい、誤動作してしまうという問題点もある。   However, in the apparatus of Patent Document 2, a plurality of electrode sensors must be brought into contact with the face in order to detect the user's electrooculogram. Furthermore, in order to make the electrode sensor and the background more closely adhere, it is necessary to apply a conductive gel or the like. Therefore, there is a problem that the user feels uncomfortable. Furthermore, there is a problem that the potential changes due to sweating on the skin surface, resulting in malfunction.

本発明は、かかる課題を解決するためになされたものであり、利便性の高い動作補助装置、及びその制御方法を提供することを目的とする。   The present invention has been made to solve such a problem, and an object thereof is to provide a highly convenient operation assisting device and a control method thereof.

本発明の第1の態様にかかる動作補助装置は、使用者の動作を補助する動作補助装置であって、使用者の眼球に光を照射する光源と、前記眼球で反射された前記光源からの光を検出する光検出器とを有する視線計測装置と、前記視線計測装置での計測結果に基づいて、使用者の動作を補助する動作補助機構とを備えたものである。これにより、利便性を向上することができる。   An operation assisting device according to a first aspect of the present invention is an operation assisting device that assists a user's operation, and includes a light source that irradiates light to a user's eyeball, and a light source that is reflected by the eyeball. A line-of-sight measurement device having a light detector for detecting light, and an operation assisting mechanism for assisting a user's operation based on a measurement result of the line-of-sight measurement device. Thereby, the convenience can be improved.

本発明の第2の態様にかかる動作補助装置は、上述の動作補助装置であって、前記視線計測装置が、前記使用者の視線の方向を計測し、前記動作補助機構が、前記計測された視線の方向に向かって動作補助を行なうものである。これにより、操作性を向上することができる。   The motion assisting device according to the second aspect of the present invention is the motion assisting device described above, wherein the line-of-sight measuring device measures the direction of the user's line of sight, and the motion assisting mechanism is measured. Operation assistance is performed in the direction of the line of sight. Thereby, operability can be improved.

本発明の第3の態様にかかる動作補助装置は、上述の動作補助装置であって、前記視線計測装置が、両目の視線の方向から注視点を測定し、前記動作補助機構が、前記注視点に基づいて動作目標位置を設定して、前記動作目標位置に追従するようフィードバック制御を行うものである。これにより、操作性をより向上することができる。   A motion assist device according to a third aspect of the present invention is the above-described motion assist device, wherein the line-of-sight measurement device measures a gaze point from the direction of the gaze of both eyes, and the motion assist mechanism includes the gaze point. The operation target position is set based on the above, and feedback control is performed so as to follow the operation target position. Thereby, operativity can be improved more.

本発明の第4の態様にかかる動作補助装置は、上述の動作補助装置であって、前記視線計測装置と前記動作補助機構とを接続するリンク機構をさらに備え、前記リンク機構の状態に応じて、前記視線計測装置と前記動作補助機構との相対位置を認識して、前記動作目標位置を設定するものである。これにより、正確に操作することができる。   A motion assisting device according to a fourth aspect of the present invention is the above-described motion assisting device, further comprising a link mechanism that connects the line-of-sight measurement device and the motion assisting mechanism, and according to the state of the link mechanism. The movement target position is set by recognizing the relative position between the line-of-sight measurement device and the movement assist mechanism. Thereby, it can operate correctly.

本発明の第5の態様にかかる動作補助装置は、上述の動作補助装置であって、前記注視点が前記動作補助機構の可動範囲外である場合、前記動作目標位置を前記動作補助機構の可動範囲内に設定する、ものである。これにより、より正確に操作することができる。   A motion assisting device according to a fifth aspect of the present invention is the motion assisting device described above, and when the gazing point is out of a movable range of the motion assisting mechanism, the motion target position is set to be movable. Set within the range. Thereby, it can operate more correctly.

本発明の第6の態様にかかる動作補助装置は、上述の動作補助装置であって、前記視線計測装置及び前記動作補助機構が使用者に装着可能であるものである。これにより、利便性を向上することができる。   A motion assist device according to a sixth aspect of the present invention is the motion assist device described above, wherein the line-of-sight measurement device and the motion assist mechanism can be worn by a user. Thereby, the convenience can be improved.

本発明の第7の態様にかかる動作補助装置は、上述の動作補助装置であって、前記動作補助装置が前記使用者の筋力をアシストするパワーアシストロボットであるものである。これにより、より利便性を向上することができる。   A motion assist device according to a seventh aspect of the present invention is the motion assist device described above, wherein the motion assist device is a power assist robot that assists the user's muscle strength. Thereby, the convenience can be improved more.

本発明の第8の態様にかかる動作補助装置の制御方法は、使用者の動作を補助する動作補助装置の制御方法でであって、光源から使用者の眼球に光を照射するステップと前記眼球で反射された前記光源からの光を検出して、視線を計測するステップと、前記視線の計測結果に基づいて、使用者の動作を補助するステップとを有するものである。これにより、利便性を向上することができる。   A control method for an operation assisting device according to an eighth aspect of the present invention is a method for controlling an operation assisting device that assists a user's operation, and includes irradiating light from a light source to the user's eyeball and the eyeball. And detecting the light from the light source reflected in step (b) to measure the line of sight, and assisting the user's action based on the line-of-sight measurement result. Thereby, the convenience can be improved.

本発明の第9の態様にかかる動作補助装置の制御方法は、上述の動作補助装置の制御方法であって、前記視線を計測するステップで計測された視線の方向に基づいて、前記動作を補助する方向を決定するものである。これにより、操作性を向上することができる。   A control method for a motion assist device according to a ninth aspect of the present invention is the control method for the motion assist device described above, and assists the motion based on the direction of the line of sight measured in the step of measuring the line of sight. The direction to do is determined. Thereby, operability can be improved.

本発明の第10の態様にかかる動作補助装置の制御方法は、上述の動作補助装置の制御方法であって、両目に対して行なわれた前記視線の計測結果に基づいて、前記使用者の注視点を測定するステップと、前記注視点に基づいて、動作目標位置を設定するステップとをさらに備え、前記使用者の動作の補助を前記動作目標位置に対してフィードバック制御するものである。これにより、操作性をさらに向上することができる。   A control method for an operation assisting device according to a tenth aspect of the present invention is the control method for the operation assisting device described above, wherein the user's note is based on a result of the gaze measurement performed on both eyes. The method further includes a step of measuring a viewpoint and a step of setting an operation target position based on the gazing point, and feedback control of assisting the user's operation is performed with respect to the operation target position. Thereby, the operability can be further improved.

本発明の第11の態様にかかる動作補助装置の制御方法は、上述の動作補助装置の制御方法であって、前記動作の補助を行なう動作補助機構の可動範囲外に前記注視点がある場合、前記動作目標位置を前記動作補助機構の可動範囲内に設定する、ものである。これにより、正確に制御することができる。   The control method for the motion assist device according to the eleventh aspect of the present invention is the control method for the motion assist device described above, and when the gazing point is outside the movable range of the motion assist mechanism that assists the motion, The movement target position is set within a movable range of the movement assist mechanism. Thereby, it can control correctly.

本発明の第12の態様にかかる動作補助装置の制御方法は、上述の動作補助装置の制御方法であって、前記動作補助機構と前記視線計測装置との相対位置を認識して、前記注視点を計測するものである。これにより、より正確に制御することができる。   A control method for a motion assist device according to a twelfth aspect of the present invention is the control method for the motion assist device described above, wherein the gaze point is recognized by recognizing a relative position between the motion assist mechanism and the line-of-sight measurement device. Is to measure. Thereby, it can control more correctly.

本発明によれば、利便性の高い動作補助装置、及びその制御方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the operation assistance apparatus with high convenience and its control method can be provided.

発明の実施の形態1.
本実施の形態にかかる移動体について図1を用いて説明する。本実施の形態にかかる動作補助装置の装着時の構成を模式的に示す側面図である。すなわち、図1は、使用者200が動作補助装置100を装着した状態を示している。
Embodiment 1 of the Invention
A moving body according to the present embodiment will be described with reference to FIG. It is a side view which shows typically the structure at the time of mounting | wearing of the operation assistance apparatus concerning this Embodiment. That is, FIG. 1 shows a state in which the user 200 wears the motion assisting device 100.

動作補助装置100は、視線計測装置10と、リンク機構20と、動作補助機構30とを有している。動作補助機構30は、装着部31と、駆動部32と、接地部33と、駆動制御部34と、リンク35とを有している。視線計測装置10と動作補助機構30とは、リンク機構20で連結されている。さらに、視線計測装置10と動作補助機構30とは、配線等で接続されている。リンク機構20にはジョイント21が設けられている。リンク機構20にある程度の自由度を持たせることによって、視線計測装置10と動作補助機構30との相対位置を変化させることができる。従って、使用者200が変わった場合でも、動作補助装置100を容易に装着することができる。具体的には、使用者200が、動作補助機構30を背負った状態で、テープ状あるいはベルト状の装着部31を大腿、すね、及び腰に巻きつける。これにより、動作補助機構30が装着される。そして、使用者200は、帽子型の視線計測装置10を被る。これにより、視線計測装置10が使用者200の頭部に装着される。これにより、使用者200が動作補助装置100を装着することができる。そして、動作補助機構30及び視線計測装置10を装着した状態で、使用者200の動作が補助される。   The operation assisting device 100 includes a line-of-sight measurement device 10, a link mechanism 20, and an operation assisting mechanism 30. The motion assisting mechanism 30 includes a mounting part 31, a driving part 32, a grounding part 33, a drive control part 34, and a link 35. The line-of-sight measurement device 10 and the operation assisting mechanism 30 are connected by a link mechanism 20. Further, the line-of-sight measurement device 10 and the operation assisting mechanism 30 are connected by wiring or the like. The link mechanism 20 is provided with a joint 21. By providing the link mechanism 20 with a certain degree of freedom, the relative position between the line-of-sight measurement device 10 and the movement assist mechanism 30 can be changed. Therefore, even when the user 200 changes, the motion assisting device 100 can be easily attached. Specifically, the user 200 wraps the tape-shaped or belt-shaped mounting portion 31 around the thigh, the shin, and the waist while carrying the operation assisting mechanism 30 on the back. Thereby, the operation assisting mechanism 30 is mounted. Then, the user 200 wears the hat-shaped line-of-sight measurement device 10. As a result, the line-of-sight measurement device 10 is attached to the head of the user 200. As a result, the user 200 can wear the motion assisting device 100. Then, the operation of the user 200 is assisted in a state where the operation assist mechanism 30 and the line-of-sight measurement device 10 are mounted.

視線計測装置10は使用者200の視線を計測する。視線計測装置10は、眼球の運動から視線を計測する。そして、視線計測装置10は計測結果を動作補助機構30に出力する。視線計測装置10で計測された視線に基づいて動作補助機構30は、使用者200の動作を補助する。すなわち、視線計測装置10が動作補助機構30の入力インターフェースとして機能する。視線計測装置10としては、例えば、ナックイメージテクノロジー社製のアイマークレコーダEMR8Bを用いることができる。この視線計測装置10については、後述する。   The line-of-sight measurement device 10 measures the line of sight of the user 200. The line-of-sight measurement device 10 measures the line of sight from the movement of the eyeball. Then, the line-of-sight measurement device 10 outputs the measurement result to the motion assist mechanism 30. Based on the line of sight measured by the line-of-sight measurement device 10, the movement assist mechanism 30 assists the operation of the user 200. That is, the line-of-sight measurement device 10 functions as an input interface of the motion assist mechanism 30. As the line-of-sight measurement device 10, for example, an eye mark recorder EMR8B manufactured by Nack Image Technology can be used. The line-of-sight measurement device 10 will be described later.

動作補助機構30には、例えば、モータ、エンコーダやギヤなどを有する駆動部32が複数設けられている。駆動部32は、使用者200の膝、腰、背中などの近傍に配置されている。動作補助機構30には、複数の駆動部32を連結するリンク35が設けられている。さらに、動作補助機構30には、バッテリーや制御回路を有する駆動制御部34が設けられている。駆動制御部34は、視線計測装置10からの信号によって、駆動部32に設けられたモータを駆動させる。これにより、リンク35が回転して、使用者200の動作を補助することができる。すなわち、視線計測装置10の計測結果に基づいて、駆動制御部34は、所定のモータを所定の角度だけ回転させる。これにより、リンク35にトルクが与えられ、使用者200の体勢が変化する。よって、使用者200の筋力をアシストした状態で、使用者200を所望の姿勢としたり、使用者200に所望の作業を行なわせることができる。従って、動作補助機構30は、視線計測装置10の計測結果に応じて動作を補助することができる。   The operation assisting mechanism 30 is provided with a plurality of drive units 32 having, for example, a motor, an encoder, a gear, and the like. The drive unit 32 is disposed in the vicinity of the user 200 such as the knee, waist, and back. The operation assisting mechanism 30 is provided with a link 35 that couples the plurality of driving units 32. Further, the operation assisting mechanism 30 is provided with a drive control unit 34 having a battery and a control circuit. The drive control unit 34 drives a motor provided in the drive unit 32 by a signal from the line-of-sight measurement device 10. Thereby, link 35 rotates and it can assist operation of user 200. That is, based on the measurement result of the line-of-sight measurement device 10, the drive control unit 34 rotates a predetermined motor by a predetermined angle. Thereby, torque is given to the link 35 and the posture of the user 200 changes. Therefore, the user 200 can be in a desired posture or the user 200 can perform a desired work in a state where the muscle strength of the user 200 is assisted. Therefore, the motion assist mechanism 30 can assist the operation according to the measurement result of the line-of-sight measurement device 10.

さらに、動作補助機構30には、接地部33が設けられている。接地部33は、足の裏側に配置されている。従って、装着時には、使用者200が接地部33の上に乗った状態となる。駆動制御部34は、動作補助機構30の自重をキャンセルするため、駆動部32を制御している。これにより、動作補助機構30の自重を接地部33を介して接地面に逃がすことができる。使用者200は動作補助機構30の重さを感じることなく、動作補助装置100を使用することができる。従って、利便性を向上することができる。接地部33の一部又は全部は、例えば、ゴムなどの弾性体により形成されている。   Further, the operation assisting mechanism 30 is provided with a grounding portion 33. The grounding portion 33 is disposed on the back side of the foot. Therefore, the user 200 is on the grounding portion 33 when wearing. The drive control unit 34 controls the drive unit 32 in order to cancel the weight of the motion assist mechanism 30. Thereby, the weight of the operation assisting mechanism 30 can be released to the ground surface via the grounding portion 33. The user 200 can use the motion assisting device 100 without feeling the weight of the motion assisting mechanism 30. Therefore, convenience can be improved. Part or all of the grounding portion 33 is formed of an elastic body such as rubber, for example.

次に、視線計測装置10の構成について図2を用いて説明する。図2は視線計測装置10の一例の構成を示す正面図である。なお、図2は、使用者200に装着されていない状態の視線計測装置10を示している。視線計測装置10は、帽子11と、アーム12と、照明手段13と、カメラ14と、測定処理部15とを備えている。視線計測装置10は、装着可能とするよう帽子11を備えている。すなわち、帽子11を使用者200が被ることによって、視線計測装置10が使用者200に装着される。視線計測装置10は、例えば、特開2002−143094号公報に示すように、瞳孔−角膜反射法を用いて視線を計測している。これにより、カメラが揺れたり、振動が生じた場合でも正確に視線を計測することができる。   Next, the configuration of the line-of-sight measurement device 10 will be described with reference to FIG. FIG. 2 is a front view showing a configuration of an example of the line-of-sight measurement device 10. FIG. 2 shows the line-of-sight measurement device 10 that is not worn by the user 200. The line-of-sight measurement device 10 includes a hat 11, an arm 12, an illumination unit 13, a camera 14, and a measurement processing unit 15. The line-of-sight measurement device 10 is provided with a cap 11 so that it can be worn. That is, when the user 200 wears the cap 11, the line-of-sight measurement device 10 is attached to the user 200. The line-of-sight measurement apparatus 10 measures the line of sight using a pupil-corneal reflection method as disclosed in, for example, Japanese Patent Application Laid-Open No. 2002-143094. This makes it possible to accurately measure the line of sight even when the camera shakes or vibrates.

帽子11の前側には、箱型の測定処理部15が設けられている。測定処理部15は、例えば、帽子11の鍔の上に配置される。測定処理部15の側方には、アーム12が設けられている。アーム12は、帽子11の鍔の上から前側の下方に延設されている。アーム12の先端には、照明手段13が取り付けられている。従って、照明手段13は、使用者200の正面側に配置される。   A box-shaped measurement processing unit 15 is provided on the front side of the cap 11. For example, the measurement processing unit 15 is disposed on the heel of the hat 11. An arm 12 is provided on the side of the measurement processing unit 15. The arm 12 extends from the top of the cap 11 to the lower front side. An illumination means 13 is attached to the tip of the arm 12. Therefore, the illumination unit 13 is disposed on the front side of the user 200.

照明手段13は、例えば、赤外線LEDなどの照明光源13aを有している。そして、照明光源13aは、不可視光である近赤外光を照明光として出射する。照明光は使用者200側に出射され、使用者200の眼球に入射する。照明光源13aは、使用者の眼球を微小なスポットで照明する。照明光源13aの照明光は、角膜(黒目)を照明する。すると角膜が凹面鏡の役割をし、照明光源13aの像(角膜反射像)ができる。照明光源13aからの照明光は、角膜の表面で照明手段13の方向に反射される。照明手段13には、角膜表面で反射された反射光をカメラ14の方向に反射するミラー13bが配置されている。なお、照明光源13aからの光はレンズなどによって屈折されている。例えば、照明光源13aの光をレンズで集光している。これにより、微小なスポット形状となるため、角膜のみを照明することができる。なお、眼の動作によって、角膜上における照明光源13aからの光の位置が変化する。   The illumination means 13 includes an illumination light source 13a such as an infrared LED, for example. The illumination light source 13a emits near-infrared light that is invisible light as illumination light. The illumination light is emitted toward the user 200 and enters the user's 200 eyeball. The illumination light source 13a illuminates the user's eyeball with a minute spot. The illumination light from the illumination light source 13a illuminates the cornea (black eyes). Then, the cornea serves as a concave mirror, and an image (corneal reflection image) of the illumination light source 13a can be formed. The illumination light from the illumination light source 13a is reflected in the direction of the illumination means 13 on the surface of the cornea. The illumination means 13 is provided with a mirror 13b that reflects the reflected light reflected by the cornea surface in the direction of the camera 14. The light from the illumination light source 13a is refracted by a lens or the like. For example, the light from the illumination light source 13a is collected by a lens. Thereby, since it becomes a minute spot shape, only the cornea can be illuminated. Note that the position of light from the illumination light source 13a on the cornea changes depending on the movement of the eye.

カメラ14は、例えば、2次元の赤外線CCDカメラである。従って、カメラ14の受光面には、複数の検出画素がマトリクス状に配列されている。カメラ14の受光面は鉛直下方側に設けられている。そして、照明手段13に設けられたミラー13bからの反射光を受光する。すなわち、カメラ14は、ミラー13bを介して、眼で反射された照明光源13aからの光を受光する。カメラ14の受光面には、使用者200の瞳孔の像、照明光源13aの角膜反射像(第1プルキニエ像)が結像する。なお、カメラ14は、CCDカメラの他、フォトダイオードアレイやCMOSセンサなどの2次元光検出器を用いることができる。   The camera 14 is, for example, a two-dimensional infrared CCD camera. Therefore, a plurality of detection pixels are arranged in a matrix on the light receiving surface of the camera 14. The light receiving surface of the camera 14 is provided on the vertically lower side. And the reflected light from the mirror 13b provided in the illumination means 13 is received. That is, the camera 14 receives light from the illumination light source 13a reflected by the eyes via the mirror 13b. An image of the pupil of the user 200 and a cornea reflection image (first Purkinje image) of the illumination light source 13a are formed on the light receiving surface of the camera 14. The camera 14 can be a CCD camera or a two-dimensional photodetector such as a photodiode array or a CMOS sensor.

測定処理部15はカメラ14からの信号に基づいて視線を計測する。測定処理部15には計測処理を行う演算処理回路と、演算処理回路、カメラ14、及び照明光源13aに電源を供給するバッテリーが収納されている。測定処理部15は、瞳孔−角膜反射法によって、視線を計測する。具体的には、視線の方向が変化すると、瞳孔の像の中心と、角膜反射像との距離が変化する。すなわち、眼球運動によって、瞳孔中心の位置と、角膜反射像との位置が変化する。これにより、カメラ14の受光面において、瞳孔中心の画素と、角膜反射像の画素との相対位置が変化すると、視線の角度が変化したことが分る。従って、瞳孔中心と角膜反射像との距離に応じて視線の方向を算出することができる。このように、照明光源13aから出射して眼で反射された光をカメラ14で検出することによって、視線の方向を計測することができる。これにより、後述する命令ジェスチャーの入力や、注視点を測定を行うことができる。   The measurement processing unit 15 measures the line of sight based on the signal from the camera 14. The measurement processing unit 15 stores an arithmetic processing circuit that performs measurement processing, and a battery that supplies power to the arithmetic processing circuit, the camera 14, and the illumination light source 13a. The measurement processing unit 15 measures the line of sight by the pupil-corneal reflection method. Specifically, when the direction of the line of sight changes, the distance between the center of the pupil image and the corneal reflection image changes. That is, the position of the pupil center and the position of the cornea reflection image are changed by eye movement. As a result, when the relative position of the pixel at the center of the pupil and the pixel of the corneal reflection image changes on the light receiving surface of the camera 14, it can be seen that the angle of the line of sight has changed. Therefore, the direction of the line of sight can be calculated according to the distance between the pupil center and the cornea reflection image. Thus, the direction of the line of sight can be measured by detecting the light emitted from the illumination light source 13a and reflected by the eye with the camera 14. Thereby, the input of the command gesture mentioned later and a gaze point can be measured.

さらに、アーム12、照明手段13、及びカメラ14は、左右両方の眼に対してそれぞれ設けられている。すなわち、使用者200から見て左側のアーム12、照明手段13、及びカメラ14によって、左目の視線の方向を計測し、右側のアーム12、照明手段13、及びカメラ14によって、右目の視線の方向を計測する。これにより、両目の視線の方向を計測することができる。さらに、2つのカメラ14の位置によって、両目の眼球間の距離を測定してもよい。   Furthermore, the arm 12, the illumination means 13, and the camera 14 are provided for both the left and right eyes, respectively. That is, the direction of the line of sight of the left eye is measured by the left arm 12, the illumination unit 13, and the camera 14 as viewed from the user 200, and the direction of the line of sight of the right eye is measured by the right arm 12, the illumination unit 13, and the camera 14. Measure. Thereby, the direction of the line of sight of both eyes can be measured. Further, the distance between the eyes of both eyes may be measured based on the positions of the two cameras 14.

測定処理部15は、両目の視線の方向から注視点を測定する。これについて、図3を用いて説明する。図3は、注視点の測定を説明するための図である。ここで、211は左の眼球、212は右の眼球、213は左の角膜、214は右の角膜とする。ここで、図3のαは、両目の視線の方向が成す角、すなわち輻輳角を示している。従って、両目の視線の交点が注視点Pとなる。注視点Pは、輻輳角と、両目の眼球間の距離により測定することができる。具体的には、左の眼球211の座標から左目の視線の方向に伸ばした直線と、右の眼球212の座標から右目の視線の方向に伸ばした直線との交点の座標を注視点Pとする。このように、測定処理部15は両目の視線の方向から注視点Pの座標を算出する。   The measurement processing unit 15 measures the gaze point from the direction of the line of sight of both eyes. This will be described with reference to FIG. FIG. 3 is a diagram for explaining gaze point measurement. Here, 211 is the left eyeball, 212 is the right eyeball, 213 is the left cornea, and 214 is the right cornea. Here, α in FIG. 3 indicates an angle formed by the directions of the eyes of both eyes, that is, a convergence angle. Therefore, the intersection of the lines of sight of both eyes becomes the gazing point P. The gazing point P can be measured by the convergence angle and the distance between the eyes of both eyes. Specifically, the gazing point P is the coordinate of the intersection of the straight line extending in the direction of the left eye line from the coordinates of the left eyeball 211 and the straight line extending in the direction of the right eye line from the coordinates of the right eyeball 212. . Thus, the measurement processing unit 15 calculates the coordinates of the gazing point P from the direction of the line of sight of both eyes.

測定処理部15は例えば、視線計測装置10に搭載されたコンピュータにより実現される。このコンピュータは、例えば、中央処理装置(CPU)、ROM、RAM、ハードディスク等の補助記憶装置、CD−ROM等の可搬型記憶媒体が挿入される記憶媒体駆動装置、入力手段や出力手段を備えている。ROM、補助記憶装置、可搬型記憶媒体等の記憶媒体には、オペレーティングシステムと協働してCPU等に命令を与え、アプリケーションプログラムを記録することができ、RAMにロードされることによって実行される。このアプリケーションプログラムは、本発明にかかる視線計測及び注視点測定を実現する特有のコンピュータプログラムを含む。測定処理部15による処理は、中央処理装置がアプリケーションプログラムをRAM上に展開した上で当該アプリケーションプログラムに従った処理を補助記憶装置に格納されたデータを読み出し、また格納を行なうことにより、実行される。   The measurement processing unit 15 is realized by, for example, a computer mounted on the line-of-sight measurement device 10. The computer includes, for example, a central processing unit (CPU), an auxiliary storage device such as a ROM, a RAM, and a hard disk, a storage medium driving device into which a portable storage medium such as a CD-ROM is inserted, an input unit, and an output unit. Yes. In a storage medium such as a ROM, an auxiliary storage device, or a portable storage medium, an application program can be recorded by giving instructions to the CPU in cooperation with the operating system, and executed by being loaded into the RAM. . This application program includes a specific computer program for realizing the gaze measurement and the gaze point measurement according to the present invention. The processing by the measurement processing unit 15 is executed when the central processing unit develops the application program on the RAM, reads out the data stored in the auxiliary storage device and performs processing according to the application program, and stores it. The

視線計測装置10は、所定の時間間隔で、注視点Pの三次元座標を測定していく。測定処理部15は、測定した注視点Pの三次元座標を順次記憶する。この場合、視線計測装置10は、例えば、両目の中心を原点とした直交座標系における三次元座標を算出、記憶する。なお、三次元座標をより正確に測定するため、視線計測装置10の装着時に特定の点を注視して、視線の方向を較正してもよい。注視点Pの座標は例えば、30Hz程度で測定される。視線計測装置10は、この注視点Pの座標を測定信号として動作補助機構30に出力する。また、まばたきをした時は、瞳孔の像が撮影されないため、視線の方向を計測することができない。そのため、視線計測装置10は注視点Pが測定できなかったことを示す測定信号を出力する。また、上記の視線計測装置10では、例えば、50cm前方の位置を±10cmの誤差に抑えることができる。   The line-of-sight measurement device 10 measures the three-dimensional coordinates of the gazing point P at predetermined time intervals. The measurement processing unit 15 sequentially stores the measured three-dimensional coordinates of the gazing point P. In this case, the line-of-sight measurement device 10 calculates and stores three-dimensional coordinates in an orthogonal coordinate system with the center of both eyes as the origin, for example. In order to measure the three-dimensional coordinates more accurately, the direction of the line of sight may be calibrated by gazing at a specific point when the line-of-sight measurement apparatus 10 is mounted. The coordinates of the gazing point P are measured at about 30 Hz, for example. The line-of-sight measurement device 10 outputs the coordinates of the gazing point P to the movement assist mechanism 30 as a measurement signal. In addition, when blinking, an image of the pupil is not taken, so the direction of the line of sight cannot be measured. Therefore, the line-of-sight measurement device 10 outputs a measurement signal indicating that the gazing point P cannot be measured. Further, in the above-described line-of-sight measurement apparatus 10, for example, the position 50 cm ahead can be suppressed to an error of ± 10 cm.

なお、上記の視線計測装置10は、瞳孔−角膜反射法を用いたものであったが、これに限るものではない。例えば、角膜(黒目)と強膜(白目)の反射率の違いを利用した強膜反射法(リンバストトラッキング法)、角膜の曲率中心と眼球の回転中心が異なることを利用した角膜反射法、第1プルキニエ像(角膜前面の像)と第4プルキニエ像(水晶体後面の像)との移動量の変化を利用したダブルプルキニエ法を用いることも可能である。すなわち、本発明には、眼球に光を照射する光源と、眼球で反射された光源からの光を検出する光検出器とを有する視線計測装置10が適用可能である。そして、眼球運動に基づいて視線を計測する。これにより、導電性ジェルを塗ったり、電極センサを接触させる必要がなくなる。このように本実施の形態では、視線計測装置10の帽子11を被るだけでよい。そのため、装着時の不快感がなくなり、使用感を向上することができる。さらに、発汗による計測誤差の発生を防ぐことも可能になる。よって、視線を正確に計測することができ、動作補助機構30を確実に制御することができる。   In addition, although said visual line measuring apparatus 10 used the pupil-corneal reflection method, it is not restricted to this. For example, the sclera reflection method using the difference in reflectance between the cornea (black eye) and the sclera (white eye) (the robust tracking method), the cornea reflection method using the difference in the center of curvature of the cornea and the center of rotation of the eyeball, It is also possible to use a double Purkinje method that utilizes a change in the amount of movement between the first Purkinje image (image of the front surface of the cornea) and the fourth Purkinje image (image of the back surface of the crystalline lens). That is, the line-of-sight measurement device 10 having a light source that irradiates light to the eyeball and a photodetector that detects light from the light source reflected by the eyeball can be applied to the present invention. Then, the line of sight is measured based on the eye movement. This eliminates the need to apply conductive gel or contact the electrode sensor. Thus, in this embodiment, it is only necessary to cover the cap 11 of the line-of-sight measurement device 10. Therefore, the discomfort at the time of wearing can be eliminated and the feeling of use can be improved. Furthermore, it is possible to prevent measurement errors due to sweating. Therefore, the line of sight can be accurately measured, and the motion assist mechanism 30 can be reliably controlled.

次に、動作補助機構30の構成について図4を用いて説明する。図4は、動作補助機構30の一部の構成を示す斜視図である。なお、図4は、右足に装着される箇所のみを示している。図3に示すように、動作補助機構30は、大腿と脛と腰とに装着部31が設けられいる。装着部31はテープ状、又はベルト状になっている。装着部31のテープ等を使用者200に巻き付けることによって、動作補助機構30が装着される。また、腰の装着部31には、駆動制御部34が設けられている。駆動制御部34には、バッテリーや、制御回路などが設けられている。   Next, the configuration of the motion assist mechanism 30 will be described with reference to FIG. FIG. 4 is a perspective view showing a partial configuration of the motion assist mechanism 30. Note that FIG. 4 shows only a portion to be worn on the right foot. As shown in FIG. 3, the movement assist mechanism 30 is provided with mounting portions 31 on the thigh, shin, and waist. The mounting portion 31 has a tape shape or a belt shape. The operation assisting mechanism 30 is mounted by winding the tape of the mounting unit 31 around the user 200. Further, the waist mounting portion 31 is provided with a drive control portion 34. The drive control unit 34 is provided with a battery, a control circuit, and the like.

駆動制御部34は、例えば、動作補助機構30に搭載されたコンピュータにより実現される。このコンピュータは、例えば、中央処理装置(CPU)、ROM、RAM、ハードディスク等の補助記憶装置、CD−ROM等の可搬型記憶媒体が挿入される記憶媒体駆動装置、入力手段や出力手段を備えている。ROM、補助記憶装置、可搬型記憶媒体等の記憶媒体には、オペレーティングシステムと協働してCPU等に命令を与え、アプリケーションプログラムを記録することができ、RAMにロードされることによって実行される。このアプリケーションプログラムは、本発明にかかる駆動制御を実現する特有のコンピュータプログラムを含む。駆動制御部34による処理は、中央処理装置がアプリケーションプログラムをRAM上に展開した上で当該アプリケーションプログラムに従った処理を補助記憶装置に格納されたデータを読み出し、また格納を行なうことにより、実行される。   The drive control unit 34 is realized by, for example, a computer mounted on the operation assist mechanism 30. The computer includes, for example, a central processing unit (CPU), an auxiliary storage device such as a ROM, a RAM, and a hard disk, a storage medium driving device into which a portable storage medium such as a CD-ROM is inserted, an input unit, and an output unit. Yes. In a storage medium such as a ROM, an auxiliary storage device, or a portable storage medium, an application program can be recorded by giving instructions to the CPU in cooperation with the operating system, and executed by being loaded into the RAM. . This application program includes a specific computer program for realizing the drive control according to the present invention. The processing by the drive control unit 34 is executed by the central processing unit expanding the application program on the RAM, reading out the data stored in the auxiliary storage device and performing the processing according to the application program, and storing it. The

また、リンク35は足に沿って設けられている。リンク35は右足の左足側と外側にそれぞれ設けられている。リンク35は、膝の近傍で回転可能に連結されている。リンク35の回転軸は膝と略一致している。使用者200の膝近傍には、駆動部32が配置される。リンク35は、駆動部32が設けられている部分で、回転可能に連結されている。駆動部32は、モータ36やギヤを有する駆動機構、及びそれらを覆うカバー等を有している。モータ36からのトルクは、ギヤを介して、リンク35に与えられる。従って、モータ36が回転することによって、リンク35が回転して、リンク35の相対角度が変わる。よって、使用者200の足に動力を伝達することができ、関節の角度を変化させることができる。これにより、使用者200の筋力をアシストした状態で、使用者200を所望の姿勢としたり、使用者200に所望の作業を行なわせることができる。   The link 35 is provided along the foot. The links 35 are provided on the left foot side and the outside of the right foot, respectively. The link 35 is rotatably connected in the vicinity of the knee. The rotation axis of the link 35 is substantially coincident with the knee. A drive unit 32 is disposed near the knee of the user 200. The link 35 is a portion where the drive unit 32 is provided and is rotatably connected. The drive unit 32 includes a drive mechanism having a motor 36 and gears, a cover for covering them, and the like. Torque from the motor 36 is applied to the link 35 via a gear. Therefore, when the motor 36 rotates, the link 35 rotates and the relative angle of the link 35 changes. Therefore, power can be transmitted to the user's 200 foot, and the angle of the joint can be changed. Thereby, the user 200 can be in a desired posture or the user 200 can perform a desired work in a state where the muscle strength of the user 200 is assisted.

さらに、動作補助機構30には、接地部33が設けられている。接地部33は、リンク35と接続されている。接地部33は、足の裏側に配置されている。従って、装着時には、使用者200が接地部33の上に乗った状態となる。駆動制御部34は、動作補助機構30の自重をキャンセルするため、駆動部32を制御している。すなわち、動作補助機構30の自重が接地部33を介して接地面に逃げる。これにより、使用者200は動作補助機構30の重さを感じることなく、動作補助装置100を使用することができる。従って、利便性を向上することができる。接地部33の一部又は全部は、例えば、ゴムなどの弾性体により形成されている。具体的には、イナバゴム社のイナストマー(登録商標)などを使用することができる。また、接地部33は足に固定するようにしてもよく、接地部33を靴型としてもよい。   Further, the operation assisting mechanism 30 is provided with a grounding portion 33. The grounding unit 33 is connected to the link 35. The grounding portion 33 is disposed on the back side of the foot. Therefore, the user 200 is on the grounding portion 33 when wearing. The drive control unit 34 controls the drive unit 32 in order to cancel the weight of the motion assist mechanism 30. That is, the weight of the operation assisting mechanism 30 escapes to the ground surface through the grounding portion 33. Thereby, the user 200 can use the motion assisting device 100 without feeling the weight of the motion assisting mechanism 30. Therefore, convenience can be improved. Part or all of the grounding portion 33 is formed of an elastic body such as rubber, for example. Specifically, Inastomer (registered trademark) manufactured by Inaba Rubber Co., Ltd. can be used. The grounding portion 33 may be fixed to the foot, and the grounding portion 33 may be a shoe shape.

駆動制御部34は、まず、認識開始トリガが入力されたか否かを判定する。認識開始トリガが入力されていない状態では、上記の自重キャンセル制御を続ける。使用者200が認識開始トリガを入力すると、駆動制御部34は、自重キャンセル制御とともに、視線計測装置10の計測結果に応じて動作補助機構30を制御する。駆動制御部34には、視線計測装置10の計測結果と、動作補助の制御とが対応付けて記憶されている。従って、使用者200が眼によって所定のジェスチャーを行なうと、動作補助機構30はそのジェスチャーに応じた動作補助を実行する。ここで、使用者200の目の動作を命令ジェスチャーとし、その命令ジェスチャーに応じた駆動制御部34の制御を動作補助制御とする。   The drive control unit 34 first determines whether or not a recognition start trigger has been input. In the state where the recognition start trigger is not input, the above self-weight cancel control is continued. When the user 200 inputs a recognition start trigger, the drive control unit 34 controls the motion assist mechanism 30 according to the measurement result of the line-of-sight measurement device 10 together with its own weight cancellation control. The drive control unit 34 stores the measurement result of the line-of-sight measurement device 10 and the operation assistance control in association with each other. Therefore, when the user 200 performs a predetermined gesture with his / her eyes, the motion assist mechanism 30 performs motion assist according to the gesture. Here, the operation of the eyes of the user 200 is set as a command gesture, and the control of the drive control unit 34 according to the command gesture is set as a motion assist control.

設定される命令ジェスチャーとしては、特定の視線の保持、連続まばたき等が挙げられる。具体的には、上方向の視線の保持、右方向の視線の保持、左方向の視線の保持、下方向の視線の保持、連続まばたき等が命令ジェスチャーとなる。なお、それぞれの目のまばたきを検出して、両目のまばたき、右目のまばたき、左目のまばたきを区別してもよい。もちろん、これら以外のジェスチャーであってもよい。このような、視線計測装置10は命令ジェスチャーによる視線の変化を計測している。その注視点Pの座標が視線計測装置10から駆動制御部34に入力される。例えば、一定の方向に視線を保持していると、注視点Pの座標が一定の範囲内に収まる。また、まばたきをした瞬間では、注視点Pを測定できなかったこと示す測定信号が視線計測装置10から駆動制御部34に入力される。   The command gesture to be set includes holding a specific line of sight, continuous blinking, and the like. Specifically, the command gesture includes holding an upward line of sight, holding a right line of sight, holding a left line of sight, holding a downward line of sight, and continuous blinking. Alternatively, the blinking of each eye may be detected to distinguish the blinking of both eyes, the blinking of the right eye, and the blinking of the left eye. Of course, other gestures may be used. Such a line-of-sight measurement device 10 measures changes in the line of sight caused by a command gesture. The coordinates of the gazing point P are input from the line-of-sight measurement device 10 to the drive control unit 34. For example, if the line of sight is held in a certain direction, the coordinates of the gazing point P are within a certain range. At the moment of blinking, a measurement signal indicating that the gazing point P could not be measured is input from the line-of-sight measurement device 10 to the drive control unit 34.

ここで、駆動制御部34は、計測結果が予め設定されている命令ジェスチャーに該当するか否かを判定する。例えば、注視点Pの座標が一定範囲内に一定時間以上あったか否かを判定する。注視点Pの座標が一定範囲内に一定時間以上あった場合、特定の方向に視線が保持されていたと判定する。これにより、一定の方向に視線を保持する命令ジェスチャーが行なわれたと判定する。この一定の範囲及び時間を予め駆動制御部34に設定しておいてもよい。例えば、視線の下方向の座標範囲、上方向の座標範囲、右方向の座標範囲、左方向の座標範囲をそれぞれ予め設定しておく。また、一定時間内に注視点Pの座標の変化量がしきい値以下である場合に、一定の方向を保持していると判定してもよい。   Here, the drive control unit 34 determines whether or not the measurement result corresponds to a preset command gesture. For example, it is determined whether or not the coordinates of the gazing point P are within a certain range for a certain period of time. When the coordinates of the gazing point P are within a certain range for a certain period of time, it is determined that the line of sight is held in a specific direction. As a result, it is determined that a command gesture for holding the line of sight in a certain direction has been performed. The certain range and time may be set in the drive control unit 34 in advance. For example, a downward coordinate range, an upward coordinate range, a right coordinate range, and a left coordinate range are set in advance, respectively. Further, when the amount of change in the coordinates of the gazing point P is equal to or less than the threshold value within a certain time, it may be determined that the certain direction is maintained.

さらに、一定時間内に、注視点Pを測定できないことを示す測定信号が所定の回数以上入力されたら、連続してまばたきが行なわれたと判定する。このとき、両目それぞれについて判定を行なってもよい。これにより、両目のまばたき、右目のまばたき、左目のまばたきが行なわれたか否かを判定できる。このように駆動制御部34は得られた計測結果が、命令ジェスチャーに対応する結果であるか否かを判定している。そして、その計測結果に該当する命令ジェスチャーを抽出する。   Further, if a measurement signal indicating that the gazing point P cannot be measured within a predetermined time is input a predetermined number of times or more, it is determined that blinking has been performed continuously. At this time, the determination may be made for both eyes. Thereby, it can be determined whether or not both eyes blink, right eyes blink, and left eyes blink. In this way, the drive control unit 34 determines whether or not the obtained measurement result is a result corresponding to the command gesture. Then, a command gesture corresponding to the measurement result is extracted.

上記のうちのいずれかの命令ジェスチャーが行なわれたと判定された場合、駆動制御部34はその命令ジェスチャーに対応する動作補助制御を行う。設定される動作補助制御としては、例えば、持ち上げ動作を行なう、持ち運び動作を行なう、所定の方向に歩行する、階段を上る、階段を下る、などの制御が挙げられる。もちろん、これら以外の制御であってもよい。命令ジェスチャーと動作補助制御とは、駆動制御部34に設けられた記憶装置に記憶される。命令ジェスチャーと動作補助制御を1対1に対応付けて記憶させておく。従って、命令ジェスチャーに応じた動作補助制御が行われる。もちろん、計測結果がいずれの命令ジェスチャーにも該当しなかった場合、駆動制御部34は動作補助制御を行わず、待機する。   When it is determined that any one of the above command gestures has been performed, the drive control unit 34 performs motion assist control corresponding to the command gesture. Examples of the motion assist control to be set include control such as lifting operation, carrying operation, walking in a predetermined direction, going up stairs, going down stairs, and the like. Of course, other controls may be used. The command gesture and the motion assist control are stored in a storage device provided in the drive control unit 34. The command gesture and the motion assist control are stored in a one-to-one correspondence. Accordingly, motion assist control according to the command gesture is performed. Of course, when the measurement result does not correspond to any command gesture, the drive control unit 34 stands by without performing the operation assist control.

このように、駆動制御部34は、視線計測装置10での計測結果に応じた動作補助制御を行う。命令ジェスチャー、及び動作補助制御を予め複数設定しておけば、より利便性を向上させることができる。すなわち、複数の命令ジェスチャー、及び動作補助制御を分類して記憶しておけばよい。また、通常行なわないような、動作を命令ジェスチャーとすることが好ましい。これにより、使用者200が誤って命令ジェスチャーを行なうのを防ぐことができる。例えば、上方向の視線の保持や、まばたきの連続などを命令ジェスチャーとすることが好ましい。   As described above, the drive control unit 34 performs the operation assisting control according to the measurement result of the line-of-sight measurement device 10. If a plurality of command gestures and motion assist controls are set in advance, the convenience can be further improved. That is, a plurality of command gestures and motion assist controls may be classified and stored. In addition, it is preferable to use an instruction gesture that is not normally performed. Thereby, it is possible to prevent the user 200 from performing an instruction gesture by mistake. For example, it is preferable to use an instruction gesture to hold an upward line of sight or to continue blinking.

このように、使用者200が所望の動作補助を受けたい時、まず、眼により命令ジェスチャーを行なう。視線計測装置10で視線を計測しているため、命令ジェスチャーに応じた測定信号が駆動制御部34に入力される。駆動制御部34は、視線計測装置10による計測結果が、命令ジェスチャーに対応するものか否かを判定する。ここで、駆動制御部34に命令ジェスチャーと動作補助制御を対応付けて記憶している。駆動制御部34は、その命令ジェスチャーに対応する動作補助を行なう。例えば、第1の命令ジェスチャーが行なわれたと判定すると、第1の動作補助制御を行う。そして、駆動部32が駆動して、第1の動作補助制御に基づく動作補助が実行される。   In this way, when the user 200 wants to receive desired motion assistance, first, a command gesture is performed with the eyes. Since the line-of-sight measurement device 10 measures the line of sight, a measurement signal corresponding to the command gesture is input to the drive control unit 34. The drive control unit 34 determines whether or not the measurement result by the line-of-sight measurement device 10 corresponds to a command gesture. Here, the command gesture and the motion assist control are stored in the drive control unit 34 in association with each other. The drive control unit 34 performs operation assistance corresponding to the command gesture. For example, if it is determined that the first command gesture has been performed, the first motion assist control is performed. And the drive part 32 drives and the operation assistance based on 1st operation assistance control is performed.

視線の方向に動作補助制御の方向を一致させることが好ましい。これにより、計測された視線の方向に動作補助機構30が駆動される。具体的には、注視点Pの方向に動作補助制御の方向を一致させる。これにより、視線の方向に応じた方向に動作が補助される。すなわち、視線の方向に応じた方向にパワーアシストを行なう。例えば、上方向を注視した場合、持ち上げ動作を行なうように設定する。さらには、見た方向に物体を運ぶよう、持ち運び動作を制御してもよい。この設定では、動作補助方向と視線の方向が一致するので、使用者が容易に操作することができる。よって、操作性を向上することができる。   It is preferable that the direction of the motion assist control coincides with the direction of the line of sight. As a result, the motion assist mechanism 30 is driven in the direction of the measured line of sight. Specifically, the direction of the motion assist control is made to coincide with the direction of the gazing point P. Thereby, operation | movement is assisted in the direction according to the direction of eyes | visual_axis. That is, power assist is performed in a direction corresponding to the direction of the line of sight. For example, when the upper direction is watched, the lifting operation is set. Further, the carrying operation may be controlled so that the object is carried in the direction seen. In this setting, the operation assisting direction and the direction of the line of sight coincide, so that the user can easily operate. Therefore, operability can be improved.

駆動制御部34での処理について、図5を用いて説明する。図5は、本実施の形態にかかる動作補助装置100の制御方法を示すフローチャートである。まず、動作補助装置100の電源を付けて、動作補助機構30をサーボONする。また、この時、視線計測装置10の電源がONする。そして、サーボONとなると、自重キャンセル制御が行われる(ステップS101)。これにより、駆動制御部34が自重キャンセル制御を行う。これにより、動作補助機構30の自重をキャンセルする。例えば、駆動制御部34は、インピーダンス制御を行い、接地部33から自重を逃がす。従って、動作補助機構30の自重は、動作補助機構30自身が支える。これにより、動作補助機構30の自重が抜重される。従って、使用者200が容易に扱うことができ、操作性を向上することができる。また、以降のステップにおいても自重をキャンセルした状態で実行される。   Processing in the drive control unit 34 will be described with reference to FIG. FIG. 5 is a flowchart showing a control method of the motion assisting device 100 according to the present embodiment. First, the power of the motion assist device 100 is turned on and the motion assist mechanism 30 is servo-ON. At this time, the power of the visual line measuring device 10 is turned on. When the servo is turned on, the dead weight canceling control is performed (step S101). Thereby, the drive control part 34 performs dead weight cancellation control. As a result, the weight of the motion assist mechanism 30 is canceled. For example, the drive control unit 34 performs impedance control and releases its own weight from the grounding unit 33. Accordingly, the weight of the motion assist mechanism 30 is supported by the motion assist mechanism 30 itself. Thereby, the own weight of the operation assisting mechanism 30 is extracted. Therefore, the user 200 can easily handle it, and the operability can be improved. Also, the subsequent steps are executed in a state where the dead weight is canceled.

次に認識開始トリガがあるか否を判定する(ステップS102)。認識開始トリガとしては、例えば、特定の視線の保持や、まばたきによるジェスチャが挙げられる。例えば、2回連続まばたきをする(ダブルクリック)ことによって、認識開始トリガが入力されたと判定する。認識開始トリガが入力されなかった場合、ステップS101の自重キャンセル制御を実行したままの状態である。   Next, it is determined whether there is a recognition start trigger (step S102). The recognition start trigger includes, for example, holding a specific line of sight or a gesture by blinking. For example, it is determined that a recognition start trigger has been input by blinking twice (double-clicking). When the recognition start trigger is not input, the self-weight cancel control in step S101 is still being executed.

認識開始トリガが入力された場合、駆動制御部34は、視線命令処理を行う(ステップS103)。すなわち、視線計測装置10での計測結果が命令ジェスチャーに対応するものであるか否かを判定する。ここでは、通常の動作補助を行なうための命令ジェスチャー1〜Nと、認識開始トリガが入力されていない状態に戻す通常復帰命令ジェスチャーと、サーボOFFさせる停止命令ジェスチャーと、が設定されている。すなわち、駆動制御部34は合計(N+2)通りの命令ジェスチャーを記憶している。命令ジェスチャーの判定は、注視点Pの座標の変化や、視線を計測できない結果が表れた頻度等に基づいて行われる。   When the recognition start trigger is input, the drive control unit 34 performs a line-of-sight command process (step S103). That is, it is determined whether or not the measurement result of the line-of-sight measurement device 10 corresponds to a command gesture. Here, command gestures 1 to N for performing normal operation assistance, a normal return command gesture for returning to a state where a recognition start trigger is not input, and a stop command gesture for turning off the servo are set. That is, the drive control unit 34 stores a total of (N + 2) instruction gestures. The determination of the command gesture is performed based on the change in the coordinates of the gazing point P, the frequency at which the result that the line of sight cannot be measured, or the like.

命令ジェスチャー1が入力されたと判定された場合、その命令ジェスチャー1に対応する動作補助制御1を実行する(ステップS104)。そして、ステップS103に戻り、再度視線命令処理を行う。命令ジェスチャーNが入力されたと判定された場合、その命令ジェスチャーNに対応する動作補助制御Nを実行する(ステップS105)。そして、ステップS103に戻り、再度視線命令処理を行う。これにより、次の命令ジェスチャーを待つ状態となる。一方、通常復帰命令ジェスチャーが入力されたと判定した場合は、ステップS101に戻る。すなわち、認識開始トリガがリセットされ、通常の状態に復帰する。そして、再度、ステップS102で認識開始トリガが入力されたか否かを判定する。また、停止命令ジェスチャーが入力されたと判定された場合、サーボOFFして、駆動部32の駆動を停止させる。これにより、動作補助機構30の動作が停止して、動作補助が終了する。   When it is determined that the command gesture 1 has been input, the motion assist control 1 corresponding to the command gesture 1 is executed (step S104). Then, the process returns to step S103, and the line-of-sight command process is performed again. When it is determined that the command gesture N is input, the motion assist control N corresponding to the command gesture N is executed (step S105). Then, the process returns to step S103, and the line-of-sight command process is performed again. Thereby, it will be in the state which waits for the next command gesture. On the other hand, if it is determined that the normal return instruction gesture has been input, the process returns to step S101. That is, the recognition start trigger is reset, and the normal state is restored. In step S102, it is determined again whether a recognition start trigger has been input. If it is determined that a stop command gesture has been input, the servo is turned off and the drive of the drive unit 32 is stopped. Thereby, operation | movement of the operation assistance mechanism 30 stops, and operation assistance is complete | finished.

視線方向や、まばたきでは十分な数の命令ジェスチャーを設定できない場合、駆動補助装置側からディスプレイにメニューアイテムを表示してもよい。この場合、視線方向やまばたきでYESかNOを入力するようにしてもよい。また、動作補助装置100にマイクを取り付けて、音声命令により動作補助制御を行ってもよい。この場合、駆動制御部34に、音声命令処理部を設け、使用者の声に対して音声処理を行う。そして、どの動作補助制御を行うべきか判定する。このように、様々な入力インタフェースを視線計測装置10と組み合わせて用いることができる。   If a sufficient number of command gestures cannot be set by the line-of-sight direction or blinking, a menu item may be displayed on the display from the drive assist device side. In this case, you may make it input YES or NO by a gaze direction or blink. Moreover, a microphone may be attached to the motion assist device 100 and motion assist control may be performed by a voice command. In this case, the drive control unit 34 is provided with a voice command processing unit to perform voice processing on the user's voice. Then, it is determined which operation assistance control should be performed. Thus, various input interfaces can be used in combination with the line-of-sight measurement device 10.

また、命令ジェスチャーにより実行される制御は、駆動部32の駆動に限られるものではない。例えば、特定の計測結果が得られたときは、モータやアクチュエータをロックしたり、アシスト力やスピード等のパラメータを変化させるようにしてもよい。また、実行中の動作補助制御を緊急停止させる命令ジェスチャーを設定してもよい。これにより、動作補助機構30の反応が、使用者の意思とは異なる場合、即座に動作補助制御を停止することができる。従って、不要な動作が行なわれるのを防ぐことができ、操作性を向上することができる。これにより、利便性を向上できる。   Further, the control executed by the command gesture is not limited to driving the drive unit 32. For example, when a specific measurement result is obtained, a motor or an actuator may be locked, or parameters such as assist force and speed may be changed. In addition, a command gesture for urgently stopping the operation assistance control being executed may be set. Thereby, when the reaction of the motion assist mechanism 30 is different from the intention of the user, the motion assist control can be stopped immediately. Therefore, unnecessary operations can be prevented and operability can be improved. Thereby, the convenience can be improved.

このように、視線計測装置10を動作補助機構30の入力インターフェースとすることにより、利便性を向上することができる。すなわち、電極などを接触させるための導電性ジェルを塗布する必要がなく、帽子11を被るだけで動作を補助することができる。したがって、使用者の不快感を低減することができ、利便性を向上できる。さらに、発汗などによって計測に誤差が生じることもないため、確実に動作を補助することができる。   Thus, the convenience can be improved by using the line-of-sight measurement device 10 as an input interface of the motion assist mechanism 30. That is, it is not necessary to apply a conductive gel for contacting electrodes and the like, and the operation can be assisted only by wearing the cap 11. Therefore, a user's discomfort can be reduced and the convenience can be improved. Furthermore, since an error does not occur in measurement due to sweating, the operation can be reliably assisted.

さらに、視線計測装置10と動作補助機構30とを接続するリンク機構20に設けられたジョイントのエンコーダ値を読み取るようにしてもよい。そして、このエンコーダ値によって、動作補助機構30と視線計測装置10との相対位置を運動学により算出する。そして、認識された相対位置を考慮して視線の方向を計測する。これにより、使用者200の視線の方向や注視点Pの座標を正確に計測することができる。   Furthermore, an encoder value of a joint provided in the link mechanism 20 that connects the line-of-sight measurement device 10 and the motion assist mechanism 30 may be read. Then, the relative position between the motion assist mechanism 30 and the line-of-sight measurement device 10 is calculated by kinematics using this encoder value. Then, the direction of the line of sight is measured in consideration of the recognized relative position. Thereby, the direction of the line of sight of the user 200 and the coordinates of the gazing point P can be accurately measured.

また、本実施の形態にかかる動作補助装置100は、使用者に装着するタイプに限られるものではない。すなわち、非装着型の動作補助装置100であってもよい。さらに、使用者が自動車の運転手の場合、例えば、視線計測装置10で計測した方向に、自動車のヘッドランプを向けるようにしてもよい。これにより、利用範囲を広げることができる。   Moreover, the movement assistance apparatus 100 concerning this Embodiment is not restricted to the type with which a user wears. That is, the non-wearing type motion assisting device 100 may be used. Furthermore, when the user is a driver of an automobile, for example, the headlamp of the automobile may be directed in the direction measured by the line-of-sight measurement device 10. Thereby, a utilization range can be expanded.

また、動作補助機構30を、使用者200に装着するタイプとすると、容易に視線計測装置10と接続することができる。さらに、動作補助機構30を使用者の筋力をアシストするパワーアシストロボットとしてもよい。これにより、容易に制御可能なパワーアシスト装置を提供することができる。これにより、例えば、高齢者の介護などを容易に行うことができる。   Further, when the operation assisting mechanism 30 is of a type that is worn on the user 200, it can be easily connected to the visual line measuring device 10. Furthermore, the motion assist mechanism 30 may be a power assist robot that assists the user's muscle strength. Thus, a power assist device that can be easily controlled can be provided. Thereby, for example, care for an elderly person can be performed easily.

発明の実施の形態2.
本実施の形態では、実施の形態1と同様に視線計測装置によって、注視点の三次元座標を求めている。さらに、本実施の形態では、注視点の三次元座標に基づく動作目標位置に対してフィードバック制御を行っている。すなわち、計測された注視点に基づいて動作目標位置を設定する。そして、現在位置と動作目標位置との間の位置誤差によって、動作補助機構をフィードバック制御する。従って、動作補助機構が、注視点に追従するよう、制御される。すなわち、動作補助機構が注視点に対して追従して動作する。
Embodiment 2 of the Invention
In the present embodiment, the three-dimensional coordinates of the gazing point are obtained by the line-of-sight measurement device as in the first embodiment. Furthermore, in this embodiment, feedback control is performed on the operation target position based on the three-dimensional coordinates of the gazing point. That is, the operation target position is set based on the measured gazing point. Then, the motion assist mechanism is feedback-controlled by a position error between the current position and the motion target position. Therefore, the movement assist mechanism is controlled so as to follow the gazing point. That is, the motion assist mechanism operates following the point of sight.

本実施の形態にかかる動作補助装置について図6を用いて説明する。図6は、本実施の形態にかかる動作補助装置の構成を模式的に示す側面図である。本実施の形態にかかる動作補助装置100の動作補助機構30は、使用者200の腕の筋力をアシストするアシストアームである。動作補助機構30には、実施の形態と同様に、駆動制御部34、駆動部32、装着部31、リンク35等が設けられている。これらについては、実施の形態1と同様の構成であるため、詳細な説明を省略する。また、視線計測装置10についても、実施の形態1と同様の構成であるため、説明を省略する。すなわち、視線計測装置10は、使用者の眼球に照明光を出射する照明光源と、眼で反射した照明光源からの光を検出するカメラとを備えている。   The motion assisting device according to the present embodiment will be described with reference to FIG. FIG. 6 is a side view schematically showing the configuration of the motion assisting device according to the present embodiment. The motion assist mechanism 30 of the motion assist device 100 according to the present embodiment is an assist arm that assists the muscular strength of the arm of the user 200. As in the embodiment, the motion assist mechanism 30 is provided with a drive control unit 34, a drive unit 32, a mounting unit 31, a link 35, and the like. Since these are the same configurations as those of the first embodiment, detailed description thereof is omitted. Also, the line-of-sight measurement device 10 has the same configuration as that of the first embodiment, and thus description thereof is omitted. That is, the line-of-sight measurement device 10 includes an illumination light source that emits illumination light to the user's eyeball, and a camera that detects light from the illumination light source reflected by the eye.

動作補助機構30と視線計測装置10はリンク機構20により連結されている。ここで、視線計測装置10と動作補助機構30とを接続するリンク機構には、ジョイント21が設けられている。リンク機構20はパッシブなリンク機構であり、使用者200の筋力によって駆動される。従って、頭部の位置姿勢を変えることができる。さらに、ジョイント21のエンコーダ値によって、視線計測装置10と動作補助機構30との相対位置を求めることができる。この相対位置を考慮して注視点の座標を測定する。従って、アシストアームの先端位置を注視点との位置を正確に認識することができる。さらに、使用者200の頭部の姿勢を認識してもよい。そして、頭部の位置姿勢を考慮して注視点の座標を測定してもよい。このように、リンク機構20によって、視線計測装置10と動作補助機構30との間の座標系を統一することができる。すなわち、視線計測装置10で測定された注視点と、アシストアームの先端位置とが同じ基準座標系で表される。なお、基準座標系は使用者200に固定されているとする。   The operation assisting mechanism 30 and the line-of-sight measurement device 10 are connected by a link mechanism 20. Here, a joint 21 is provided in the link mechanism that connects the line-of-sight measurement device 10 and the motion assist mechanism 30. The link mechanism 20 is a passive link mechanism and is driven by the muscular strength of the user 200. Therefore, the position and orientation of the head can be changed. Furthermore, the relative position between the line-of-sight measurement device 10 and the motion assist mechanism 30 can be obtained from the encoder value of the joint 21. The coordinates of the gazing point are measured in consideration of this relative position. Therefore, it is possible to accurately recognize the position of the tip end position of the assist arm and the point of gaze. Further, the posture of the user 200's head may be recognized. Then, the coordinates of the gazing point may be measured in consideration of the position and orientation of the head. As described above, the link mechanism 20 can unify the coordinate system between the line-of-sight measurement device 10 and the motion assist mechanism 30. That is, the gazing point measured by the line-of-sight measurement device 10 and the tip position of the assist arm are represented in the same reference coordinate system. Note that the reference coordinate system is fixed to the user 200.

ここで、動作補助機構30は、使用者200の腕の筋力をアシストするアシストアームである。従って、動作補助機構30は、使用者200の上半身を中心に装着されている。動作補助機構30の駆動部32は肘、肩などの近傍に配置される。動作補助機構30の先端は、使用者200の手首の周辺に配置される。これにより、パワーアシストされている状態で、使用者200が物体、あるいは人間を持ち上げ、持ち運びすることが可能となる。   Here, the operation assisting mechanism 30 is an assist arm that assists the muscle strength of the arm of the user 200. Therefore, the motion assist mechanism 30 is mounted around the upper body of the user 200. The drive unit 32 of the motion assist mechanism 30 is disposed in the vicinity of the elbow, shoulder, and the like. The distal end of the movement assist mechanism 30 is disposed around the wrist of the user 200. Accordingly, the user 200 can lift and carry an object or a person while being power-assisted.

ここで、動作補助の一例として、使用者200が被介護者300をベッド400から持ち上げ、被介護者300を所定の位置まで持ち運ぶ動作を挙げて説明する。なお、動作補助機構30の基本的な処理は実施の形態1と同様であるため、実施の形態1と重複する内容については説明を省略する。本実施の形態にかかる制御は、例えば、図5で示したフローと同様のフローで処理される。ここで、命令ジェスチャー1が上記の追従動作を開始する開始命令ジェスチャーとする。従って、開始命令ジェスチャーである命令ジェスチャ−1が入力されると、駆動制御部34が注視点を動作目標位置として駆動制御する。   Here, as an example of operation assistance, an operation in which the user 200 lifts the cared person 300 from the bed 400 and carries the cared person 300 to a predetermined position will be described. In addition, since the basic process of the movement assistance mechanism 30 is the same as that of Embodiment 1, description is abbreviate | omitted about the content which overlaps with Embodiment 1. FIG. The control according to the present embodiment is processed in the same flow as that shown in FIG. 5, for example. Here, it is assumed that the command gesture 1 is a start command gesture for starting the follow-up operation. Therefore, when the command gesture-1 that is the start command gesture is input, the drive control unit 34 performs drive control with the gazing point as the motion target position.

開始命令ジェスチャーが実行された場合、動作補助装置100は、使用者200の注視点の方向に向かって、駆動制御を行う。具体的には、視線計測装置10は、実施の形態1と同様に注視点の座標を算出する。そして、注視点Pに基づいて動作目標位置を設定する。動作目標位置の座標に動作補助装置30の先端を近づけるように駆動制御する。これにより、動作目標位置に向かってアシストアームが動作する。使用者200の手が注視点の方向に向かってアシストされる。動作補助装置30の先端は、随時更新される注視点に追従して移動する。例えば、現在位置と動作目標位置との間の位置誤差、及び速度誤差によって、動作補助機構30の駆動部32をフィードバック制御する   When the start command gesture is executed, the motion assisting device 100 performs drive control toward the direction of the user's gazing point. Specifically, the line-of-sight measurement device 10 calculates the coordinates of the gazing point as in the first embodiment. Then, an operation target position is set based on the gazing point P. Drive control is performed so that the tip of the motion assisting device 30 approaches the coordinates of the motion target position. As a result, the assist arm operates toward the operation target position. The user's 200 hand is assisted toward the direction of the point of sight. The tip of the motion assisting device 30 moves following a gazing point that is updated as needed. For example, the drive unit 32 of the motion assist mechanism 30 is feedback-controlled by the position error between the current position and the motion target position and the speed error.

本実施の形態では、駆動制御部34が所定の命令ジェスチャーが入力された場合に、動作補助機構30の先端を目標動作位置に向かって移動させる。これにより、常に動作補助機構30が動作するのを防ぐことができる。すなわち、使用者の向いている方向にアシストアームが常に動いていては不便である。そのため、開始命令ジェスチャーを認識した場合のみ、上記の動作補助制御を開始する。例えば、ある一定時間以上、一定の方向を注視するジェスチャーを命令ジェスチャーとする。なお、注視する位置は、日常的に視線を向けることが無い場所を設定することが望ましい。例えば、設定場所を上方の置くことが好ましい。これにより、手元に設定場所を置いた場合よりも誤差動を防ぐことができる。あるいは、一定以上眼をつぶる動作や、まばたきを数回繰り返す動作を開始命令ジェスチャとしてもよい。さらに、追従動作を終了する場合は、終了命令ジェスチャーを実行する。終了命令ジェスチャーとしては、開始命令ジェスチャーと同様のジェスチャーを用いることができる。   In the present embodiment, when a predetermined command gesture is input, the drive control unit 34 moves the tip of the movement assist mechanism 30 toward the target movement position. Thereby, it is possible to prevent the operation assisting mechanism 30 from always operating. That is, it is inconvenient if the assist arm always moves in the direction that the user is facing. Therefore, the motion assist control is started only when the start command gesture is recognized. For example, a gesture that gazes at a certain direction for a certain time or longer is set as a command gesture. In addition, it is desirable to set the gaze position as a place where the line of sight is not directed daily. For example, it is preferable to place the setting place upward. As a result, it is possible to prevent the error movement as compared with the case where the setting place is placed at hand. Alternatively, the start command gesture may be an operation that closes the eyes more than a certain amount or an operation that repeats blinking several times. Furthermore, when ending the follow-up operation, an end command gesture is executed. As the end command gesture, the same gesture as the start command gesture can be used.

ここで、腕を動作を補助する動作補助機構30について説明する。使用者200の手の姿勢まで、正確に沿わそうとするならば、7以上の自由度が必要であると考えられる。しかし、冗長であるため、逆運動学と逆動力学を解くために新たな拘束条件とを導入する必要がある。ここでは、説明を簡単にするため、動作補助機構30が、図7に示すように、3自由度+1自由度のアシストアーム50であるとして説明する。なお、図7(a)は、動作補助機構30を装着した使用者200を模式的に示す上面図である。図7(b)はアシストアーム50の各軸を示す図である。なお、図7では、説明の明確化のため、右腕部分のみを示している。また、視線計測装置10とリンク機構20については省略して図示している。   Here, the movement assist mechanism 30 that assists the movement of the arm will be described. If it is going to follow the hand posture of the user 200 correctly, it is considered that a degree of freedom of 7 or more is necessary. However, because of the redundancy, new constraints must be introduced to solve inverse kinematics and inverse dynamics. Here, in order to simplify the description, it is assumed that the motion assist mechanism 30 is an assist arm 50 having 3 degrees of freedom and 1 degree of freedom as shown in FIG. FIG. 7A is a top view schematically showing the user 200 wearing the operation assisting mechanism 30. FIG. FIG. 7B is a diagram showing each axis of the assist arm 50. In FIG. 7, only the right arm portion is shown for clarity of explanation. Further, the line-of-sight measurement device 10 and the link mechanism 20 are not shown.

ここで、201を使用者200の頭部、202を肩、203を上腕、204を肘、205を前腕、206を手首、207を手とする。肩202の近傍には、アシストアーム50の第1軸51、及び第2軸52が配置されている。肘204の近傍に第3軸53が配置される。第4軸54は前腕205の近傍に配置される。さらに、手首206には、アシストアーム50の先端部55が取り付けられている。このように、第1軸51〜第4軸54のそれぞれには、アシストアーム50の関節が配置される。アシストアーム50が、上腕203や前腕205の筋力をアシストすることができる。   Here, 201 is the user's 200 head, 202 is the shoulder, 203 is the upper arm, 204 is the elbow, 205 is the forearm, 206 is the wrist, and 207 is the hand. In the vicinity of the shoulder 202, a first shaft 51 and a second shaft 52 of the assist arm 50 are arranged. A third shaft 53 is disposed in the vicinity of the elbow 204. The fourth shaft 54 is disposed in the vicinity of the forearm 205. Further, the tip 206 of the assist arm 50 is attached to the wrist 206. As described above, the joint of the assist arm 50 is arranged on each of the first shaft 51 to the fourth shaft 54. The assist arm 50 can assist the muscular strength of the upper arm 203 and the forearm 205.

第1軸51、第2軸52、及び第3軸53は、駆動部32のモータ等(図7では図示せず)によって、回転角度を変えることができる。また、第4軸54はアシストアーム50を手首206に固定するためのフリージョイントである。この第4軸54によって、使用者200は手首206のロール軸を自由に回転させることができる。各軸は、リンク35によって回転可能に連結されている。ここで、アシストアーム50の先端部55の位置が決まれば、逆運動学によって、第1軸51、第2軸52、及び第3軸53の回転角度を求めることができる。   The rotation angle of the first shaft 51, the second shaft 52, and the third shaft 53 can be changed by a motor or the like (not shown in FIG. 7) of the drive unit 32. The fourth shaft 54 is a free joint for fixing the assist arm 50 to the wrist 206. With the fourth shaft 54, the user 200 can freely rotate the roll shaft of the wrist 206. Each shaft is rotatably connected by a link 35. Here, if the position of the tip 55 of the assist arm 50 is determined, the rotation angles of the first shaft 51, the second shaft 52, and the third shaft 53 can be obtained by inverse kinematics.

ここで、動作目標位置Xを数式1で示す。 Here, the operation target position XG is expressed by Equation 1.

Figure 2007319187
Figure 2007319187

動作目標位置Xは、視線計測装置10において、角膜反射の輻輳角より導いた三次元座標である。なお、基準座標系は使用者200に固定されているとする。ここで、目標関節角度qは以下の数式2で導くことができる。 The motion target position XG is a three-dimensional coordinate derived from the convergence angle of corneal reflection in the visual line measurement device 10. Note that the reference coordinate system is fixed to the user 200. Here, the target joint angle q G can be derived by the following formula 2.

Figure 2007319187
Figure 2007319187

なお、数式2において、qG1、qG2、qG3は、第1軸〜第3軸の関節角度である。また、L()は関節角度から、手の先端位置へと変換する順運動学方程式を示している。数式2では、L()の逆関数を用いることで、手の先端位置から関節角度を算出している。すわわち、L−1()は逆運動学方程式を示している。従って、Lの逆行列であるL−1を数式1に左からかけることで、qを算出することができる。なお、第4軸は回転したとしても、アシストアーム50の先端位置の座標が変化しないので、方程式には含まれない。フィードバック制御を行う場合、関節に出力すべきトルクτは、数式3で算出することができる。 In Equation 2, q G1 , q G2 , and q G3 are joint angles of the first axis to the third axis. L () represents a forward kinematic equation for converting from the joint angle to the tip position of the hand. In Formula 2, the joint angle is calculated from the tip position of the hand by using the inverse function of L (). That is, L −1 () represents an inverse kinematic equation. Accordingly, q G can be calculated by multiplying L− 1 , which is an inverse matrix of L, from Equation 1 from the left. Note that even if the fourth axis rotates, the coordinates of the tip position of the assist arm 50 do not change, so it is not included in the equation. When performing feedback control, the torque τ to be output to the joint can be calculated by Equation 3.

Figure 2007319187
Figure 2007319187

数式3において、Kは位置誤差によるフィードバックゲインであり、Dは速度誤差によるフィードバックゲインである。また、qは現在の関節角度を示している。現在の関節角度qは、例えば、各軸のエンコーダ値を読み取ることによって算出することができる。フィードバックゲインK,Dに適当な値を設定すると、関節に与えるトルクを算出することができる。このようにPD制御によって、実装が簡単、かつ安定した制御を行うことができる。   In Equation 3, K is a feedback gain due to a position error, and D is a feedback gain due to a speed error. Q indicates the current joint angle. The current joint angle q can be calculated, for example, by reading the encoder value of each axis. When appropriate values are set for the feedback gains K and D, the torque applied to the joint can be calculated. As described above, the PD control enables easy and stable control.

なお、注視点Pは、一瞬で移動することができるため、注視点Pに基づく動作目標位置に単純に追従していると、アシストアーム50が非常に大きな速度で駆動してしまう場合がある。この場合、使用者200が危険に曝されてしまうおそれがある。従って、使用者200への危険を回避するため、フィードバックゲインK、Dを小さしてもよい。さらに、しきい値以上の速度で注視点Pが移動した場合、フェールすることによって、安全を確保することができる。従って、しきい値以上の速度で注視点Pが移動した場合、トルクτを変化させずに駆動してもよい。さらに、速度リミッタや、トルクリミッタを各軸に設けて、安全確保してもよい。   Note that since the gazing point P can move in an instant, if the movement target position based on the gazing point P is simply followed, the assist arm 50 may be driven at a very high speed. In this case, the user 200 may be at risk. Therefore, in order to avoid danger to the user 200, the feedback gains K and D may be reduced. Furthermore, when the gazing point P moves at a speed equal to or higher than the threshold value, safety can be ensured by failing. Accordingly, when the gazing point P moves at a speed equal to or higher than the threshold value, the driving may be performed without changing the torque τ. Furthermore, a speed limiter or a torque limiter may be provided on each axis to ensure safety.

このように、動作目標位置に基づいてアシストアーム50の動作がフィードバック制御される。従って、アシストアーム50の先端位置が、動作目標位置に追従して移動する。すなわち、アシストアーム50の先端位置が、動作目標位置に近づくよう制御される。このとき、アシストアーム50は位置誤差、及び速度誤差に基づいて、フィードバック制御されている。従って、使用者200が被介護者300を持ち上げ、持ち運びを容易に行うことができる。例えば、被介護者300の上の空中を注視することによって、被介護者300を容易に持ち上げることができる。そして、被介護者300を持ち上げた状態でベッド400上を注視することによって、被介護者を容易にベッド400まで持ち運ぶことができる。このように、視線計測装置10を動作補助装置30の入力インターフェースとして利用することによって、利便性を向上することができる。なお、動作補助装置30はアシストアームに限らず、使用者の筋力を補助するパワーアシストロボットとしてもよい。   As described above, the operation of the assist arm 50 is feedback-controlled based on the operation target position. Therefore, the tip end position of the assist arm 50 moves following the operation target position. That is, the tip position of the assist arm 50 is controlled to approach the operation target position. At this time, the assist arm 50 is feedback-controlled based on the position error and the speed error. Therefore, the user 200 can lift the cared person 300 and carry it easily. For example, the care receiver 300 can be easily lifted by gazing at the air above the care receiver 300. The care recipient can be easily carried to the bed 400 by gazing at the top of the bed 400 with the care receiver 300 lifted. Thus, the convenience can be improved by using the visual line measuring device 10 as an input interface of the motion assisting device 30. The motion assisting device 30 is not limited to an assist arm, and may be a power assist robot that assists the user's muscle strength.

本実施の形態にかかる動作補助装置30の制御方法について、図8を用いて説明する。図8は、本実施の形態にかかる動作補助装置30の制御方法を示すフローチャートである。図8では、図5のステップSについて詳細に示している。なお、図5のその他のステップは実施の形態1で説明した内容と同様であるため、説明を省略する。   A control method of the motion assisting device 30 according to the present embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing a control method of the motion assisting device 30 according to the present embodiment. FIG. 8 shows details of step S in FIG. The other steps in FIG. 5 are the same as those described in the first embodiment, and thus description thereof is omitted.

まず、開始命令ジェスチャーが入力された場合、図5のステップS104で示したように、開始命令ジェスチャーが認識されると、現在のアシストアーム50の先端位置を算出する(ステップS201)。アシストアーム50の先端位置は、各軸の角度により算出することができる。具体的には、モータに設けられたエンコーダの値に基づいて先端部55の座標を算出する。次に、視線計測装置10が注視点Pの座標を測定する(ステップS202)。注視点Pの三次元座標は、両目の間隔、及び輻輳角に基づいて算出されている。   First, when a start command gesture is input, as shown in step S104 of FIG. 5, when the start command gesture is recognized, the current tip position of the assist arm 50 is calculated (step S201). The tip position of the assist arm 50 can be calculated from the angle of each axis. Specifically, the coordinates of the tip portion 55 are calculated based on the value of an encoder provided in the motor. Next, the line-of-sight measurement device 10 measures the coordinates of the gazing point P (step S202). The three-dimensional coordinates of the gazing point P are calculated based on the distance between the eyes and the convergence angle.

次に、測定された注視点Pの座標に基づいて動作目標を算出する(ステップS203)。ここでは、注視点Pに基づいて動作目標位置を設定する。さらに、動作目標位置に対する目標関節座標qを算出する。まず、注視点Pに基づいて、目標動作位置の座標を算出する。例えば、アシストアーム50の先端位置の座標と、動作目標位置の座標とが、リンク機構20の状態に応じて較正されている。すなわち、動作目標位置の座標には、ジョイント21の回転角度等が考慮されている。従って、動作目標位置の座標と、アシストアーム50の先端位置の座標とが基準座標系で示される。なお、目標動作位置は注視点Pと異なる座標であってもよい。例えば、左腕と、右腕のアシストアーム50がある場合、それぞれの座標を注視点Pの座標から左右に一定距離だけ離してもよい。そして、数式3に示すよう、逆運動学方程式を解くことによって、目標関節角度qを算出することができる。これにより、左右のアシストアーム50の先端位置をずらすことができる。 Next, an operation target is calculated based on the measured coordinates of the gazing point P (step S203). Here, the operation target position is set based on the gazing point P. Further calculates the desired joint coordinates q G for operating the target position. First, based on the gazing point P, the coordinates of the target motion position are calculated. For example, the coordinates of the tip position of the assist arm 50 and the coordinates of the operation target position are calibrated according to the state of the link mechanism 20. That is, the rotation angle of the joint 21 is taken into consideration for the coordinates of the operation target position. Therefore, the coordinates of the operation target position and the coordinates of the tip position of the assist arm 50 are shown in the reference coordinate system. Note that the target motion position may be a coordinate different from that of the gazing point P. For example, when there are the left arm and the right arm assist arm 50, the respective coordinates may be separated from the coordinates of the gazing point P by a certain distance from side to side. Then, as shown in Equation 3, by solving the inverse kinematics equations, it is possible to calculate the target joint angle q G. Thereby, the tip positions of the left and right assist arms 50 can be shifted.

そして、目標関節角度qから各関節に与えるトルクτを決定する(ステップS204)。ここでは、数式3に示すよう、適当なフィードバックゲインK,Dからトルクτが算出される。そして、トルクτを与えるよう、各軸のモータを駆動する(ステップS205)。これにより、アシストアームの先端位置が、動作目標位置に近づく。さらに、終了命令ジェスチャーが入力されたか否かを判定する(ステップS206)。終了命令ジェスチャーが入力されていないと判定すると、再度ステップS201からの処理を繰り返す。これにより、アシストアーム50の先端位置が、動作目標位置に追従して移動するようフィードバック制御される。また、終了命令ジェスチャーが入力されたと判定すると、追従制御を停止する。そして、図5のステップS103で示したように、次の命令ジェスチャーを待つ。このように、終了命令ジェスチャーが入力されるまで、フィードバック制御を行う追従動作を繰り返す。 Then, to determine the torque τ that gives the target joint angle q G in each joint (Step S204). Here, as shown in Formula 3, the torque τ is calculated from the appropriate feedback gains K and D. And the motor of each axis | shaft is driven so that torque (tau) may be given (step S205). Thereby, the tip position of the assist arm approaches the operation target position. Further, it is determined whether or not an end command gesture has been input (step S206). If it is determined that the end instruction gesture has not been input, the processing from step S201 is repeated again. Thereby, feedback control is performed so that the tip position of the assist arm 50 moves following the operation target position. If it is determined that an end command gesture has been input, the tracking control is stopped. Then, as shown in step S103 of FIG. 5, the next command gesture is awaited. In this manner, the follow-up operation for performing feedback control is repeated until an end command gesture is input.

上記のように制御することによって、視線の方向に被介護者300を持ち運ぶことができる。このように、動作目標位置に追従するよう、持ち運ぶことができる。従って、注視点Pに基づいて動作補助機構30が駆動する。よって、視線の方向に移動させることが可能となり、使用者200が容易に操作することができる。従って、さらに操作性を向上することができ、利便性を高くすることができる。もちろん、実施の形態1で示したように、足用の動作補助機構30と組み合わせて使用してもよい。また、実施の形態1で示した自重キャンセル制御を行ってもよい。   By controlling as described above, the care receiver 300 can be carried in the direction of the line of sight. Thus, it can be carried so as to follow the operation target position. Accordingly, the motion assist mechanism 30 is driven based on the gazing point P. Therefore, it is possible to move in the direction of the line of sight, and the user 200 can easily operate. Therefore, the operability can be further improved and the convenience can be enhanced. Of course, as shown in the first embodiment, it may be used in combination with the movement assist mechanism 30 for the foot. Further, the dead weight canceling control shown in the first embodiment may be performed.

発明の実施の形態3.
本実施の形態では、実施の形態2と同様に、注視点Pに基づいて動作目標位置を求める。そして、動作目標位置に基づいてアシストアーム50の動作がフィードバック制御される。しかしながら、実施の形態2では、外力を測定しないため、使用者200にかかる力を制御できない。従って、使用者200に大きな力がかかってしまう場合がある。本実施の形態では、使用者200にかかる力を考慮した制御の一例として、インピーダンス制御を用いている。以下に、本実施の形態にかかる動作補助装置100の制御手法について説明する。なお、動作補助装置100の基本的に構成については、上述した構成と同様であるため説明を省略する。
Embodiment 3 of the Invention
In the present embodiment, the operation target position is obtained based on the gazing point P, as in the second embodiment. The operation of the assist arm 50 is feedback-controlled based on the operation target position. However, in Embodiment 2, since the external force is not measured, the force applied to the user 200 cannot be controlled. Therefore, a large force may be applied to the user 200. In the present embodiment, impedance control is used as an example of control in consideration of the force applied to the user 200. Below, the control method of the operation assistance apparatus 100 concerning this Embodiment is demonstrated. Note that the basic configuration of the motion assisting device 100 is the same as that described above, and a description thereof will be omitted.

動作目標位置Xと、アシストアーム50の先端位置Xは、それぞれ数式4,5のように表す。 The operation target position XG and the tip position X of the assist arm 50 are expressed as Equations 4 and 5, respectively.

Figure 2007319187
Figure 2007319187
Figure 2007319187
Figure 2007319187

ここで、動作目標位置Xは、視線計測装置10によって、角膜反射の輻輳角から導いた三次元座標である。また、アシストアーム50の先端位置Xは、アシストアーム50の各軸の回転角から算出した三次元座標である。すなわち、アシストアーム50の先端位置Xは、各軸に設けられたリンク機構20の状態についても考慮されている。 Here, the motion target position XG is a three-dimensional coordinate derived from the convergence angle of corneal reflection by the visual line measurement device 10. The tip position X of the assist arm 50 is a three-dimensional coordinate calculated from the rotation angle of each axis of the assist arm 50. That is, the tip position X of the assist arm 50 also takes into account the state of the link mechanism 20 provided on each axis.

ここで、アシストアーム50の先端部55の外力(使用者200に与える力)をFとすると、数式6で示される方程式が得られる。   Here, when the external force (force applied to the user 200) of the tip end portion 55 of the assist arm 50 is F, the equation shown in Equation 6 is obtained.

Figure 2007319187
Figure 2007319187

なおFは、三次元の並進力ベクトルである。数式6において、右辺の各項の係数行列は、目標インピーダンスを示しており、Md,Bd,Kdは、それぞれ目標質量、目標粘性、目標弾性となっている。数式6より、目標位置Xの加速度は以下の数式7で与えられる。 F is a three-dimensional translational force vector. In Equation 6, the coefficient matrix of each term on the right side indicates the target impedance, and Md, Bd, and Kd are the target mass, target viscosity, and target elasticity, respectively. From Equation 6, the acceleration of the target position X G is given by the following equation 7.

Figure 2007319187
Figure 2007319187

数式7において、Jはヤコビアン(ヤコビ行列)である。数式7により導かれた関節空間の加速度ベクトルを以下の数式8に代入すると、各関節に出力すべきトルクτを求めることができる。   In Equation 7, J is a Jacobian (Jacobi matrix). When the acceleration vector of the joint space derived from Equation 7 is substituted into Equation 8 below, the torque τ to be output to each joint can be obtained.

Figure 2007319187
Figure 2007319187

数式8はニュートンオイラー法により導き出した運動方程式である。ここで、M()は質量行列、v()は遠心力やコリオリ力などの線形項を示すベクトル、G()は質量ベクトルである。数式8によって算出したトルクτを出力することによって、目標インピーダンスを持ったアシストアーム制御を実現することができる。上記のインピーダンス制御の概念図を図9に示す。   Equation 8 is an equation of motion derived by the Newton Euler method. Here, M () is a mass matrix, v () is a vector indicating linear terms such as centrifugal force and Coriolis force, and G () is a mass vector. By outputting the torque τ calculated by Expression 8, assist arm control having a target impedance can be realized. A conceptual diagram of the above impedance control is shown in FIG.

図9に示すようにアシストアーム50の先端部55と動作目標位置とがバネマスダンパ系で結ばれている。その間に、使用者の腕が挟まれる形となっている。従って、バネ61、及びダンパ62によって、インピーダンス制御が行われる。使用者200にかかる力を低減することができる。よって、安全性を高めることができる。   As shown in FIG. 9, the tip 55 of the assist arm 50 and the operation target position are connected by a spring mass damper system. In the meantime, the user's arm is sandwiched. Therefore, impedance control is performed by the spring 61 and the damper 62. The force applied to the user 200 can be reduced. Therefore, safety can be improved.

ここで、注視点Pは、一瞬で決まるため、注視点Pに基づく動作目標位置に単純に追従していると、アシストアーム50が非常に大きな速度で駆動してしまう場合がある。この場合、使用者200への危険を回避するため、動作目標位置と、アシストアーム先端位置との距離に応じて、目標インピーダンス制御の目標質量Mdと、目標粘性Bdとを高くして、目標弾性Kdを低くすることが好ましい。これにより、アシストアーム50の先端部55が大きな速度になるのを防ぐことができる。さらに、しきい値以上の速度で注視点Pが移動した場合、フェールすることによって、安全を確保することができる。例えば、しきい値以上の速度で注視点Pが移動した場合、そのままのトルクτで駆動してもよい。さらに、速度リミッタや、トルクリミッタを各軸に設けて、安全確保してもよい。   Here, since the gazing point P is determined in an instant, if the movement target position based on the gazing point P is simply followed, the assist arm 50 may be driven at a very high speed. In this case, in order to avoid danger to the user 200, the target impedance control target mass Md and the target viscosity Bd are increased according to the distance between the operation target position and the assist arm tip position, and the target elasticity is increased. It is preferable to lower Kd. Thereby, it can prevent that the front-end | tip part 55 of the assist arm 50 becomes high speed. Furthermore, when the gazing point P moves at a speed equal to or higher than the threshold value, safety can be ensured by failing. For example, when the gazing point P moves at a speed equal to or higher than the threshold value, it may be driven with the torque τ as it is. Furthermore, a speed limiter or a torque limiter may be provided on each axis to ensure safety.

なお、注視点Pの範囲に比べてアシストアーム50の可動範囲が狭いため、可動範囲外に注視点Pに出た場合、逆運動学が解けなくなってしまう。すなわち、ヤコビアンJの逆行列を導出することができないため、トルクτを算出できなくなってしまう。この場合、動作目標位置を使用者200の方向に近づけて設定する。例えば、図10に示すように、アシストアーム50の可動範囲を表す空間の表面と、両目の中心と注視点Pとを結んだ直線の交点周辺を動作目標位置Xとすることができる。なお、図10では、アシストアーム50の可動範囲を表す空間の表面を点線で示している。すなわち、アシストアームの可動範囲を示す境界70を点線で示す。 In addition, since the movable range of the assist arm 50 is narrower than the range of the gazing point P, the inverse kinematics cannot be solved when the gazing point P is moved out of the movable range. That is, since the inverse matrix of Jacobian J cannot be derived, the torque τ cannot be calculated. In this case, the operation target position is set close to the direction of the user 200. For example, as shown in FIG. 10, it is possible to the surface of the space representing the movable range of the assist arms 50, a centering operation target position near the intersection of the gazing point line that runs on P X G of the eyes. In FIG. 10, the surface of the space representing the movable range of the assist arm 50 is indicated by a dotted line. That is, the boundary 70 indicating the movable range of the assist arm is indicated by a dotted line.

目標動作位置の設定について、図11、及び図12を用いて説明する。図11は、本実施の形態にかかる制御方法を示すフローチャートである。なお、図11は、図8で示したステップS203を詳細に示すものであり、それ以外のステップについては実施の形態2と同様であるため説明を省略する。図12は、動作目標位置を決定するため処理を説明する図である。   The setting of the target operation position will be described with reference to FIGS. 11 and 12. FIG. 11 is a flowchart showing a control method according to the present embodiment. Note that FIG. 11 shows step S203 shown in FIG. 8 in detail, and the other steps are the same as those in the second embodiment, and thus description thereof is omitted. FIG. 12 is a diagram illustrating a process for determining the operation target position.

まず、図8のステップS202で示した視線計測装置10によって注視点Pを計測する。次に、注視点Pの座標が、アシストアーム50の駆動範囲外にあるか否かを判定する(ステップS301)。具体的には、数式7で示されたヤコビアンJの逆行列を求めることができるか否かを判定する。あるいは、予め設定した可動範囲に注視点Pが含まれるか否かを判定してもよい。   First, the gazing point P is measured by the line-of-sight measurement device 10 shown in step S202 of FIG. Next, it is determined whether or not the coordinates of the gazing point P are outside the driving range of the assist arm 50 (step S301). Specifically, it is determined whether or not the inverse matrix of Jacobian J expressed by Equation 7 can be obtained. Alternatively, it may be determined whether or not the gazing point P is included in a preset movable range.

例えば、図12に示すように注視点Pが可動範囲の外側にある場合、アシストアーム50の先端が注視点Pに届かない。この場合、注視点Pから一定距離戻って、注視点Pの座標を変更する。ここで、座標が変更された点を変更点Pとする。変更点Pは両目の中心Oと注視点Pとを結ぶ直線上にある。すなわち、変更点Pは注視点Pから一定距離だけ、両目の中心Oに近づいた位置となる。そして、ステップS301に戻り、変更点Pがアシストアームの可動範囲外にあるか否かを判定する。ここでは、図12に示すように変更点Pも、可動範囲の外側にあるため、ステップS302に戻る。すなわち、変更点P2でも、逆運動方程式を解くことができない。変更点Pの座標が境界70の外側であるため、さらに一定距離戻って座標を変更する。ここで、座標が変更された点を変更点Pとする。変更点Pは変更点Pと同様に、両目の中心Oと注視点Pとを結ぶ直線上になる。従って、注視点Pと変更点Pと変更点Pとは同一直線上に等間隔で配置される。 For example, when the gaze point P 1 as shown in FIG. 12 is outside the movable range, the tip of the assist arm 50 does not reach the fixation point P 1. In this case, the coordinate of the gazing point P 1 is changed after returning from the gazing point P 1 by a certain distance. Here, the changes P 2 points coordinates has been changed. Changes P 2 are on the straight line connecting the center O of the eyes and the gaze point P 1. That is, a certain distance from the fixation point P 1 Changes P 2, a position close to the center O of the eyes. Then, the process returns to step S301, determines whether or not the changes P 2 is outside the movable range of the assist arm. Here, also changes P 2 as shown in FIG. 12, since the outside of the movable range, the flow returns to step S302. That is, the inverse motion equation cannot be solved even at the change point P2. For coordinate changes P 2 is an outer boundary 70, and changes the coordinates back further predetermined distance. Here, the changes P 3 points coordinates has been changed. Similarly to the change point P 2 , the change point P 3 is on a straight line connecting the center O of both eyes and the gazing point P 1 . Thus, the gazing point P 1 and changes P 2 and changes P 3 are arranged at equal intervals on the same straight line.

変更点Pは、可動範囲外にないため、アシストアーム50の先端部55が届く位置にある。従って、変更点Pに基づいて動作目標位置が設定される。すなわち、変更点Pが境界70の内側に配置されるため、ヤコビアンJの逆行列を求めることができる。従って、変更点Pを動作目標位置としてトルクτを決定する。これにより、可動範囲外にある場合でも、アシストアームをフィードバック制御することができる。もちろん、変更点P3が可動範囲外である場合は、一定距離だけ繰り返し近づけて動作目標位置を決定する。 Changes P 3, there is no out of the movable range, a position distal end 55 of the assist arm 50 arrives. Therefore, the operation target position is set on the basis of changes P 3. That is, since the changes P 3 is located inside the boundary 70, it is possible to obtain the inverse matrix of the Jacobian J. Therefore, to determine the torque τ as the operation target position changes P 3. Thereby, even when it is outside the movable range, the assist arm can be feedback-controlled. Of course, when the change point P3 is out of the movable range, the operation target position is determined by repeatedly approaching by a certain distance.

このように、注視点がアシストアーム50の可動範囲内にあるか否かによって、動作目標位置を変更する。これにより、注視点Pが遠くに位置する場合でも、注視点に近づくようフィードバック制御することができる。なお、注視点を近づけるための基準となる点は、両目の中心に限られるものではない。変更点が使用者200に近づくことができる点であればよい。   Thus, the operation target position is changed depending on whether or not the gazing point is within the movable range of the assist arm 50. Thereby, even when the watch point P is located far away, feedback control can be performed so as to approach the watch point. Note that the reference point for bringing the gazing point closer is not limited to the center of both eyes. Any change point may be used as long as it can approach the user 200.

その他の実施の形態.
なお、上記の実施の形態では、動作補助装置100を使用者200が装着するタイプとして説明したが、これに限られるものではない。すなわち、使用者200が装着しない状態で、所定の動作を行なう動作補助装置としてもよい。また、実施の形態1〜3のいずれか2つ以上を組み合わせて使用したもよい。例えば、実施の形態2又は3のアシストアームに実施の形態1で示した自重キャンセルを行ってもよい。
Other embodiments.
In the above-described embodiment, the operation assisting device 100 has been described as a type worn by the user 200, but is not limited thereto. That is, it is good also as an operation assistance apparatus which performs a predetermined | prescribed operation | movement in the state which the user 200 does not wear | wear. Further, any two or more of Embodiments 1 to 3 may be used in combination. For example, the self-weight cancellation shown in the first embodiment may be performed on the assist arm of the second or third embodiment.

本発明の実施の形態1にかかる動作補助装置の構成を模式的に示す側面図である。It is a side view which shows typically the structure of the operation assistance apparatus concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる動作補助装置に用いられる視線計測装置の構成を模式的に示す正面図である。It is a front view which shows typically the structure of the gaze measurement apparatus used for the operation assistance apparatus concerning Embodiment 1 of this invention. 視線計測装置による注視点の測定を説明するための図である。It is a figure for demonstrating the measurement of the gaze point by a gaze measuring device. 本発明の実施の形態1にかかる動作補助装置に用いられる動作補助機構の構成を模式的に示す斜視図である。It is a perspective view which shows typically the structure of the operation assistance mechanism used for the operation assistance apparatus concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる動作補助装置の制御方法を示すフローチャートである。It is a flowchart which shows the control method of the operation assistance apparatus concerning Embodiment 1 of this invention. 本発明の実施の形態2にかかる動作補助装置の構成を模式的に示す側面図である。It is a side view which shows typically the structure of the operation assistance apparatus concerning Embodiment 2 of this invention. 本発明の実施の形態2にかかる動作補助装置の動作補助機構の構成を模式的に示す上面図である。It is a top view which shows typically the structure of the operation assistance mechanism of the operation assistance apparatus concerning Embodiment 2 of this invention. 本発明の実施の形態2にかかる動作補助装置の制御方法を示すフローチャートである。It is a flowchart which shows the control method of the operation assistance apparatus concerning Embodiment 2 of this invention. 本発明の実施の形態3にかかる動作補助装置のインピーダンス制御を示す概念図である。It is a conceptual diagram which shows the impedance control of the operation assistance apparatus concerning Embodiment 3 of this invention. 本発明の実施の形態3にかかる動作補助装置の可動範囲と注視点の関係を示す模式的に示す図である。It is a figure which shows typically the relationship between the movable range of the operation assistance apparatus concerning Embodiment 3 of this invention, and a gaze point. 本発明の実施の形態3にかかる動作補助装置の制御方法を示すフローチャートである。It is a flowchart which shows the control method of the operation assistance apparatus concerning Embodiment 3 of this invention. 本発明の実施の形態3において動作目標位置を決定するため処理を説明する図である。It is a figure explaining a process in order to determine a motion target position in Embodiment 3 of this invention.

符号の説明Explanation of symbols

10 視線計測装置、11 帽子、12 アーム、13 照明手段、13a 照明光源、
13b ミラー、14 カメラ、15 測定制御部、20 リンク機構、
21 ジョイント、30 動作補助機構、31 装着部、32 駆動部、33 接地部、
34 駆動制御部、35 リンク、36 モータ
50 アシストアーム、51 第1軸、52 第2軸、53 第3軸、54 第4軸、
55 先端部、61 バネ、62 ダンパ、70 境界
100 動作補助装置、200 使用者、201 頭部、202 肩、203 上腕、
204 肘、205 前腕、206 手首、207 手、201 左の眼球、
202 右の眼球、203 左の角膜、204 右の角膜、
300 被介護者、400 ベッド
DESCRIPTION OF SYMBOLS 10 Eye-gaze measuring device, 11 Hat, 12 Arm, 13 Illumination means, 13a Illumination light source,
13b mirror, 14 camera, 15 measurement control unit, 20 link mechanism,
21 joints, 30 motion assist mechanisms, 31 mounting parts, 32 driving parts, 33 grounding parts,
34 drive control unit, 35 link, 36 motor 50 assist arm, 51 first axis, 52 second axis, 53 third axis, 54 fourth axis,
55 tip, 61 spring, 62 damper, 70 boundary 100 motion assist device, 200 user, 201 head, 202 shoulder, 203 upper arm,
204 elbow, 205 forearm, 206 wrist, 207 hand, 201 left eyeball,
202 right eyeball, 203 left cornea, 204 right cornea,
300 caregivers, 400 beds

Claims (12)

使用者の動作を補助する動作補助装置であって、
使用者の眼球に光を照射する光源と、前記眼球で反射された前記光源からの光を検出する光検出器とを有する視線計測装置と、
前記視線計測装置での計測結果に基づいて、使用者の動作を補助する動作補助機構とを備えた動作補助装置。
An operation assisting device for assisting a user's operation,
A line-of-sight measuring device comprising: a light source that irradiates light to a user's eyeball; and a photodetector that detects light from the light source reflected by the eyeball;
An operation assisting device comprising an operation assisting mechanism for assisting a user's operation based on a measurement result obtained by the line-of-sight measurement device.
前記視線計測装置が、前記使用者の視線の方向を計測し、
前記動作補助機構が、前記計測された視線の方向に向かって動作補助を行なう請求項1に記載の動作補助装置。
The line-of-sight measurement device measures the direction of the user's line of sight,
The motion assisting device according to claim 1, wherein the motion assisting mechanism assists the motion toward the measured line of sight.
前記視線計測装置が、両目の視線の方向から注視点を測定し、
前記動作補助機構が、前記注視点に基づいて動作目標位置を設定して、前記動作目標位置に追従するようフィードバック制御を行う請求項1又は2に記載の動作補助装置。
The line-of-sight measurement device measures a gazing point from the direction of the line of sight of both eyes,
The motion assist device according to claim 1, wherein the motion assist mechanism sets a motion target position based on the gazing point and performs feedback control so as to follow the motion target position.
前記視線計測装置と前記動作補助機構とを接続するリンク機構をさらに備え、
前記リンク機構の状態に基づいて、前記視線計測装置と前記動作補助機構との相対位置を認識して、前記動作目標位置を設定する請求項3に記載の動作補助装置。
A link mechanism that connects the line-of-sight measurement device and the movement assist mechanism;
The motion assisting device according to claim 3, wherein the motion target position is set by recognizing a relative position between the visual line measuring device and the motion assisting mechanism based on a state of the link mechanism.
前記注視点が前記動作補助機構の可動範囲外である場合、前記動作目標位置を前記動作補助機構の可動範囲内に設定する、請求項3又は4に記載の動作補助装置。   5. The motion assisting device according to claim 3, wherein when the gazing point is outside a movable range of the motion assisting mechanism, the motion target position is set within a movable range of the motion assisting mechanism. 前記視線計測装置及び前記動作補助機構が使用者に装着可能である請求項1乃至5のいずれかに記載の動作補助装置。   The motion assisting device according to any one of claims 1 to 5, wherein the line-of-sight measurement device and the motion assisting mechanism can be worn by a user. 前記動作補助装置が前記使用者の筋力をアシストするパワーアシストロボットである請求項1乃至6のいずれかに記載の動作補助装置。   The motion assisting device according to claim 1, wherein the motion assisting device is a power assist robot that assists the user's muscle strength. 使用者の動作を補助する動作補助装置の制御方法であって、
使用者の眼球に光を照射するステップと
前記眼球で反射された前記光源からの光を検出して、視線を計測するステップと、
前記視線の計測結果に基づいて、使用者の動作を補助するステップとを有する動作補助装置の制御方法。
A method of controlling a motion assisting device that assists a user's motion,
Irradiating a user's eyeball with light, detecting light from the light source reflected by the eyeball, and measuring a line of sight;
And a step of assisting the operation of the user based on the measurement result of the line of sight.
前記視線を計測するステップで計測された視線の方向に基づいて、前記動作を補助する方向を決定する請求項8に記載の動作補助装置の制御方法。   The method of controlling an operation assisting device according to claim 8, wherein a direction for assisting the operation is determined based on the direction of the eye gaze measured in the step of measuring the eye gaze. 両目に対して行なわれた前記視線の計測結果に基づいて、前記使用者の注視点を測定するステップと、
前記注視点に基づいて、動作目標位置を設定するステップとをさらに備え、
前記使用者の動作の補助を前記動作目標位置に対してフィードバック制御する請求項8又は9に記載の動作補助装置の制御方法。
Measuring the gaze point of the user based on the measurement result of the line of sight performed on both eyes;
Further comprising setting an operation target position based on the gaze point;
The method of controlling an operation assisting device according to claim 8 or 9, wherein the assist of the user's operation is feedback-controlled with respect to the operation target position.
前記動作の補助を行なう動作補助機構の可動範囲外に前記注視点がある場合、前記動作目標位置を前記動作補助機構の可動範囲内に設定する、請求項10に記載の動作補助装置の制御方法。   The method of controlling an operation assisting device according to claim 10, wherein when the gazing point is outside the movable range of the operation assisting mechanism that assists the operation, the operation target position is set within the movable range of the operation assisting mechanism. . 前記眼球に光を照射する光源と前記眼球で反射された光を検出する光検出器とを有する視線計測装置と、前記動作補助機構の相対位置を認識して、前記注視点を測定する請求項11に記載の動作補助装置の制御方法。
The line-of-sight measuring device having a light source for irradiating light to the eyeball and a photodetector for detecting light reflected by the eyeball, and measuring the gazing point by recognizing a relative position of the motion assist mechanism. The control method of the movement assistance apparatus of Claim 11.
JP2006149407A 2006-05-30 2006-05-30 Motion assisting device and control method for the same Pending JP2007319187A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006149407A JP2007319187A (en) 2006-05-30 2006-05-30 Motion assisting device and control method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006149407A JP2007319187A (en) 2006-05-30 2006-05-30 Motion assisting device and control method for the same

Publications (1)

Publication Number Publication Date
JP2007319187A true JP2007319187A (en) 2007-12-13

Family

ID=38852480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006149407A Pending JP2007319187A (en) 2006-05-30 2006-05-30 Motion assisting device and control method for the same

Country Status (1)

Country Link
JP (1) JP2007319187A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194982A (en) * 2008-02-13 2009-08-27 Konica Minolta Holdings Inc Movable tensegrity structure equipped with electrode structure
JP2009189468A (en) * 2008-02-13 2009-08-27 Konica Minolta Holdings Inc Motion assisting device
JPWO2009101828A1 (en) * 2008-02-13 2011-06-09 コニカミノルタホールディングス株式会社 Movable tensegrity structure
JP2011115460A (en) * 2009-12-04 2011-06-16 Saga Univ Visual axis controlling device, method of controlling visual axis, and program of the same
JP5503081B2 (en) * 2011-05-19 2014-05-28 パナソニック株式会社 Image display system and 3D glasses
JP2015528359A (en) * 2012-09-17 2015-09-28 ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング Method and apparatus for determining a point of interest on a three-dimensional object
JP2017154210A (en) * 2016-03-02 2017-09-07 パナソニック株式会社 Operation support device, and operation support system
JP2018001292A (en) * 2016-06-28 2018-01-11 株式会社クボタ Assist suit
JP2019093545A (en) * 2019-03-07 2019-06-20 株式会社クボタ Assist suit
JP2019094145A (en) * 2017-11-20 2019-06-20 株式会社クボタ Assisting instrument

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194982A (en) * 2008-02-13 2009-08-27 Konica Minolta Holdings Inc Movable tensegrity structure equipped with electrode structure
JP2009189468A (en) * 2008-02-13 2009-08-27 Konica Minolta Holdings Inc Motion assisting device
JPWO2009101828A1 (en) * 2008-02-13 2011-06-09 コニカミノルタホールディングス株式会社 Movable tensegrity structure
JP5299291B2 (en) * 2008-02-13 2013-09-25 コニカミノルタ株式会社 Movable tensegrity structure
JP2011115460A (en) * 2009-12-04 2011-06-16 Saga Univ Visual axis controlling device, method of controlling visual axis, and program of the same
JPWO2012157195A1 (en) * 2011-05-19 2014-07-31 パナソニック株式会社 Image display system and 3D glasses
JP5503081B2 (en) * 2011-05-19 2014-05-28 パナソニック株式会社 Image display system and 3D glasses
US9268145B2 (en) 2011-05-19 2016-02-23 Panasonic Intellectual Property Management Co., Ltd. Image display system and three-dimensional eyeglasses
JP2015528359A (en) * 2012-09-17 2015-09-28 ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング Method and apparatus for determining a point of interest on a three-dimensional object
JP2017154210A (en) * 2016-03-02 2017-09-07 パナソニック株式会社 Operation support device, and operation support system
JP2018001292A (en) * 2016-06-28 2018-01-11 株式会社クボタ Assist suit
JP2019094145A (en) * 2017-11-20 2019-06-20 株式会社クボタ Assisting instrument
JP2019093545A (en) * 2019-03-07 2019-06-20 株式会社クボタ Assist suit

Similar Documents

Publication Publication Date Title
JP2007319187A (en) Motion assisting device and control method for the same
JP5186723B2 (en) Communication robot system and communication robot gaze control method
Ubeda et al. Wireless and portable EOG-based interface for assisting disabled people
US10292780B2 (en) Haptic gloves and surgical robot systems
JP4178186B2 (en) Wearable motion assist device, control method for wearable motion assist device, and control program
EP3159118B1 (en) Motion reproducing system and motion reproducing apparatus
US9020643B2 (en) Robot apparatus, control method thereof, and computer program
US9662525B2 (en) Upper limb rehabilitation robot for meal assistance or meal rehabilitation training and method thereof
Krausz et al. Intent prediction based on biomechanical coordination of EMG and vision-filtered gaze for end-point control of an arm prosthesis
WO2015116640A1 (en) Eye and head tracking device
JP2008200512A (en) Wearable action-assist device, and method and program for controlling wearable action-assist device
JP2009207840A (en) Walking movement assisting device
KR20120071555A (en) Apparatus for rehabilitation robot
Baldi et al. Design of a wearable interface for lightweight robotic arm for people with mobility impairments
JP7157424B2 (en) INTERACTIVE INFORMATION TRANSMISSION SYSTEM AND INTERACTIVE INFORMATION TRANSMISSION METHOD AND INFORMATION TRANSMISSION SYSTEM
KR101458002B1 (en) Intelligent wheelchair robot based on biometrics for rehabilitation of upper limb and lower limb
KR20120042524A (en) Walking assisting device having user recognition function
JP2006198389A (en) Robot, and portable storage medium for use with the robot
KR20110049703A (en) Surgical robot system and laparoscope handling method thereof
KR101114234B1 (en) Surgical robot system and laparoscope handling method thereof
Liao et al. Development of kinect-based upper-limb assistance device for the motions of activities of daily living
Chang et al. Bio-inspired gaze-driven robotic neck brace
KR101934272B1 (en) Brain-Machine Interface Robot Control System
KR101745860B1 (en) Active upper extremity exercise assist device
WO2024021855A1 (en) Surgical robot, and control method and control apparatus therefor