JP2006043872A - Robot and method for controlling robot - Google Patents

Robot and method for controlling robot Download PDF

Info

Publication number
JP2006043872A
JP2006043872A JP2005184702A JP2005184702A JP2006043872A JP 2006043872 A JP2006043872 A JP 2006043872A JP 2005184702 A JP2005184702 A JP 2005184702A JP 2005184702 A JP2005184702 A JP 2005184702A JP 2006043872 A JP2006043872 A JP 2006043872A
Authority
JP
Japan
Prior art keywords
robot
sensor
limb
human
control method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005184702A
Other languages
Japanese (ja)
Inventor
Seiichiro Okada
誠一郎 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2005184702A priority Critical patent/JP2006043872A/en
Publication of JP2006043872A publication Critical patent/JP2006043872A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To avoid excessive load to a muscle of a person by a method for controlling a robot performing a work in cooperation with the person. <P>SOLUTION: This method relates to controlling of the robot by information of a sensor for measuring load to a person by arranging the sensor on the person side. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明はロボットの制御方法に関し、特に、人間の肢体関節角度情報などを利用して、人間と協調して作業を行うことができるロボットの制御方法に関する。   The present invention relates to a robot control method, and more particularly, to a robot control method capable of working in cooperation with a human by using information on a human limb body joint angle or the like.

従来の人間と強調して作業を行うことのできるロボットの制御方法は、特許文献1がある。従来技術を図を用いて説明する。
図5は従来の人間と協調して作業を行うことのできるロボットの構成図である。図5において、1はロボットアーム、2はハンド、3は操作者、4は物体、5は力覚センサである。図6は物体協調運搬ロボットの制御において用いる力覚センサの検出出力成分を説明した図である。図6において、ロボットアーム1とその先端のハンド2との間に力覚センサ5を設け、この力覚センサ5により、物体4におけるロボット側の物体支持点Pにおいて操作者側Qから物体4を介してロボットアーム1側に加えられる力を検出し、得られたセンサ信号を、水平前後方向(PQ方向)の並進力成分Fx、鉛直方向(PR方向)の並進力成分Fz、及び点P周りにおける水平軸周りの回転力成分τに分解する。また、ロボットアームの各関節には、それぞれの関節を駆動する関節アクチュエータを設けると共に、その関節角度を検出する角度センサを設け、それらのセンサ信号に基づいて物体の傾き角θを検出する。そして、水平前後方向の並進力成分Fxと回転力成分τについては、ロボットがそれぞれの方向に抵抗なく運動するように、物体4の点Pでの水平方向の速度、手先の回転速度が決定される。また、物体4の傾き角θに比例して、物体を水平にするための点Pでの鉛直方向の速度が決定される。そのためには、力覚センサ5のセンサ信号における水平軸周りの回転力成分τ及び水平前後方向の並進力成分Fxに基づき、水平軸周りの回転運動成分及び水平前後方向の並進運動成分を、ロボットの抵抗力が小さくなるようにゲインを設定して出力させることにより、ロボットアームを駆動し、一方、手先の角度センサのセンサ信号で検出した手先角度(物体4の傾き角θ)については、それに比例する鉛直方向の並進運動の運動指令を出力させ、物体が水平を維持するようにロボットアームの手先を昇降駆動する。このように、ロボットが物体を支持する点(図6上の点P)の周りでは、物体を自由に回転することができ、物体にトルクを加えることがないため、人間とロボットの鉛直方向の力は長尺物の質量配分に従ってほぼ半分ずつとなる。さらに、人間が物体に水平方向の力を加えると、ロボットはそれにならって抵抗なく水平に移動する。また、人間が物体を持ち上げて物体が傾くと、傾き角を零とするようにロボット手先に鉛直方向上向きの速度が発生するため、物体は水平を保ったまま上昇することになる。人間が把持している物体を降ろす場合も同様である。図7は従来の物体協調運搬ロボットの制御系の構成図である。図7において、座標変換部(a)で、水平前後方向の並進力成分Fx及び鉛直方向の並進力成分Fz、並びに水平軸周りの回転力成分τが分離される。一方、ロボットアームの各関節の角度センサにおいては、物体4の傾き角θが計測される。そして、力−運動変換部において、上記水平前後方向の並進力成分Fxに基づき、図6の点PにおけるPQ方向の並進運動成分(速度・加速度)が決定され、また、水平軸周りの回転力成分τに基づき、点Pまわりの回転運動成分(角速度・角加速度)が決定される。これらは、回転及び並進方向のロボットの抵抗力が小さくなるゲインの設定により決定される。
このように、従来技術は、力覚センサ信号に基づいて、水平軸周りの回転力成分τ及び水平前後方向の並進力成分Fxによる運動成分は、ロボットの抵抗力が小さくなるようにゲインを設定して出力させ、角度センサで検出した手先の角度θに基づいて、物体4が水平を維持するように手先の鉛直方向の並進運動の運動指令を出力させるものであった。
Patent Document 1 discloses a conventional robot control method that can perform work with emphasis on human beings. The prior art will be described with reference to the drawings.
FIG. 5 is a configuration diagram of a robot capable of working in cooperation with a conventional human. In FIG. 5, 1 is a robot arm, 2 is a hand, 3 is an operator, 4 is an object, and 5 is a force sensor. FIG. 6 is a diagram illustrating detection output components of a force sensor used in the control of the object cooperative transport robot. In FIG. 6, a force sensor 5 is provided between the robot arm 1 and the hand 2 at the tip thereof, and the force sensor 5 moves the object 4 from the operator side Q at the object support point P on the robot side of the object 4. The force applied to the robot arm 1 side is detected, and the obtained sensor signal is converted into a horizontal translational force component Fx in the horizontal front-rear direction (PQ direction), a translational force component Fz in the vertical direction (PR direction), and around the point P. Is broken down into rotational force components τ around the horizontal axis. Each joint of the robot arm is provided with a joint actuator for driving the joint and an angle sensor for detecting the joint angle, and the inclination angle θ of the object is detected based on the sensor signal. For the translational force component Fx and the rotational force component τ in the horizontal front-rear direction, the horizontal speed and the rotational speed of the hand at the point P of the object 4 are determined so that the robot moves without resistance in each direction. The Further, the vertical speed at the point P for leveling the object is determined in proportion to the inclination angle θ of the object 4. For that purpose, based on the rotational force component τ around the horizontal axis and the horizontal translational force component Fx in the sensor signal of the force sensor 5, the rotational motion component around the horizontal axis and the translational motion component in the horizontal longitudinal direction are obtained from the robot. The robot arm is driven by setting and outputting a gain so that the resistance force of the hand is reduced. On the other hand, for the hand angle (tilt angle θ of the object 4) detected by the sensor signal of the hand angle sensor, The motion command of the proportional translational motion in the vertical direction is output, and the hand of the robot arm is driven up and down so that the object remains horizontal. Thus, around the point where the robot supports the object (point P in FIG. 6), the object can freely rotate and no torque is applied to the object. The force is almost halved according to the mass distribution of the long object. Furthermore, when a human applies a horizontal force to an object, the robot moves horizontally without resistance. Further, when a human lifts an object and the object is tilted, a vertical upward speed is generated at the robot hand so that the tilt angle becomes zero, so that the object rises while maintaining the level. The same applies to a case where an object held by a human is lowered. FIG. 7 is a block diagram of a control system of a conventional object cooperative transport robot. In FIG. 7, the coordinate conversion unit (a) separates the translational force component Fx in the horizontal front-rear direction, the translational force component Fz in the vertical direction, and the rotational force component τ around the horizontal axis. On the other hand, in the angle sensor of each joint of the robot arm, the inclination angle θ of the object 4 is measured. In the force-motion conversion unit, the translational motion component (speed / acceleration) in the PQ direction at the point P in FIG. 6 is determined based on the translational force component Fx in the horizontal front-rear direction, and the rotational force around the horizontal axis. Based on the component τ, a rotational motion component (angular velocity / angular acceleration) around the point P is determined. These are determined by setting gains that reduce the resistance of the robot in the rotation and translation directions.
As described above, the conventional technology sets the gain based on the force sensor signal such that the rotational force component τ around the horizontal axis and the translational force component Fx in the horizontal front-rear direction reduce the resistance force of the robot. Based on the angle θ of the hand detected by the angle sensor, a motion command for translational motion in the vertical direction of the hand is output so that the object 4 is kept horizontal.

特開2000−343470号公報JP 2000-343470 A

しかしながら人間は、姿勢によって、筋が伸張した状態から動作を開始する場合(立ち上がる場合など)がある。このとき筋出力が発揮しにくい状況にあるにも関わらず、従来の構成では人間自身が無理な動作を行っても、過剰な負荷を回避することができなかった。
そこで本発明では、人間の筋への過剰な負荷を回避することができ、安全性が向上したロボットの制御方法を提供することを目的とする。
However, depending on the posture, a human may start to move (stand up, etc.) from a stretched state. At this time, in spite of the situation in which the muscle output is difficult to exert, the conventional configuration cannot avoid an excessive load even if the human himself performs an unreasonable operation.
Therefore, an object of the present invention is to provide a robot control method that can avoid an excessive load on human muscles and has improved safety.

請求項1記載の本発明は、人間と協調して作業を行うロボットの制御方法において、人間側に人間への負荷を計測するセンサを配置し、センサの情報によりロボットを制御するようにしたものである。
請求項2記載の本発明は、請求項1記載のロボットの制御方法において、センサは人間肢体関節部に装着するウエアラブルユニットに組み込まれた加速度センサであり、肢体の関節の遠位側加速度を検出するステップと、近位側加速度を検出するステップと、加速度情報から肢体の関節角度情報を演算するステップと、肢体関節角度情報をロボットへ伝送するステップを備えるようにしたものである。
請求項3記載の本発明は、請求項2記載のロボットの制御方法において、肢体関節角度情報に応じてロボットの動作速度を制御するようにしたものである。
請求項4記載の本発明は、請求項3記載のロボットの制御方法において、ロボットの動作速度(v)を、式
v=(h−h)(v−v)/(h−h)+v
に応じて決定するようにしたものである。ここでhは最小高さ、hは最大高さ、vはhに対応した速度、vはhに対応した速度、hは動作時の高さである。
請求項5記載の本発明は、請求項3記載のロボットの制御方法において、ロボットの動作速度は、肢体関節角度情報に対応してメモリに格納されるようにしたものである。
請求項6記載の本発明は、請求項2または3記載のロボットの制御方法において、肢体関節角度情報は無線でロボットへ伝送されるようにしたものである。
請求項7記載の本発明は、人間と協調して作業を行うロボットであり、人間側に配置され人間の負荷を計測するセンサ手段と、前記センサ手段の情報により前記ロボットの動作速度を制御する制御手段とで構成されるようにしたものである。
請求項8記載の本発明は、請求項2または3のいずれかに記載のロボット制御方法において、前記肢体の関節角速度が所定値よりも小さい場合は、前記肢体の関節角速度に応じて、ロボットの動作速度を決定し、大きい場合は、前記肢体の関節角度情報に応じてロボットの動作速度を制御するようにしたものである。
According to the first aspect of the present invention, there is provided a method for controlling a robot that performs work in cooperation with a human, wherein a sensor for measuring a load on the human is arranged on the human side, and the robot is controlled based on sensor information. It is.
According to a second aspect of the present invention, in the method for controlling a robot according to the first aspect, the sensor is an acceleration sensor incorporated in a wearable unit attached to a human limb joint, and detects a distal acceleration of the joint of the limb. A step of detecting the proximal acceleration, a step of calculating joint angle information of the limb from the acceleration information, and a step of transmitting the limb joint angle information to the robot.
According to a third aspect of the present invention, in the robot control method according to the second aspect, the operation speed of the robot is controlled in accordance with the limb joint angle information.
According to a fourth aspect of the present invention, in the robot control method according to the third aspect, the robot operating speed (v) is expressed by the equation v = (h 2 −h 1 ) (v 2 −v 1 ) / (h− h 1 ) + v 1
It is decided according to. Here, h 1 is the minimum height, h 2 is the maximum height, v 1 is the speed corresponding to h 1 , v 2 is the speed corresponding to h 2 , and h is the height during operation.
According to a fifth aspect of the present invention, in the robot control method according to the third aspect, the operation speed of the robot is stored in a memory corresponding to the limb body joint angle information.
According to a sixth aspect of the present invention, in the robot control method according to the second or third aspect, the limb joint angle information is wirelessly transmitted to the robot.
The present invention according to claim 7 is a robot that performs work in cooperation with a human, and controls the operation speed of the robot based on sensor means arranged on the human side for measuring a human load and information of the sensor means. And a control means.
The present invention according to claim 8 is the robot control method according to any one of claims 2 and 3, wherein when the joint angular velocity of the limb is smaller than a predetermined value, the robot is controlled according to the joint angular velocity of the limb. The motion speed is determined. If the motion speed is large, the motion speed of the robot is controlled according to the joint angle information of the limb.

請求項1記載の本発明によると、人間への負荷の状態を直接監視できるため、人間に過剰な負荷を与えることなく物体を把持して運搬することができる。
請求項2記載の本発明によると、人間の肢体の関節角度を直接監視できるため、人間の筋に過剰な負荷を与えることなく、物体を把持して運搬することができる。
請求項3記載の本発明によると、人間の筋の動特性に準じたアシストが可能であるため、人間の筋に過剰な負荷を与えることなく、物体を把持して運搬することができる。
請求項4、5記載の本発明によると、人間の筋に最もあった動作を可能とし、過剰な負荷を与えることなく、物体を把持して運搬することができる。
請求項6記載の本発明によると、センサ情報をセンサとロボット間のケーブルをなくすことができるため、操作性の向上が図れる。
請求項7記載の本発明によると、人間の筋に最もあった動作を可能とするロボットを提供することができる。
請求項8の本発明によると、人間の随意的な筋収縮の開始及び停止に応じてロボットが動作するため安全性の向上が図れる。
According to the first aspect of the present invention, since the state of a load on a human can be directly monitored, an object can be gripped and transported without applying an excessive load to the human.
According to the second aspect of the present invention, since the joint angle of the human limb can be directly monitored, the object can be gripped and transported without applying an excessive load to the human muscle.
According to the third aspect of the present invention, assist according to the dynamic characteristics of human muscles is possible, so that an object can be grasped and transported without applying an excessive load to human muscles.
According to the fourth and fifth aspects of the present invention, it is possible to perform an operation most suitable for human muscles, and it is possible to grasp and carry an object without applying an excessive load.
According to the sixth aspect of the present invention, since the cable between the sensor and the robot can be eliminated for the sensor information, the operability can be improved.
According to the seventh aspect of the present invention, it is possible to provide a robot that can perform an operation most suitable for human muscles.
According to the eighth aspect of the present invention, since the robot operates in response to the start and stop of human arbitrary muscle contraction, safety can be improved.

以下、本発明の実施の形態について図を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の生体情報監視型ロボットおよびその概要図である。人間119はウェアラブルユニット101を装着し、自身の肢体の姿勢情報を、時々刻々生体情報監視ロボット102に送信する。図1に示した本発明の構成は、人間119がしゃがんだ状態から生体情報監視型ロボット102と協調して一つの長尺物120を持ち上げる動作の場合を示している。この場合、人間119がしゃがんだ状態では膝の伸展筋である大腿四頭筋(大腿の前面筋)が伸張している。ウェアラブルユニット101は、本発明にとって特徴的なものではなく、公知の生体情報監視システムで用いられているものと同等である。図2は本発明のシステムにおけるブロック図であり、図1と同じものは同じ符号を付してある。ウエアラブルユニット101は、肢体の近位側の姿勢を検知する近位側加速度センサ104、肢体の遠位側の姿勢を検知する遠位側加速度センサ106、各センサ情報のA/D変換を行うCPU113、CPU113からの出力を生体情報監視ロボット102に送信する送信機114、および各要素部品に電力を供給するバッテリ115から構成される。また、生体情報監視ロボット102は、従来のロボット111と同様に、人間119と協調作業を行うロボットアーム108、ロボットアーム108を駆動するための制御部であるドライバ109を備える。ドライバ109はI/O110を備え、外部装置に対し入出力を行う。本発明の場合、I/O110と、ウェアラブルユニット101からのセンサ情報を取得するための受信機112を備えている。   FIG. 1 is a schematic view of a biological information monitoring robot of the present invention and its outline. The human 119 wears the wearable unit 101 and transmits posture information of his / her limb to the biological information monitoring robot 102 every moment. The configuration of the present invention shown in FIG. 1 shows a case in which one long object 120 is lifted in cooperation with the biological information monitoring robot 102 from a state in which a human 119 is squatting. In this case, when the person 119 is squatting, the quadriceps femoris muscle (frontal muscle of the thigh), which is the knee extensor muscle, is stretched. The wearable unit 101 is not characteristic for the present invention and is equivalent to that used in a known biological information monitoring system. FIG. 2 is a block diagram of the system of the present invention, and the same components as those in FIG. The wearable unit 101 includes a proximal acceleration sensor 104 that detects a posture on the proximal side of the limb, a distal acceleration sensor 106 that detects a posture on the distal side of the limb, and a CPU 113 that performs A / D conversion of each sensor information. The transmitter 114 transmits the output from the CPU 113 to the biological information monitoring robot 102, and the battery 115 supplies power to each component. Similarly to the conventional robot 111, the biological information monitoring robot 102 includes a robot arm 108 that performs cooperative work with the human 119 and a driver 109 that is a control unit for driving the robot arm 108. The driver 109 includes an I / O 110 and performs input / output with respect to an external device. In the case of the present invention, an I / O 110 and a receiver 112 for acquiring sensor information from the wearable unit 101 are provided.

本発明では、人間が肢体の関節の近位側と遠位側に肢体の姿勢を検知するセンサを装着し、(無線にて)センサ情報をロボットに伝送する。ロボットは人間の肢体の関節角度に応じて手先の動作速度を設定する。図4に示すように、一般に筋は負荷がかかり伸張した状態であるほど、短縮速度が小さくなる。この筋の動特性は、筋のHillタイプモデル103として知られている。速度の上限・下限は一定値ではなく、作業や適用部位に応じて適宜調整されるものである。また、肢体の角度と動作速度の関係はグラフ103のような直線関係に限定されず、反比例や指数関数的な曲線状のものとしてもよい。本発明は、この筋の動特性に準じロボットを動作させる。すなわち、近位側加速度センサ104および遠位側加速度センサ106により人の膝角度θk(膝角度θkの定義:最大伸展時を0°とし、屈曲に伴い増加)を監視し、立ち上がりに伴い、膝が伸展する度合いに応じて持ち上げる速度を上昇させる(式(1))。
Zref=Zcur+((v−v)(θk−θm)/θm+v)Δt・・(1)
ここで、Zrefは絶対座標系で鉛直方向における、次の制御周期での目標位置、Zcurは現在の制御周期での位置、vは最小速度、vは最大速度、θmは最大膝角度、Δtは制御周期を表す。
なお、膝角度の計測装置は、上記の例では加速度センサを用いたが、これは振り子が内蔵されており、傾斜センサとして作用するものである。振り子を用いているため、鉛直方向に対する絶対角度が計測できる。したがって、図4に示すように、大腿の傾斜角θおよび下腿の傾斜角θがセンサ出力として得られ、膝角度θkはθ+θとなる。傾斜センサとして、別にジャイロセンサなどを用いて、近位側の肢体姿勢と遠位側の肢体姿勢の相対角度θkを求めてもよい。その場合、近位側センサの出力(速度)をvα近位側センサの出力(速度)をvβ、制御周期をΔtとすると、相対角度θkは(vα−vβ)Δtとなる。ただし肢体関節の屈曲・伸展を計測するには、個々のセンサが2軸以上の姿勢センサであることが望ましいが、いわゆるゴニオメータでも構わない。また、膝関節近傍に測距センサを一つ装着し、地面から膝関節までの距離hを測定し、上昇速度vと対応させてもよい。(式(2))
v=(h−h)(v−v)/(h−h)+v ・・・(2)
ここで、hは最大高さ、hは最小高さである。測距センサの例としては、磁気センサや超音波センサなどが挙げられる。各センサ104、106はアンプ内蔵型とすれば小型・軽量化を図ることができ、肢体への装着性を向上できる。各センサ104、106は、立ち上がりなど1Hz程度の動作を検知する必要があるため、CPU113は10ビット程度のA/D分解能を有することが望ましい。各センサ104、106のセンサ情報は、有線または無線にて生体情報監視ロボット102に伝送されるが、伝送方式は、時間分解能10ms程度、伝送距離は3m程度とすることが望ましい。有線にて構成した場合、応答性や信頼性の面で無線よりも優れている。また、無線にて構成した場合、人間119とロボット102とが離れて作業しても邪魔にならず操作性を高めることができる。無線の場合、送信モジュールの小型・軽量化を図るため、送信機114はアンテナ基板もしくはチップアンテナで構成された方が望ましい。各センサ104、106およびCPU113、送信機114の消費電圧は3V程度、消費電流5mA程度とすることが可能であり、バッテリ115は、携帯電話用のリチウムイオン式2次電池(約750mAh)を用いてもよいが、カメラ用の二酸化マンガンリチウム電池(1400mAh)を用いてもよい。このような構成にすれば、ウェアラブルユニット101の構成部品を全て一体化しても肢体に装着することが可能であるが、センサ部とセンサ部以外(テレメータ)を分離してもよい。通常陸上競技などの運動計測などで用いられるテレメータは、数100m以上の伝送距離を有し、重量も200g程度となるため、センサと一体化して肢体に装着することは困難であるが、テレメータ部を腰や背中に装着する例は公知のとおりである。ウェアラブルユニット101の肢体への装着は、図3ではサポータ式とし、センサなどをケーシングしたものをマジックテープ(登録商標)で固定しているため、多数回使用して固定性が低下した場合に交換できる。個々のケースをマジックテープ(登録商標)(登録商標)付きのベルトで肢体に固定してもよい。
上記の例ではしゃがんだ姿勢を挙げたが、対象とする動作はこれに限定されず、人間とロボットが同時に何かを押したり引いたりする場合などにも適用できる。また、対象とする部位も腕・脚・首・腰など限定されず、複数の部位の姿勢や位置を同時に計測し動作に反映させてもよい。すなわち、本発明により、人間の任意の筋への過剰な負荷を回避することができる。
なお、上記のロボットの制御方法の場合、人間の肢体の角度のみに対応しているため、たとえば、人間が一定の姿勢を保っている場合でも、ロボットは所定の速度で動作することとなり、危険である。そこで、人間の随意的な筋収縮の開始および停止に応じてロボットを動作させるために、図8に示すように、肢体の角速度dθk/dtが所定の値dθm/dtよりも小さい場合には、肢体の角度ではなく、角速度に基づいてロボットを制御する。すなわち、上昇速度がv1になるまでは、肢体の角速度dθk/dtの増大に応じて上昇速度を増大させる。上昇速度を増大させる方法は、図8に示したような直線状でもよいし、階段状あるいは曲線的でもよく限定されない。このように、人間の随意的な筋収縮の開始および停止に応じてロボットが動作するため、安全性の向上が図れる。
In the present invention, a human wears a sensor for detecting the posture of the limb on the proximal side and the distal side of the joint of the limb, and transmits the sensor information to the robot (by radio). The robot sets the movement speed of the hand according to the joint angle of the human limb. As shown in FIG. 4, generally, the shorter the muscle is loaded and stretched, the smaller the shortening speed. This muscle dynamic characteristic is known as a muscle Hill type model 103. The upper and lower limits of the speed are not constant values, but are adjusted as appropriate according to the work and application site. Further, the relationship between the angle of the limbs and the motion speed is not limited to the linear relationship as in the graph 103, and may be an inversely proportional or exponential curve. The present invention operates the robot according to the dynamic characteristics of the muscle. That is, the knee acceleration θk (definition of the knee angle θk: the maximum extension time is set to 0 ° and increases with flexion) is monitored by the proximal acceleration sensor 104 and the distal acceleration sensor 106, and the knee is increased with rising. The lifting speed is increased in accordance with the degree of extension (formula (1)).
Zref = Zcur + ((v 1 −v 2 ) (θk−θm) / θm + v 1 ) Δt (1)
Here, Zref is in the vertical direction in the absolute coordinate system, the target position in the next control cycle, Zcur the position of the current control cycle, v 1 is the minimum velocity, v 2 is the maximum speed, .theta.m the maximum knee angle, Δt represents a control cycle.
The knee angle measuring device uses an acceleration sensor in the above example, but this has a built-in pendulum and acts as a tilt sensor. Since a pendulum is used, the absolute angle with respect to the vertical direction can be measured. Therefore, as shown in FIG. 4, the thigh inclination angle θ 1 and the lower leg inclination angle θ 2 are obtained as sensor outputs, and the knee angle θk is θ 1 + θ 2 . As a tilt sensor, a relative angle θk between the proximal limb posture and the distal limb posture may be obtained using a gyro sensor or the like. In that case, the output of the proximal sensor (speed) v alpha proximal side sensor output (speed) v beta, when the control period is Delta] t, the relative angle θk becomes (v α -v β) Δt. However, in order to measure the flexion / extension of the limb joints, each sensor is preferably a posture sensor having two or more axes, but a so-called goniometer may be used. Alternatively, one distance measuring sensor may be mounted in the vicinity of the knee joint, and the distance h from the ground to the knee joint may be measured to correspond to the ascent speed v. (Formula (2))
v = (h 2 −h 1 ) (v 2 −v 1 ) / (h−h 1 ) + v 1 (2)
Here, h 2 is the maximum height, h 1 is the minimum height. Examples of the distance measuring sensor include a magnetic sensor and an ultrasonic sensor. If each of the sensors 104 and 106 is of a built-in amplifier type, the size and weight can be reduced, and the attachment to the limbs can be improved. Since each of the sensors 104 and 106 needs to detect an operation of about 1 Hz such as rising, it is desirable that the CPU 113 has an A / D resolution of about 10 bits. The sensor information of each sensor 104, 106 is transmitted to the biological information monitoring robot 102 by wire or wirelessly, but the transmission method is preferably about 10 ms in time resolution and about 3 m in transmission distance. When wired, it is superior to wireless in terms of responsiveness and reliability. Further, when configured wirelessly, even if the human 119 and the robot 102 work away from each other, the operability can be improved without being disturbed. In the case of wireless communication, it is desirable that the transmitter 114 be composed of an antenna substrate or a chip antenna in order to reduce the size and weight of the transmission module. The power consumption of each sensor 104, 106, CPU 113, and transmitter 114 can be about 3V, and the current consumption can be about 5mA. The battery 115 uses a lithium ion secondary battery (about 750mAh) for mobile phones. However, a manganese dioxide lithium battery (1400 mAh) for a camera may be used. With such a configuration, it is possible to attach to the limb even if all the components of the wearable unit 101 are integrated, but the sensor unit and other than the sensor unit (telemeter) may be separated. Telemeters usually used for exercise measurements such as athletics have a transmission distance of several hundred meters or more and a weight of about 200 g. Therefore, it is difficult to integrate a sensor with a limb body, Examples of attaching the to the waist and back are known. The wearable unit 101 is attached to the limb in FIG. 3 because it is a supporter type, and the sensor casing is fixed with Velcro (registered trademark). it can. Each case may be fixed to the limb with a belt with Velcro (registered trademark) (registered trademark).
In the above example, the squatting posture is given, but the target motion is not limited to this, and it can be applied to a case where a human and a robot push or pull something at the same time. Also, the target part is not limited to arms, legs, neck, waist, etc. The postures and positions of a plurality of parts may be simultaneously measured and reflected in the operation. That is, according to the present invention, an excessive load on any human muscle can be avoided.
Note that the robot control method described above supports only the angle of the human limbs. For example, even when the human is in a certain posture, the robot operates at a predetermined speed, which is dangerous. It is. Therefore, in order to operate the robot in response to the start and stop of human arbitrary muscle contraction, as shown in FIG. 8, when the angular velocity dθk / dt of the limb is smaller than a predetermined value dθm / dt, The robot is controlled based on the angular velocity, not the limb angle. That is, the rising speed is increased according to the increase in the angular velocity dθk / dt of the limb until the rising speed reaches v1. The method of increasing the rising speed may be linear as shown in FIG. 8, or may be stepped or curved, and is not limited. Thus, since the robot operates in response to the start and stop of voluntary muscle contraction by humans, safety can be improved.

本発明のロボットの制御方法は、人間と協調して作業を行うロボットの制御方法に適用できる。   The robot control method of the present invention can be applied to a robot control method that performs work in cooperation with a human.

本発明の実施例における生体情報監視ロボットとその概要図Biological information monitoring robot and its schematic diagram 本発明のブロック図Block diagram of the present invention 本発明の装着状態を示す図The figure which shows the mounting state of this invention 本発明の制御則を示す図The figure which shows the control law of this invention 従来技術の構成図Configuration diagram of conventional technology 従来技術の検出出力成分を説明する図The figure explaining the detection output component of a prior art 従来技術の制御構成図Prior art control configuration diagram 本発明の制御則を示す図The figure which shows the control law of this invention

符号の説明Explanation of symbols

101 ウェアラブルユニット(送信部)
102 生体情報監視ロボット(受信部)
103 筋のHillタイプモデル
104 近位側加速度センサ
105 無線ユニット(送信側)
106 遠位側加速度センサ
107 無線ユニット(受信側)
108 ロボットアーム
109 ドライバ
110 I/O
111 従来のロボット
112 受信機
113 A/D変換機能付きCPU
114 送信機
115 バッテリ
116 サポータ
117 マジックテープ(登録商標)
118 センサへのパワー線と信号線
119 人間
120 長尺物
101 Wearable unit (transmitter)
102 Biological information monitoring robot (receiver)
103 Muscle type model 104 Proximal acceleration sensor 105 Wireless unit (transmission side)
106 Distal acceleration sensor 107 Wireless unit (receiving side)
108 Robot arm 109 Driver 110 I / O
111 Conventional Robot 112 Receiver 113 CPU with A / D Conversion Function
114 Transmitter 115 Battery 116 Supporter 117 Magic Tape (Registered Trademark)
118 Power and signal lines to sensor 119 Human 120 Long object

Claims (8)

人間と協調して作業を行うロボットの制御方法において、
人間側に人間への負荷を計測するセンサを配置し、前記センサの情報により前記ロボットを制御することを特徴とするロボットの制御方法。
In the control method of the robot that works in cooperation with humans,
A method for controlling a robot, wherein a sensor for measuring a load on a human is arranged on a human side, and the robot is controlled based on information from the sensor.
前記センサは人間肢体関節部に装着するウエアラブルユニットに組み込まれた加速度センサであり、
肢体の関節の遠位側加速度を検出するステップと、
近位側加速度を検出するステップと、
前記加速度情報から前記肢体関節角度情報を演算するステップと、
前記肢体関節角度情報をロボットへ伝送するステップを備えることを特徴とする請求項1記載のロボットの制御方法。
The sensor is an acceleration sensor incorporated in a wearable unit attached to a human limb body joint,
Detecting the distal acceleration of the joints of the limbs;
Detecting proximal acceleration; and
Calculating the limb joint angle information from the acceleration information;
The robot control method according to claim 1, further comprising a step of transmitting the limb joint angle information to the robot.
前記肢体関節角度情報に応じてロボットの動作速度を制御することを特徴とする請求項2記載のロボットの制御方法。   The robot control method according to claim 2, wherein an operation speed of the robot is controlled according to the limb joint angle information. 前記ロボットの動作速度(v)を、式
v=(h−h)(v−v)/(h−h)+v
ここで hは最小高さ、hは最大高さ、vはhに対応した速度、vはhに対応した速度、hは動作時の高さ
に応じて決定することを特徴とする請求項3記載のロボット制御方法。
The motion speed (v) of the robot is expressed by the equation v = (h 2 −h 1 ) (v 2 −v 1 ) / (h−h 1 ) + v 1
Where h 1 is the minimum height, h 2 is the maximum height, v 1 is a speed corresponding to h 1, v speed 2 corresponding to h 2, h is to be determined depending on the height of the operation The robot control method according to claim 3, wherein:
前記ロボットの動作速度は、前記肢体関節角度情報に対応してメモリに格納されていることを特徴とする請求項3記載のロボット制御方法。   4. The robot control method according to claim 3, wherein the operation speed of the robot is stored in a memory corresponding to the limb joint angle information. 前記肢体関節角度情報は無線でロボットへ伝送されることを特徴とする請求項2または3記載のロボットの制御方法。   4. The robot control method according to claim 2, wherein the limb joint angle information is wirelessly transmitted to the robot. 人間と協調して作業を行うロボットであり、人間側に配置され人間の負荷を計測するセンサ手段と、前記センサ手段の情報により前記ロボットの動作速度を制御する制御手段とで構成されることを特徴とするロボット。   It is a robot that performs work in cooperation with humans, and is composed of sensor means arranged on the human side for measuring human load and control means for controlling the operation speed of the robot based on information of the sensor means. Characteristic robot. 前記肢体の関節角速度が所定値よりも小さい場合は、前記肢体の関節角速度に応じて、ロボットの動作速度を決定し、大きい場合は、前記肢体の関節角度情報に応じてロボットの動作速度を制御することを特徴とする請求項2または3のいずれかに記載のロボット制御方法。   When the joint angular velocity of the limb is smaller than a predetermined value, the robot operation speed is determined according to the joint angular velocity of the limb, and when it is larger, the robot operation speed is controlled according to the joint angle information of the limb. The robot control method according to claim 2, wherein the robot control method is performed.
JP2005184702A 2004-06-30 2005-06-24 Robot and method for controlling robot Pending JP2006043872A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005184702A JP2006043872A (en) 2004-06-30 2005-06-24 Robot and method for controlling robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004193796 2004-06-30
JP2005184702A JP2006043872A (en) 2004-06-30 2005-06-24 Robot and method for controlling robot

Publications (1)

Publication Number Publication Date
JP2006043872A true JP2006043872A (en) 2006-02-16

Family

ID=36023010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005184702A Pending JP2006043872A (en) 2004-06-30 2005-06-24 Robot and method for controlling robot

Country Status (1)

Country Link
JP (1) JP2006043872A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018100760A1 (en) * 2016-12-02 2018-06-07 Cyberdyne株式会社 Upper limb motion assisting device and upper limb motion assisting system
JP2019135080A (en) * 2019-05-07 2019-08-15 株式会社クボタ Assist suit
CN113503860A (en) * 2021-08-30 2021-10-15 京东方科技集团股份有限公司 Levelness detection jig and detection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018100760A1 (en) * 2016-12-02 2018-06-07 Cyberdyne株式会社 Upper limb motion assisting device and upper limb motion assisting system
JPWO2018100760A1 (en) * 2016-12-02 2019-10-17 Cyberdyne株式会社 Upper limb motion support device and upper limb motion support system
JP2019135080A (en) * 2019-05-07 2019-08-15 株式会社クボタ Assist suit
CN113503860A (en) * 2021-08-30 2021-10-15 京东方科技集团股份有限公司 Levelness detection jig and detection method
CN113503860B (en) * 2021-08-30 2023-08-08 京东方科技集团股份有限公司 Levelness detection jig and levelness detection method

Similar Documents

Publication Publication Date Title
US10710237B2 (en) Assist device
KR102146363B1 (en) Wearable robot and control method for the same
US9539162B2 (en) Wearing type behavior help device, wearing type behavior help device calibration device, and calibration program
US9427373B2 (en) Wearable action-assist device and control program
KR102163284B1 (en) Wearable robot and control method for the same
KR101772974B1 (en) Method for generating human-like motion of humanoid robot
US11622906B2 (en) Ankle-less walking assistant apparatus and method for controlling the same
KR102452632B1 (en) A motion assist apparatus and a control method thereof
Lim et al. Development of a lower extremity exoskeleton robot with a quasi-anthropomorphic design approach for load carriage
JP6734015B2 (en) Walking assistance device and method of controlling walking assistance device
KR102073001B1 (en) Wearable robot and method for controlling the same
JP4549758B2 (en) Exercise measurement method, exercise measurement device, and exercise measurement program
WO2010120402A1 (en) System and apparatus for orientation control
JP6055985B2 (en) Power assist robot
US20170156895A1 (en) Movement assistance system and method thereof
JP2006043872A (en) Robot and method for controlling robot
KR20130113063A (en) Human power amplification robot estimating user&#39;s intension by detecting joint torque and control method thereof
KR20050041133A (en) Walking training support robot with the distributed control of pneumatic actuator
US20200290209A1 (en) Control device for robot
CN210757742U (en) Foot state detection device of biped robot
KR101697958B1 (en) Walking System
JP2016064454A (en) Control device for mobile robot
CN111728827A (en) Power lower limb exoskeleton control method, device and system
KR20190018070A (en) Control method and system of wearable apparatus for assisting muscular strength
US20220354405A1 (en) Method and device for measuring muscular fitness of user using wearable device