WO2004103651A1 - 物体協調運搬ロボットの制御方法及びその装置 - Google Patents

物体協調運搬ロボットの制御方法及びその装置 Download PDF

Info

Publication number
WO2004103651A1
WO2004103651A1 PCT/JP2000/002079 JP0002079W WO2004103651A1 WO 2004103651 A1 WO2004103651 A1 WO 2004103651A1 JP 0002079 W JP0002079 W JP 0002079W WO 2004103651 A1 WO2004103651 A1 WO 2004103651A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
motion
sensor
component
force
Prior art date
Application number
PCT/JP2000/002079
Other languages
English (en)
French (fr)
Inventor
Hirohiko Arai
Kazuo Tanie
Yasuo Hayashibara
Yukinobu Sonoda
Tomohito Takubo
Original Assignee
Hirohiko Arai
Kazuo Tanie
Yasuo Hayashibara
Yukinobu Sonoda
Tomohito Takubo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP11153158A external-priority patent/JP3099067B1/ja
Priority claimed from JP15326399A external-priority patent/JP3163346B2/ja
Application filed by Hirohiko Arai, Kazuo Tanie, Yasuo Hayashibara, Yukinobu Sonoda, Tomohito Takubo filed Critical Hirohiko Arai
Priority to US09/774,173 priority Critical patent/US6522952B1/en
Publication of WO2004103651A1 publication Critical patent/WO2004103651A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36429Power assisted positioning

Definitions

  • the present invention relates to a method and an apparatus for controlling a cooperative transport port bot that can be used for heavy load transport work in mining, agriculture, forestry and fisheries, construction, distribution, homes, and the like.
  • this method requires the operator to grasp and move the haptic sensor handle at the tip of the robot arm, so that the force can be applied to only one point on the object.
  • the robot arm 1 and the hand 2 at the tip and the operator (human) 3 hold both ends of the object 4 as shown in Fig. 1.
  • the robot arm 1 can measure the force by providing a haptic sensor 5, but the operator 3 cannot directly measure the force applied to the object 4. It is difficult to apply the above power assist technology. '
  • the present invention addresses such a problem, and in controlling a cooperative transport robot in which a human and a robot grip both ends of a long object and share and carry the load due to the weight, an object weight is reduced.
  • the purpose is to obtain a control means that allows the robot arm to bear half of it.
  • Another object of the present invention is to provide only a single sensor for measuring the force applied from an object to the robot arm as a force sensor, and to provide a force sensor for measuring the force of the operator.
  • An object of the present invention is to provide a control means of an object cooperative transport robot which does not need to know the size and mass of the object in advance.
  • Another object of the present invention is to control the direction of movement of an object in the control of the object cooperative transport port, thereby simplifying the relationship between the force applied by a human and the motion of the object, and The aim is to be able to grasp the behavior intuitively with a daily sense.
  • Still another object of the present invention is to allow the above-described behavior of the object to be grasped on a daily basis without impairing the original purpose of transporting the object to an arbitrary target position and posture.
  • the object of the present invention is to obtain a control means for a coordinated transport robot.
  • a control method basically provides an object-coordinated transport robot that allows a human and a robot to grip and transport both ends of a long object or a large object.
  • This is a control method that controls the robot by detecting the angle of the hand of the robot with an angle sensor and outputting a motion command for the vertical translation of the hand based on the sensor signal so that the object keeps horizontal. It is a feature.
  • the force applied to the robot from the object and the angle of the hand are detected by a sensor, and based on the sensor signals, the rotational force component around the horizontal axis and the translational component By setting the gain so that is small, a motion command to drive the robot arm can be output.
  • control device is basically a control device that controls an object-cooperative transport robot that allows a human and a robot to grip and transport both ends of a long object or a large object.
  • An angle sensor that detects an object gripping angle of the hand of the robot; and a motion that outputs a vertical motion component of the hand based on the angle of the hand detected by the angle sensor so that the object maintains a horizontal position.
  • a conversion unit and a coordinate conversion unit that outputs a motion command for driving a robot arm based on the motion component are provided.
  • a control unit configured to detect a force applied to the robot from the object; a coordinate conversion unit configured to separate a rotational force component around a horizontal axis and a translational force component in a horizontal front-rear direction from a sensor signal of the sensor; A car motion conversion unit that outputs the motion components with a gain that reduces the resistance of the robot in the rotation and translation directions based on the above two components, and for driving the robot arm by combining the motion components. And a coordinate conversion unit that outputs the motion command.
  • the control means of the object cooperative transport port pot having the above configuration, a human and a robot grasp an object at both ends and share the load due to its weight to control the object cooperative transport robot.
  • the robot arm By controlling the vertical translation of the hand to keep the object horizontal, the robot arm is controlled to bear about half of the object weight, while the rotational force at the hand of the robot arm becomes zero. So that the rotational movement of the hand can be controlled. It is sufficient to provide only one sensor that measures the force applied from the object to the robot arm as a force sensor, and there is no need for a force sensor to measure the operator's force. Need not be known in advance.
  • the second control method of the present invention is a control method for controlling an object-cooperative transport robot in which a human and a robot grasp both ends of a long object or a large-sized object and transport the object in a horizontal plane. Then, the force applied to the robot from the object is detected by the haptic sensor, and the rotational force component about the vertical axis separated from the sensor signal and the translation in the longitudinal direction of the object connecting the gripping point by the human and the gripping point by the mouth bot Based on the force component, the rotational motion component around the vertical axis and the translational component in the object long axis direction are output by setting a gain so that the resistance force of the robot is reduced.
  • the translational force component in the direction of the short axis of the object perpendicular to the object is constrained so that no translational movement in the direction of the short axis of the object occurs.
  • Temporary provisional The system is characterized in that the robot arm is driven while giving the same motion restriction as that supported by a dynamic wheel, and in such a control method, the angle of the hand of the robot is detected by an angle sensor, and the sensor Based on the signal, it is also possible to perform control on the assumption that a movement command for the vertical translation of the hand is output so that the object maintains the horizontal position.
  • a second control device of the present invention is a control device for controlling an object-cooperative transport robot for transporting a horizontal or horizontal object by holding both ends of a long object or a large-sized object by a human and a mouth pot.
  • a force sensor that detects the force applied to the robot from the object, the rotational force component around the vertical axis from the sensor signal, and the longitudinal direction of the object connecting the gripping point by the human and the gripping point by the robot.
  • a coordinate conversion unit for separating the translational force component in the direction of the orthogonal short axis of the object A force-to-motion conversion unit that outputs the motion components with a gain that reduces the resistance of the robot in the rotation and translation directions based on the translational force components; and A coordinate conversion unit that synthesizes an axial translational motion component and outputs a motion command to drive the robot arm.
  • the control means of the object-cooperative transport robot having the above configuration, when a human and a robot control an object-cooperative transport robot that grips both ends of a long object or a large object and transports the object in a horizontal plane, On the other hand, it gives a movement restriction equivalent to that supported by the virtual wheel oriented in the object long axis direction at one point on the robot side, thereby restricting the direction in which the object can move.
  • the relationship between the force applied by the operator and the movement of the object is simplified, and the operator can intuitively grasp the behavior of the object with a daily sense.
  • the original purpose of the work such as transporting the object to an arbitrary target position and posture, is not impaired.
  • FIG. 1 is an explanatory diagram of an object-cooperative transport robot controlled based on the present invention.
  • FIG. 2 is an explanatory diagram of a detection output component of a camera sensor used in the first control of the object cooperative transport robot according to the present invention.
  • FIG. 3 is a configuration diagram of a first control system of the object-cooperative transport robot according to the present invention.
  • FIG. 4 is a conceptual explanatory diagram of the second control according to the present invention.
  • FIG. 5 is an explanatory diagram of a detection output component of a camera sensor used in the second control of the object-cooperative transport robot according to the present invention.
  • FIG. 6 is a configuration diagram of a second control system of the object cooperative transport robot according to the present invention.
  • the vertical motion of the robot tip should be controlled so as to cancel the tilt of the object.
  • the object is tilted by lifting the object, if the robot also lifts the object, the tilt of the object is canceled and the horizontal state is maintained. The same applies when the object is lowered.
  • the robot only has to follow the force applied by the human to the object. That is, virtual inertia and viscosity are set for the horizontal motion of the robot tip, and if the values are set sufficiently low, human-like motion can be achieved without giving any resistance to humans.
  • a force sensor 5 is provided between the robot arm 1 and the hand 2 at the tip of the robot arm, and the force sensor 5 causes the mouth pot side of the object 4 to be positioned.
  • a force applied from the operator side Q to the robot arm 1 via the object 4 at the object support point P of the object is detected, and the obtained sensor signal is translated into a translational force component F x 1 in the horizontal front-rear direction (PQ direction).
  • the translational force component Fz in the vertical direction (PR direction) and the rotational force component around the horizontal axis around point P are decomposed into one.
  • each joint of the robot arm is provided with a joint actuator that drives each joint, and an angle sensor that detects the joint angle is provided. The inclination angle e of is detected.
  • the horizontal velocity at the point P of the object 4 and the hand position are set so that the robot moves without resistance in each direction.
  • the rotation speed is determined.
  • the velocity in the vertical direction at the point P for leveling the object 4 is determined in proportion to the inclination angle ⁇ of the object 4.
  • the rotational motion component around the horizontal axis and the translational force component FX 1 around the horizontal axis in the sensor signal of the visual sensor 5 and the translational force component FX 1 around the horizontal axis are used.
  • By driving the robot arm by setting the gain so that the robot's resistance is reduced, the translational motion component in the horizontal front-rear direction is driven, while the hand angle detected by the sensor signal of the hand angle sensor ( With respect to the tilt angle ⁇ ) of the object 4, a movement command of a vertical translational motion proportional to the angle is output, and the hand of the robot arm is driven up and down so as to keep the object horizontal.
  • the object can rotate freely, and no torque is applied to the object.
  • the force is almost half as long according to the mass distribution of the long object.
  • a human applies a horizontal force to an object, the robot moves horizontally without any resistance.
  • a human lifts the object and tilts the object, a vertical upward speed is generated at the robot hand so that the tilt angle becomes zero, and the object rises while maintaining the horizontal level. The same applies to the case where an object held by a human is lowered.
  • Such control can be said to be such that impedance control is performed in the horizontal direction and the initial state of the object is maintained in the vertical direction.
  • a hand 2 for grasping the object 4 and a force sensor 5 for detecting the force applied by the operator via the object 4 are arranged at the tip of the mouth pot arm 1 as shown in FIG. It is necessary. Also, as described above, each joint of the robot arm is provided with a joint actuator that drives each joint, and an angle sensor that detects the joint angle is provided. It should be noted that these joint actuator and angle sensors generally use those that are generally provided in a drive-controlled robot arm.
  • the sensor signal detected by the camera sensor 5 is input to a control device (computer).
  • a control device computer
  • the component F x 1 and the translational force component F z in the vertical direction, and the rotational force component about the horizontal axis are separated by 1.
  • the inclination angle 0 of the object 4 is It is measured.
  • the translational motion component in the PQ direction at point P in FIG. Is determined. Further, based on the rotational force component ⁇ 1 around the horizontal axis, the rotational motion component (angular velocity ′ angular acceleration) around the point ⁇ is determined by calculation as in the following equation (2). These are determined by the gain settings that reduce the resistance of the mouth pot in the rotation and translation directions.
  • the motion conversion part determines the vertical translational component (velocity) of the point P in proportion to the tilt angle 0 of the object as shown in Equation (3).
  • the coordinate transformation unit (c) synthesizes the above-described respective motion components, determines the motion of the hand of the robot arm 1, outputs a motion command for driving each joint actuator, and outputs the motion of each joint actuator.
  • the joint position and drive speed are fed back so that the movement of the robot arm approaches the target value, as detected by the angle sensor provided at the joint.
  • the direction in which the bogie can move is momentarily limited by the direction of the wheels.
  • the bogie can be moved back and forth in the direction parallel to the wheels by the rotation of the wheels, but in the direction perpendicular to the wheels, the wheels do not slip against the frictional force between the floor and the wheels. As long as you can not move. Motion restriction of this nature is called nonholonomic constraint.
  • the robot controls the robot so that it behaves in the same way as a trolley, humans can intuitively grasp the fist movement of the object, making it easy to transport the object to the target position and posture.
  • the object 4 may be limited in motion such that the object 4 is supported by virtual wheels 6 oriented in the long axis direction of the object on the robot side 4a.
  • the operator side 4b the same work as carrying the object by pushing the trolley in the appropriate direction exemplified by the arrow becomes possible.
  • a force sensor 5 is provided between the robot arm 1 and the hand 2 at the tip thereof, and the force sensor 5 causes the mouth pot side of the object 4 to move.
  • the force applied from the operator side Q to the robot arm 1 side via the object 4 is detected, and the obtained sensor signal is transmitted in the object long axis direction (PQ direction) connecting the operator and the robot.
  • the translational force component Fx 2 , the translational force component Fy in the direction perpendicular to it (PR direction), and the rotational force component around the vertical axis at the point P are decomposed into two .
  • the translational motion component in the long axis direction of the object is output by setting the gain so that the resistance of the robot is small.
  • the translational force component Fy in the short axis direction of the object is output in the short axis direction of the object.
  • the robot arm is driven so that translational motion is not generated.
  • the constraint for preventing the translational movement in the short axis direction of the object may be such that the motion command is output so that the short axis direction motion component becomes substantially zero. In this way, the point P on the object 4 shown in FIG. 5 can be translated only in the PQ direction. It is also possible to rotate around point P.
  • a second device as described below with reference to FIGS. 5 and 6 can be used.
  • a hand 2 for grasping the object 4 and a haptic sensor 5 for detecting the force applied by the operator through the object 4 are arranged at the tip of the robot arm 1, as shown in Fig. 5. is necessary.
  • the sensor signal detected by the camera sensor 5 is input to a control device (computer).
  • a control device as shown in FIG.
  • translational force component F x 2 and translational force component F y of the object minor axis direction, and a rotational force component tau 2 about the vertical axis are separated.
  • the Kerr motion converter the translational motion component (velocity / acceleration) in the PQ direction at the point P in FIG.
  • the rotational motion component (angular velocity, angular acceleration) around point ⁇ is determined based on the rotational force component ⁇ 2 of. These are determined by the gain settings that reduce the resistance of the robot in the rotation and translation directions.
  • the translational motion component (velocity / acceleration) of the point P in the PR direction is set to zero, regardless of the output of the haptic sensor, and the coordinate transformation unit (2 ), These motion components are synthesized, and a motion command for driving each joint actuator of the robot arm 1 is output.
  • the motion of the joint actuator is detected by a joint sensor provided at each joint, and the position and driving speed of the joint are fed back so that the motion of the robot arm approaches the target value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Description

物体協調運搬ロボットの制御方法及びその装置 技術分野
本発明は、 鉱工業 ·農林水産業 ·建設業 ·流通業 ·家庭等における重量物運搬 作業に利用できる物体協調運搬口ボットの制御方法及びその装置に関するもので ある。 背景技術
人間と口ポットが協調して物体を運搬する方法としては、 まず、 カリフォルニ ァ大学、 東北大学、 工業技術院機械技術研究所等で研究されてきたパワーアシス トという方法がある。 これは、 ロボットアーム先端に把持した物体の負荷と操作 者から加えられる力をそれぞれ検出する二つのカ覚センサを装着し、 操作者から 加えられた力を増幅して物体に加えることにより、 ロボットが操作者の運動にな らつて運動しながら操作者の負荷を低減するという技術である。
ところが、 この方法では操作者がロボットアーム先端のカ覚センサハンドルを 掴んで動かすことが必要となるため、 力を加えることができるのは物体の 1力所 のみに限定される。 長尺物あるいは寸法の大きな物体を運搬する場合には、 図 1 に示すように、 ロボットアーム 1先端のハンド 2と操作者 (人間) 3が物体 4の 両端等を持って支えることが望ましいが、 その場合に、 ロボットアーム 1側では カ覚センサ 5を設けて力を測定できて'も、 操作者 3側では物体 4に加えてレ、る力 は直接測定することができず、 そのため、 上記パワーアシストの技術を適用する ことは困難である。 '
—方、 人間とロボットが物体の何力所かを支持し、 負荷を分担して運搬する方 法は、 米国スタンフォード大学、 東北大学等において研究されてきた。 これらは 主にインピーダンス制御に基づいている。 すなわち、 物体の重量を補償すること により、 物体を無重量状態にして支えると同時に、 物体または口ポットに仮想的 なインピーダンス (慣性、 粘性、 パネ係数) を設定し、 人間が加えた力の変化に 応じて物体の運動を変化させ、 人間の動きに物体の運動をならわせるという方法 である。
しかしながら、 物体に作用する重力を捕償するためには、 物体の質量及び質量 配分を予め知っていることが必要である。 このことは、 様々な物体の運搬に柔軟 に適用するための妨げとなる。
また、 物体が長尺物の場合に、 人間が加えることのできるのは主に並進力のみ であり、 対象物の一端でトルク (回転力) を加えることは難しい。 インピーダン ス制御を基本とした場合、 人間とロボットを結ぶ長軸方向の直進動作は容易であ るが、 回転を含む動作で、 口ポット側の端点を目標点に位置制御するのは、 人間 にとつて困難な作業となる。 人間が弱い力を加えただけで物体が動くようにする には、 'I賞性 ·粘生等のインピーダンスパラメータを低く設定する必要がある。 し かし、 そうした場合、 法線方向のドリフト (ずれ運動) が生じ、 それを停止させ るのは難しいため、 物体の拳動が直感的に予想しにくいという問題点がある。 上記の従来の技術の問題点は、 インピーダンスパラメータを全方向均一に、 ま た、 固定された絶対座標空間内で設定するために生じたものである。 その結果と して、 物体の挙動は、 あたかも無重力空間に浮かんだ物体に力を加えて動かす場 合という、 人間が日常経験しないものとなり、 物体を目標の位置'姿勢へと動か す作業が困難になる。 発明の開示
本発明は、 このような問題に対処し、 人間とロボットが長尺物の両端を把持し て、 その重量による負荷を分担して運搬するようにした協調運搬ロボットの制御 において、 物体重量の約半分をロボットアームに負担させるようにした制御手段 を得ることにある。
本発明の他の目的は、 カ覚センサとして、 ロボットアームに物体から加えられ る力を計測する 1個のセンサのみを備えればよく、.操作者の力を計測するための カ覚センサを必要とせず、 さらに、 物体の寸法や質量も予め知る必要がない物体 協調運搬ロボットの制御手段を得ることにある。 本発明の他の目的は、 上記物体協調運搬口ポットの制御において、 物体が運動 可能な方向を制限することにより、 人間が加えた力と物体の運動の関係を単純化 し、 人間が物体の挙動を日常的な感覚で直感的に把握できる うにすることにあ る。
また、 本発明の更に他の目的は、 物体を任意の目標位置.姿勢に運搬するとい う、 作業本来の目的を損なうことなく、 上述した物体の挙動を日常的な感覚で把 握できるようにした物体協調運搬ロボットの制御手段を得ることにある。
上記目的を達成するため、 本発明に係る制御方法は、 基本的には、 人間とロボ ットが長尺物あるいは寸法の大きな物体の両端を把持して運搬するための物体協 調運搬ロボットを制御する制御方法であって、 ロボットの手先の角度を角度セン サで検出し、 そのセンサ信号に基づき、 物体が水平を維持するように手先の鉛直 方向の並進運動の運動指令を出力させることを特徴とするものである。
上記制御方法においては、 物体からロボットに加わる力及び手先の角度をセン サで検出し、 そのセンサ信号に基づき、 水平軸周りの回転運動成分及び水平前後 方向の並進運動成分について、 ロボットの抵抗力が小さくなるようにゲインを設 定して、 ロボットアームを駆動する運動指令を出力させることができる。
一方、 本発明に係る制御装置は、 基本的には、 人間とロボットが長尺物あるい は寸法の大きな物体の両端を把持して運搬するための物体協調運搬ロボットを制 御する制御装置であって、 ロボットの手先の物体把持角度を検出する角度センサ と、 上記角度センサにより検出された手先の角度に基づいて、 物体が水平を維持 するように手先の鉛直方向の運動成分を出力する運動変換部と、 上記運動成分に 基づいてロボットアームを駆動するための運動指令を出力する座標変換部とを備 えたことを特徴とするものである。
上記制御装置は、 物体からロボットに加わる力を検出するカ覚センサと、 その カ覚センサのセンサ信号から水平軸周りの回転力成分及び水平前後方向の並進力 成分を分離する座標変換部と、 上記両カ成分に基づいて、 それらの回転及び並進 方向のロボットの抵抗力が小さくなるゲインでそれらの運動成分を出力するカー 運動変換部と、 各運動成分を合成してロボットアームを駆動するための運動指令 を出力する座標変換部とを備えたものとすることができる。 上記構成を有する物体協調運搬口ポットの制御手段によれば、 人間とロボット が物体の両端を把持して、 その重量による負荷を分担して運搬するようにした物 体協調運搬ロボットを制御するに際し、 物体が水平を維持するように手先の鉛直 方向の並進運動を制御することによって、 物体重量の約半分をロボットアームに 負担させるように制御する一方、 ロボットアームの手先における回転力が零とな るように手先の回転運動を制御することができる。 カ覚センサとして、 ロボット アームに物体から加えられる力を計測する 1個のセンサのみを備えればよく、 操 作者の力を計測する.ためのカ覚センサの必要がなく、 物体の寸法や質量も予め知 る必要もない。
また、 本発明の第 2の制御方法は、 人間とロボットが長尺物あるいは寸法の大 きな物体の両端を把持して水平面内を運搬するための物体協調運搬ロボットを制 御する制御方法であって、 物体からロポットに加わる力をカ覚センサで検出し、 そのセンサ信号から分離した鉛直軸周りの回転力成分及び人間による把持点と口 ボットによる把持点とを結ぶ物体長軸方向の並進力成分に基づき、 上記鉛直軸周 りの回転運動成分及び上記物体長軸方向の並進運動成分を、 ロボットの抵抗力が 小さくなるようにゲインを設定して出力させ、 一方、 上記物体長軸方向と直交す る物体短軸方向の並進力成分に対しては物体短軸方向の並進運動が生じないよう に拘束し、 それにより、 物体に対してそれがロボット側の一点で物体長軸方向を 向いた仮想的な車輪に支えられているのと同等な運動制限を与えてロボットァー ムを駆動することを特徴とし、 更に、 そのような制御方法において、 ロボットの 手先の角度を角度センサで検出し、 そのセンサ信号に基づき、 物体が水平を維持 するように手先の鉛直方向の並進運動の運動指令を出力させることを前提とした 制御を行うこともできる。
更に、 本発明の第 2の制御装置は、 人間と口ポットが長尺物あるいは寸法の大 きな物体の両端を把持して水平面内を運搬するための物体協調運搬ロボットを制 御する制御装置であって、 物体からロボットに加わる力を検出するカ覚センサと、 そのセンサ信号から鉛直軸周りの回転力成分、 並びに人間による把持点とロボッ トによる把持点とを結ぶ物体長軸方向及びそれと直交する物体短軸方向の並進力 成分を分離する座標変換部と、 上記鉛直軸周りの回転力成分及ぴ物体長軸方向の 並進力成分に基づいて、 それらの回転及び並進方向のロボットの抵抗力が小さく なるゲインでそれらの運動成分を出力する力一運動変換部と、 これらの運動成分 及ぴゼロに設定した上記物体短軸方向の並進運動成分を合成し、 ロボットアーム を駆動する運動指令を出力する座標変換部とを備えたことを特徴とするものであ る。
上記構成を有する物体協調運搬ロボットの制御手段によれば、 人間とロボット が長尺物あるいは寸法の大きな物体の両端を把持して水平面内を運搬する物体協 調運搬ロボットを制御するに際し、 物体に対してそれがロボット側の一点で上記 物体長軸方向を向いた仮想的な車輪に支えられているのと同等な運動制限を与え、 それにより、 物体が運動可能な方向を制限しているので、 操作者が加えた力と物 体の運動の関係が単純化され、 操作者が物体の挙動を日常的な感覚で直感的に把 握することが可能になる。 しかも、 物体を任意の目標位置'姿勢に運搬するとい う、 作業本来の目的を損なうこともない。 図面の簡単な説明
図 1は本発明に基づいて制御する物体協調運搬ロボットについての説明図であ る。
図 2は本発明による物体協調運搬ロポットの第 1の制御において用いるカ覚セ ンサの検出出力成分についての説明図である。
図 3は本発明における物体協調運搬ロボットの第 1の制御系の構成図である。 図 4は本発明による第 2の制御についての概念的な説明図である。
図 5は本発明による物体協調運搬ロボットの第 2の制御において用いるカ覚セ ンサの検出出力成分についての説明図である。
図 6は本発明における物体協調運搬ロボットの第 2の制御系の構成図である。 発明を実施するための最良の形態
人間とロボットが物体の両端を把持して協調運搬する場合、 物体の重量をどの ように分配して負担するかが最も重要となる。 一般に、 物体を支持した点でトル ク (回転力) を加えることなく、 並進力のみで物体を支えれば、 鉛直方向の力は 物体重心からの距離に反比例して配分される。 長尺物はほぼ均一な質量配分を持 つ場合が多いから、 ロボット先端でトルクを物体に加えず先端が自由に回転する 状態になれば、 長尺物の質量や寸法に関係なく、 人間と口ポットはほぼ半分ずつ 重量を負担することになる。
一方、 長尺物の運搬においては、 物体を水平に保ったまま移動する場合が最も 多いと考えられる。 したがって、 ロボット先端の上下方向の運動は、 物体の傾き を打ち消すように制御するのがよレ、。 すなわち、 人間が物体を持ち上げることに よって物体に傾きが発生した場合、 ロボットもやはり物体を持ちあげるようにす れば、 物体の傾きが打ち消され、 水平状態が保たれる。 物体を下に降ろす場合も 同様である。
物体の水平移動に関しては、 人間が物体に加えた力にならうようにロボットが 運動すればよい。 すなわち、 ロボット先端の水平方向の運動に関して仮想的な慣 性、 粘性を設定し、 その値を十分低く取れば、 人間に抵抗力を与えることなく人 間にならつた運動が可能となる。
具体的には、 図 1及ぴ図 2に示すように、 ロボットアーム 1とその先端のハン ド 2との間にカ覚センサ 5を設け、 このカ覚センサ 5により、 物体 4における口 ポット側の物体支持点 Pにおいて操作者側 Qから物体 4を介してロボットアーム 1側に加えられる力を検出し、 得られたセンサ信号を、 水平前後方向 (P Q方 向) の並進力成分 F x 1、 鉛直方向 (P R方向) の並進力成分 F z、 及び点 P周 りにおける水平軸周りの回転力成分て 1に分解する。
また、 ロボットアームの各関節には、 図示を省略しているが、 それぞれの関節 を駆動する関節ァクチユエータを設けると共に、 その関節角度を検出する角度セ ンサを設け、 それらのセンサ信号に基づいて物体の傾き角 eを検出する。
そして、 水平前後方向の並進力成分 F x 1と回転力成分て 1については、 ロボ ットがそれぞれの方向に抵抗なく運動するように、 物体 4の点 Pでの水平方向の 速度、 手先の回転速度が決定される。 また、 物体 4の傾き角 Θに比例して、 物体 を水平にするための点 Pでの鉛直方向の速度が決定される。
そのためには、 カ覚センサ 5のセンサ信号における水平軸周りの回転力成分て 1及び水平前後方向の並進力成分 F X 1に基づき、 水平軸周りの回転運動成分及 ぴ水平前後方向の並進運動成分を、 ロボットの抵抗力が小さくなるようにゲイン を設定して出力させることにより、 ロボットアームを駆動し、 一方、 手先の角度 センサのセンサ信号で検出した手先角度 (物体 4の傾き角 Θ ) については、 それ に比例する鉛直方向の並進運動の運動指令を出力させ、 物体が水平を維持するよ うにロボットアームの手先を昇降駆動することになる。
このようにして、 ロボットが物体を支持する点 (図 2上の点 P ) の周りでは、 物体を自由に回転することができ、 物体にトルクを加えることがないため、 人間 とロボットの鉛直方向の力は長尺物の質量配分に従ってほぼ半分ずっとなる。 さ らに、 人間が物体に水平方向の力を加えると、 ロボットはそれにならって抵抗な く水平に移動する。 また、 人間が物体を持ち上げて物体が傾くと、 傾き角を零と するようにロボット手先に鉛直方向上向きの速度が発生するため、 物体は水平を 保ったまま上昇することになる。 人間が把持している物体を降ろす場合も同様で ある。
このような制御は、 水平方向についてはインピーダンス制御を行い、 鉛直方向 については物体の初期状態を保つような制御ということもできる。
上述した制御方法を実施するためには、 図 2及び図 3によって以下に説明する ような装置を用いることができる。
まず、 口ポットアーム 1の先端には、 図 2に示すように、 物体 4を把持するた めのハンド 2及び操作者が加えた力を物体 4を介して検出するカ覚センサ 5を配 することが必要である。 また、 前述したように、 ロボットアームの各関節には、 それぞれの関節を'駆動する関節ァクチユエータを設けると共に、 その関節角度を 検出する角度センサが設けられる。 なお、 これらの関節ァクチユエータゃ角度セ ンサは、 駆動制御されるロボットアームに一般的に設けられているものをそのま ま利用するものである。
カ覚センサ 5において検出されたセンサ信号は、 制御装置 (コンピュータ) に 入力されるが、 この制御装置では、 図 3に示すように、 座標変換部 ( a ) におい て、 水平前後方向の並進力成分 F x 1及び鉛直方向の並進力成分 F z、 並びに水 平軸周りの回転力成分て 1が分離される。
一方、 ロボットアームの各関節の角度センサにおいては、 物体 4の傾き角 0が 計測される。
そして、 カー運動変換部において、 上記水平前後方向の並進力成分 Fx に基 づき、 下記式 (1) のような演算により、 図 2の点 Pにおける PQ方向の並進運 動成分 (速度 '加速度) が決定され、 また、 水平軸周りの回転力成分 τ 1に基づ き、 下記式 (2) のような演算により、 点 Ρまわりの回転運動成分 (角速度 '角 加速度) が決定される。 これらは、 回転及び並進方向の口ポットの抵抗力が小さ くなるゲインの設定により決定されるものである。
.. , .. Fxi ~ Bx
Fxi = Mx + Bx x → x = x = J x d t (1) τ ι-Bd Θ- τ ι= I 'θ +Bd Θ → 'θ = , θ = θ d t (2)
この場合、 ロボットによる抵抗力を小さくするために、 目標憤性係数 M、 目標 慣性モーメント係数 Iや、 目標粘性摩擦係数 Bx 、 目標粘性摩擦係数 Bd は、 低 一方、 角度センサにおいて検出され、 座標変換部 (b) において求めた傾き角 0に基づき、 運動変換部において、 式 (3) のように、 物体の傾き角 0に比例し て点 Pの鉛直方向の並進運動成分 (速度) が決定される。
z =Κ Θ (3)
座標変換部 (c) は、 上述した各運動成分を合成して、 ロボットアーム 1の手 先の運動を決定し、 各関節 クチユエータを駆動する運動指令を出力し、 各関節 ァクチユエータの動作は、 それぞれの関節に設けた角度センサにより検出され、 ロボットアームの動作が目標値に近づくように関節 位置や駆動速度がフィード パックされる。 次に、 図 4ないし図 6を参照して、 本発明に係る第 2の制御手段について説明 する。 この制御においては、 上述したロボットの手先の角度を角度センサで検出 し、 そのセンサ信号に基づき、 物体が水平を維持するように手先の鉛直方向の並 進運動の運動指令を出力させることを前提として、 以下に説明する方法及び装置 を構成することもできる。
受動的な車輪を持つ台車に物体を載せ、 水平な床面上で台車を押して物体を運 搬するという作業は、 一輪運搬車 (いわゆるネコ車) 、 ショッピングカート、 ベ ビーカー、 テーブルワゴン等において、 人間が日常的にしばしば経験するもので ある。
これらの場合、 台車が運動可能な方向は、 瞬間的には車輪の方向によって制限 されている。 すなわち、 車輪と平行な方向には、 車輪の回転によって台車を前後 に動かすことが可能であるが、 車輪と垂直な方向には、 床面と車輪との摩擦力に' 逆らって車輪をスリップさせない限り、 動かすことができない。 このような性質 の運動制限を非ホロノミック拘束と呼ぶ。
このような運動方向の制限に拘わらず、 適切な軌道に沿って台車を押すことに より台車を最終的に任意の目標位置 ·姿勢に持って行くことは可能であり、 その ことは数学的にも証明されている。 また、 人間は日常の経験からそれを実現する 技能を一般に有していると言える。
そこで、 図 1に示すように、 ロボットアーム 1のハンド 2と操作者 3とが長尺 物あるいは寸法の大きな物体 4の両端を把持し、 向かい合って水平面内を協調運 搬する場合においても、 物体 4が台車と同様の挙動を行うようにロポットを制御 すれば、 人間は物体の拳動を直感的に把握することができるため、 容易に目標の 位置 .姿勢まで物体を運搬することが可能になる。 そのためには、 図 4に示すよ うに、 物体 4に対して、 それがロボット側 4 aで物体長軸方向を向いた仮想的な 車輪 6に支えられているような運動制限を与えればよく、 それにより、 操作者側 4 bでは、 矢印によって例示する適宜方向に台車を押して物体を運搬するのと同 様な作業が可能になる。 ·
具体的には、 図 5に示すように、 ロボットアーム 1とその先端のハンド 2との 間にカ覚センサ 5を設け、 このカ覚センサ 5により、 物体4における口ポット側 の 1点 Pにおいて操作者側 Qから物体 4を介してロボットアーム 1側に加えられ る力を検出し、 得られたセンサ信号を、 操作者とロボットを結ぶ物体長軸方向 ( P Q方向) の並進力成分 Fx 2、 それと垂直の方向 (P R方向) の並進力成分 F y、 及ぴ点 Pにおける鉛直軸周りの回転力成分て 2に分解する。 そして、 回転 力成分て 2と長軸方向の並進力成分 F X2とについては、 それぞれの方向にロボッ トが抵抗なく運動するようにし、 並進力成分 F yについては、 ロボットの運動を 制限し、 それにより、 物体 4が点 Pで物体長軸方向を向いた仮想的な車輪によつ て支えられているのと同等な運動制限を与えることになる。
そのためには、 カ覚センサ 5のセンサ信号における鉛直軸周りの回転力成分 τ 2及ぴ物体長軸方向の並進力成分 F X 2に基づき、 鉛直軸周りの回転運動成分及び
■物体長軸方向の並進運動成分を、 ロボットの抵抗力が小さくなるようにゲインを 設定して出力させ、 一方、 物体短軸方向の並進力成分 F yに対しては物体短軸方 向の並進運動が生じないように拘束し、 ロボットアームを駆動することになる。 なお、 この物体短軸方向の並進運動が生じないようにするための拘束は、 短軸 方向運動成分が実質的に 0になるように運動指令が出力されるようにすればよい。 このようにして、 図 5に示す物体 4上の点 Pは、 P Q方向にのみ並進させるこ とができる。 また、 点 P周りで回転させることも可能である。 さらに、 直線 F Q に接する滑らかな曲線軌道に沿って進みながら、 進行方向を連続的に変えてゆく こともできる。 物体 4の挙動は、 点 Pで車輪に支えられている場合と同様になる ため、 操作者は台車を押す場合と同じ技能を用いて、 直感的に目標の位置 ·姿勢 まで物体を運搬することができる。
上述した第 1の制御方法を実施するためには、 図 5及び図 6によつて以下に説 明するような第 2の装置を用いることができる。
まず、 ロボットアーム 1の先端には、 図 5に示すように、 物体 4を把持するた めのハンド 2及び操作者が加えた力を物体 4を介して検出するカ覚センサ 5を配 することが必要である。 カ覚センサ 5において検出されたセンサ信号は、 制御装 置 (コンピュータ) に入力されるが、 この制御装置では、 図 6に示すように、 座 標変換部 (1 ) において、 物体長軸方向の並進力成分 F x2及び物体短軸方向の 並進力成分 F y、 並びに鉛直軸周りの回転力成分 τ 2が分離される。 そして、 カー運動変換部において、 上記物体長軸方向の並進力成分 F X 2に基 づき、 図 5の点 Pにおける P Q方向の並進運動成分 (速度 ·加速度) が決定され、 また、 鉛直軸周りの回転力成分 τ 2に基づいて、 点 Ρまわりの回転運動成分 (角 速度,角加速度) が決定される。 これらは、 回転及ぴ並進方向のロボットの抵抗 力が小さくなるゲインの設定により決定されるるものである。 一方、 短軸方向並 進力成分 F yについては、 カ覚センサの出力の如何に拘わらず、 点 Pの P R方向 の並進運動成分 (速度 '加速度) をゼロに設定し、 座標変換部 (2 ) においてこ れらの運動成分を合成して、 ロボットアーム 1の各関節ァクチユエータを駆動す る運動指令を出力させる。 関節ァクチユエータの動作は、 それぞれの関節に設け た関節センサにより検出され、 ロボットアームの動作が目標値に近づくように関 節の位置や駆動速度がフィードパックされる。

Claims

言青求の範囲
1 . 人間とロボットが長尺物あるいは寸法の大きな物体の両端を把持して運 搬するための物体協調運搬ロボットを制御する制御方法であって、
ロボットの手先の角度を角虔センサで検出し、 そのセンサ信号に基づき、 物体 が水平を維持するように手先の鉛直方向の並進運動の運動指令を出力させる、 ことを特徴とする物体協調運搬ロボットの制御方法。
2 . 請求の範囲 1に記載の方法において、
物体からロボットに加わる力及び手先の角度をセンサで検出し、 そのセンサ信 号に基づき、 水平軸周りの回転運動成分及び水平前後方向の並進運動成分につい て、 ロボットの抵抗力が小さくなるようにゲインを設定して、 ロボットアームを 駆動する運動指令を出力させる、
ことを特徴とする物体協調運搬ロボットの制御方法。
3 . 人間とロボットが長尺物あるいは寸法の大きな物体の両端を把持して水 平面内を運搬するための物体協調運搬ロポットを制御する制御方法であって、 物体からロボットに加わる力をカ覚センサで検出し、 そのセンサ信号から分離 した鉛直軸周りの回転力成分及び人間による把持点とロボットによる把持点とを 結ぶ物体長軸方向の並進力成分に基づき、 上記鉛直軸周りの回転運動成分及び上 記物体長軸方向の並進運動成分を、 ロボットの抵抗力が小さくなるようにゲイン を設定して出力させ、 一方、 上記物体長軸方向と直交する物体短軸方向の並進力 成分に対しては物体短軸方向の並進運動が生じないように拘束し、
それにより、 物体に対してそれがロボット側の一点で物体長軸方向を向いた仮 想的な車輪に支えられているのと同等な運動制限を与えてロボットアームを駆動 する、
ことを特^¾とする物体協調運搬ロボットの制御方法。
4 . 請求の範囲 3に記載の方法において、
ロボットの手先の角度を角度センサで検出し、 そのセンサ信号に基づき、 物体 が水平を維持するように手先の鉛直方向の並進運動の運動指令を出力させる、 ことを特徴とする物体協調運搬ロボットの制御方法。
5 . 人間とロボットが長尺物あるいは寸法の大きな物体の両端を把持して運 搬するための物体協調運搬ロボットを制御する制御装置であって、
ロボットの手先の物体把持角度を検出する角度センサと、 上記角度センサによ り検出された手先の角度に基づいて、 物体が水平を維持するように手先の鉛直方 向の運動成分を出力する運動変換部と、 上記運動成分に基づいてロボットアーム を駆動するための運動指令を出力する座標変換部とを備えた、
ことを特徴とする物体協調運搬ロボットの制御装置。
6 . 請求の範囲 5に記載の装置において、
物体からロポットに加わる力を検出するカ覚センサと、 そのカ覚センサのセン サ信号から水平軸周りの回転力成分及び水平前後方向の並進力成分を分離する座 標変換部と、 上記両カ成分に基づいて、 それらの回転及び並進方向の口ポットの 抵抗力が小さくなるゲインでそれらの運動成分を出力するカー運動変換部と、 各 運動成分を合成してロボットアームを駆動するための運動指令を出力する座標変 換部とを備えた、 ·
ことを特徴とする物体協調運搬ロボットの制御装置。
7 . 人間とロボットが長尺物あるいは寸法の大きな物体の両端を把持して水 平面内を運搬するための物体協調運搬ロボットを制御する制御装置であって、 物体からロボットに加わる力を検出するカ覚センサと、 そのセンサ信号から鉛 直軸周りの回転力成分、 並びに人間による把持点とロボットによる把持点とを結 ぶ物体長軸方向及びそれと直交する物体短軸方向の並進力成分を分離する座標変 換部と、 上記鉛直軸周りの回転力成分及ぴ物体長軸方向の並進力成分に基づいて、 それらの回転及び並進方向の口ボットの抵抗力が小さくなるゲインでそれらの運 動成分を出力する力一運動変換部と、 これらの運動成分及びゼロに設定した上記 物体短軸方向の並進運動成分を合成し、 ロボットアームを駆動する運動指令を出 力する座標変換部とを備えた、
ことを特徴とする物体協調運搬ロボットの制御装置。
PCT/JP2000/002079 1999-06-01 2000-03-31 物体協調運搬ロボットの制御方法及びその装置 WO2004103651A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US09/774,173 US6522952B1 (en) 1999-06-01 2000-03-31 Method and system for controlling cooperative object-transporting robot

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP11-153263 1999-06-01
JP11153158A JP3099067B1 (ja) 1999-06-01 1999-06-01 物体協調運搬ロボットの制御方法及びその装置
JP11-153158 1999-06-01
JP15326399A JP3163346B2 (ja) 1999-06-01 1999-06-01 物体協調運搬ロボットの制御方法及びその装置

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US09/774,173 A-371-Of-International US6522952B1 (en) 1999-06-01 2000-03-31 Method and system for controlling cooperative object-transporting robot
US10/319,606 Division US6654665B2 (en) 1999-06-01 2002-12-16 Method and system for controlling cooperative object-transporting robot

Publications (1)

Publication Number Publication Date
WO2004103651A1 true WO2004103651A1 (ja) 2004-12-02

Family

ID=26481876

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/002079 WO2004103651A1 (ja) 1999-06-01 2000-03-31 物体協調運搬ロボットの制御方法及びその装置

Country Status (2)

Country Link
US (2) US6522952B1 (ja)
WO (1) WO2004103651A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104635616A (zh) * 2014-12-18 2015-05-20 华南理工大学 一种应用于人机技能传递的人机耦合装置及方法

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6928336B2 (en) * 2001-02-12 2005-08-09 The Stanley Works System and architecture for providing a modular intelligent assist system
US6813542B2 (en) * 2001-02-12 2004-11-02 The Stanley Works Modules for use in an integrated intelligent assist system
US6907317B2 (en) * 2001-02-12 2005-06-14 The Stanley Works Hub for a modular intelligent assist system
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
CN101213052B (zh) * 2006-01-13 2011-01-12 松下电器产业株式会社 机械手臂的控制装置
US7683565B2 (en) * 2006-05-19 2010-03-23 Mako Surgical Corp. Method and apparatus for controlling a haptic device
JP4862537B2 (ja) * 2006-07-28 2012-01-25 沖電気工業株式会社 筋力トレーニング装置
US7747351B2 (en) * 2007-06-27 2010-06-29 Panasonic Corporation Apparatus and method for controlling robot arm, and robot and program
JP4319232B2 (ja) * 2007-09-12 2009-08-26 トヨタ自動車株式会社 パワーアシスト装置およびその制御方法
DE102007050232B4 (de) * 2007-10-20 2024-05-02 Deutsches Zentrum für Luft- und Raumfahrt e.V. Handhabungsroboter und Verfahren zur Steuerung eines Handhabungsroboters
JP4445038B2 (ja) * 2008-02-06 2010-04-07 パナソニック株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボットの制御装置の制御プログラム
JP4443614B2 (ja) * 2008-02-27 2010-03-31 トヨタ自動車株式会社 パワーアシスト装置及びその制御方法
JP4508263B2 (ja) * 2008-04-24 2010-07-21 トヨタ自動車株式会社 パワーアシスト装置およびその制御方法
US8317453B2 (en) * 2008-05-15 2012-11-27 Ray Givens Compound-arm manipulator
US8401702B2 (en) * 2008-06-06 2013-03-19 Panasonic Corporation Robot, and control apparatus, control method, and control program for robot
JP4896276B2 (ja) 2010-01-04 2012-03-14 パナソニック株式会社 ロボット、ロボットの制御装置、制御方法、及び制御プログラム
FR2960467B1 (fr) * 2010-06-01 2012-07-27 Robotiques 3 Dimensions Equipement de robotique collaborative
JP5383911B2 (ja) * 2010-06-22 2014-01-08 株式会社東芝 ロボット制御装置
CN101870110B (zh) * 2010-07-01 2012-01-04 三一重工股份有限公司 一种机械铰接臂的控制方法及控制装置
JP5198514B2 (ja) * 2010-07-22 2013-05-15 株式会社東芝 ロボット制御装置
US8606403B2 (en) 2010-12-14 2013-12-10 Harris Corporation Haptic interface handle with force-indicating trigger mechanism
US8918214B2 (en) 2011-01-19 2014-12-23 Harris Corporation Telematic interface with directional translation
US8918215B2 (en) * 2011-01-19 2014-12-23 Harris Corporation Telematic interface with control signal scaling based on force sensor feedback
US9205555B2 (en) 2011-03-22 2015-12-08 Harris Corporation Manipulator joint-limit handling algorithm
US8694134B2 (en) 2011-05-05 2014-04-08 Harris Corporation Remote control interface
US8639386B2 (en) 2011-05-20 2014-01-28 Harris Corporation Haptic device for manipulator and vehicle control
US9026250B2 (en) 2011-08-17 2015-05-05 Harris Corporation Haptic manipulation system for wheelchairs
US8996244B2 (en) 2011-10-06 2015-03-31 Harris Corporation Improvised explosive device defeat system
US9308645B2 (en) * 2012-03-21 2016-04-12 GM Global Technology Operations LLC Method of inferring intentions of an operator to move a robotic system
DE102013206696B4 (de) * 2012-04-18 2018-11-22 Eb-Invent Gmbh Vorrichtung und ein Verfahren zur Steuerung einer Handhabungseinrichtung
FR2994401B1 (fr) * 2012-08-10 2014-08-08 Commissariat Energie Atomique Procede et systeme d'assistance au pilotage d'un robot a fonction de detection d'intention d'un operateur
EP2896487A1 (en) * 2012-09-04 2015-07-22 Kabushiki Kaisha Yaskawa Denki Method for adjusting robot control parameters, robot system, and robot control device
US8954195B2 (en) 2012-11-09 2015-02-10 Harris Corporation Hybrid gesture control haptic system
US9008828B2 (en) 2013-01-28 2015-04-14 Amazon Technologies, Inc. Inventory system with connectable inventory holders
CN105009004B (zh) * 2013-01-28 2019-02-22 亚马逊科技公司 具有可连接的库存保持器的库存系统
US9008830B2 (en) 2013-01-28 2015-04-14 Amazon Technologies, Inc. Inventory system with connectable inventory holders
US9008829B2 (en) 2013-01-28 2015-04-14 Amazon Technologies, Inc. Inventory system with connectable inventory holders
US8965620B2 (en) 2013-02-07 2015-02-24 Harris Corporation Systems and methods for controlling movement of unmanned vehicles
JP5942311B2 (ja) * 2013-02-25 2016-06-29 パナソニックIpマネジメント株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
US9128507B2 (en) 2013-12-30 2015-09-08 Harris Corporation Compact haptic interface
US10299868B2 (en) * 2014-03-14 2019-05-28 Sony Corporation Robot arm apparatus, robot arm control method, and program
JP5893666B2 (ja) * 2014-04-14 2016-03-23 ファナック株式会社 力に応じて動かすロボットのロボット制御装置およびロボットシステム
US10759634B2 (en) * 2014-08-08 2020-09-01 GM Global Technology Operations LLC Electromechanical system for interaction with an operator
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US10239740B2 (en) 2015-03-06 2019-03-26 Walmart Apollo, Llc Shopping facility assistance system and method having a motorized transport unit that selectively leads or follows a user within a shopping facility
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
JP6582483B2 (ja) * 2015-03-26 2019-10-02 セイコーエプソン株式会社 ロボット制御装置およびロボットシステム
WO2016196512A1 (en) * 2015-05-29 2016-12-08 Abb Technology Ag Method and system for robotic adaptive production
JP6046218B1 (ja) * 2015-07-09 2016-12-14 ファナック株式会社 物体と物体とを合わせ状態にするロボットのロボット制御装置
JP6240689B2 (ja) * 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
DE102016009030B4 (de) 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
JP6565752B2 (ja) * 2016-03-17 2019-08-28 株式会社安川電機 ロボット制御装置及びロボット制御方法
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
JP6517762B2 (ja) * 2016-08-23 2019-05-22 ファナック株式会社 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
JP6226049B1 (ja) 2016-09-07 2017-11-08 オムロン株式会社 制御装置、システム、制御方法およびプログラム
US10642244B2 (en) * 2016-12-19 2020-05-05 Autodesk, Inc. Robotic augmentation of creative tasks
CA3088273C (en) * 2018-01-09 2023-07-11 Palfinger Ag Lifting device
US20210015582A1 (en) * 2018-03-22 2021-01-21 Sony Olympus Medical Solutions Inc. Medical holding apparatus
JP7049909B2 (ja) * 2018-05-11 2022-04-07 川崎重工業株式会社 基板搬送ロボット及び基板保持ハンドの光軸ずれ検出方法
CN112273054B (zh) * 2020-11-30 2022-06-17 南宁学院 一种三指柔性百香果采摘机械手
FR3135640B1 (fr) * 2022-05-20 2024-05-03 Commissariat Energie Atomique Procédé de comanipulation d’une pièce par un opérateur aidé par un partenaire robotique.
CN115609582B (zh) * 2022-10-11 2023-07-07 江苏高倍智能装备有限公司 一种多移动机械手协同搬运控制方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6279058A (ja) * 1985-10-03 1987-04-11 株式会社アマダ 運搬ロボツト
JPS63200983A (ja) * 1987-02-16 1988-08-19 トキコ株式会社 工業用ロボツト
JPH07205072A (ja) * 1994-01-26 1995-08-08 Mazda Motor Corp 複数ロボットの協調制御装置
JP2000176872A (ja) * 1998-12-15 2000-06-27 Toyota Motor Corp マニピュレータ

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE1005719A3 (fr) 1992-03-17 1993-12-28 Solvay Procede de production d'epichlorhydrine.
JP2761574B2 (ja) * 1994-07-06 1998-06-04 工業技術院長 力補助装置の制御方法及びその装置
US5865426A (en) * 1996-03-27 1999-02-02 Kazerooni; Homayoon Human power amplifier for vertical maneuvers
JP3504507B2 (ja) * 1998-09-17 2004-03-08 トヨタ自動車株式会社 適切反力付与型作業補助装置
JP2000246674A (ja) * 1999-02-26 2000-09-12 Sony Corp 力覚提示装置
US6204619B1 (en) * 1999-10-04 2001-03-20 Daimlerchrysler Corporation Dynamic control algorithm and program for power-assisted lift device
US6554252B2 (en) * 2001-09-28 2003-04-29 Homayoon Kazerooni Device and method for wireless lifting assist devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6279058A (ja) * 1985-10-03 1987-04-11 株式会社アマダ 運搬ロボツト
JPS63200983A (ja) * 1987-02-16 1988-08-19 トキコ株式会社 工業用ロボツト
JPH07205072A (ja) * 1994-01-26 1995-08-08 Mazda Motor Corp 複数ロボットの協調制御装置
JP2000176872A (ja) * 1998-12-15 2000-06-27 Toyota Motor Corp マニピュレータ

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Yasuo HAYASHIBARA et al., "Choujakubutsu Upanji no Hito No Kyouchou Koudou ni kansuru Kenkyu, Extended Abstracts of the 16th lecturing, Japan Robot Society, 18 September, 1998, Vol. 1, pages 107-108 *
Yoshizumi IKEHO et al., "Ningen to Kyouchou suru Robot No Kahen Damping Seugyo to Jukkenteki Hyouka", Proceedings of the 47th general lecture meeting at Tokai Branch, The Japan Society of Mechanical Engineers, 06 March, 1998, No. 983-1, pages 305-306 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104635616A (zh) * 2014-12-18 2015-05-20 华南理工大学 一种应用于人机技能传递的人机耦合装置及方法

Also Published As

Publication number Publication date
US6654665B2 (en) 2003-11-25
US6522952B1 (en) 2003-02-18
US20030135303A1 (en) 2003-07-17

Similar Documents

Publication Publication Date Title
WO2004103651A1 (ja) 物体協調運搬ロボットの制御方法及びその装置
Takubo et al. Human-robot cooperative manipulation using a virtual nonholonomic constraint
Arai et al. Human-robot cooperative manipulation using a virtual nonholonomic constraint
US9308645B2 (en) Method of inferring intentions of an operator to move a robotic system
WO2015143273A2 (en) Mobile human-friendly assistive robot
KR20110010796A (ko) 힘 균형 유지 이동성 로봇 시스템
US10576617B1 (en) Service robot having movable center of mass
JP2015202534A (ja) 力に応じて動かすロボットのロボット制御装置およびロボットシステム
JP2010271911A (ja) 案内用ロボット及びその制御方法
JP3099067B1 (ja) 物体協調運搬ロボットの制御方法及びその装置
Campeau-Lecours et al. An articulated assistive robot for intuitive hands-on-payload manipulation
JP2001097221A (ja) 全方向移動台車
JP2007038059A (ja) 作業補助装置
JP3163346B2 (ja) 物体協調運搬ロボットの制御方法及びその装置
JP5510599B2 (ja) 案内用ロボット
Takubo et al. Human-robot cooperative handling using virtual nonholonomic constraint in 3-D space
Aguilera et al. Control of Cart-Like Nonholonomic Systems Using a Mobile Manipulator
JP2002258944A (ja) 移動台車の遠隔操作装置および移動台車の操舵入力装置
JP4115927B2 (ja) 作業補助アーム
Wakabayashi et al. Design and control of a heavy-load, low-cost power-assisted cart using brakes and a differential gear system
KR102043403B1 (ko) 모터로 구동되는 이동체 및 그 제어 방법
JP2005034960A (ja) 搬送装置
JP4376712B2 (ja) 操作装置
Zarei et al. Force Analysis of a Spherical Single-wheeled Robot
Carignan et al. Achieving impedance objectives in robot teleoperation

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 09774173

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): US